🤔 Советы по использованию сервиса
1. Выберите модель ИИ на вкладке «Текстовый диалог»: LLaMA-7B, GPT-3.5-turbo или Claude 2. Разница между нейросетями описана ниже.
2. Введите свой запрос в поле для диалога. Для получения точного ответа используйте больше конкретики. Среднее время ответа — 5-15 секунд.
3. Переключитесь на вкладку «Вопрос по изображению», чтобы чат-бот ответил на вопросы, используя контекст фото. Среднее время ответа — 15-30 секунд.
⚠️ Текущий лимит: 10 сообщений в час
LLaMA-7B | GPT-3.5-turbo/16k | Claude 2 |
---|---|---|
LLaMA-7B (Large Language Model Meta AI) умеет генерировать разнообразные и сложные ответы на широкий спектр вопросов, писать художественные тексты, придумывать шутки, идеи, сценарии для видео, названия для брендов, слоганы и т.д | GPT-3.5-turbo/16k (Generative Pre-trained Transformer) — нейросеть, на которой основан известный чат-бот ChatGPT от OpenAI. GPT-3.5-turbo выполняет те же задачи по генерации текста, что и LLaMA, но зачастую справляется лучше | Claude 2 — новая нейросеть команды Anthropic. Её главные функции: обработка больших объёмом информации, суммаризация текста, ответы на сложные вопросы. При генерации контента Claude 2 стремится к точности, а не к креативности |
LLaMA-7B может отвечать на различные провокационные и неоднозначные вопросы | Модели GPT в этом плане подвержены цензуре | Claude 2 также уделяет большое внимание безопасности пользователей |
LLaMA-7B плохо справляется с написанием кода и использованием контекста диалога для ответов | GPT-3.5-turbo/16k способен писать код и использовать при генерации ответов предыдущие запросы пользователя | Claude 2 не предназначен для помощи в программировании. В своих ответах он тоже использует контекст |
LLaMA-7B пишет только короткие ответы. Как правило, до 1000 символов | GPT-3.5-turbo может выдавать развёрнутые ответы до 4000 токенов, модель 16k — 16 000 токенов (около 6000 слов) | Claude 2 обладает самым большим контекстным окном — 100 000 токенов (75 000 слов) |