Загрузка интерфейса...

-

Глубоководный чат-бот

🤔 Советы по использованию сервиса
1. Выберите модель ИИ на вкладке «Текстовый диалог»: LLaMA-7B, GPT-3.5-turbo или Claude 2. Разница между нейросетями описана ниже. 2. Введите свой запрос в поле для диалога. Для получения точного ответа используйте больше конкретики. Среднее время ответа — 5-15 секунд. 3. Переключитесь на вкладку «Вопрос по изображению», чтобы чат-бот ответил на вопросы, используя контекст фото. Среднее время ответа — 15-30 секунд.

⚠️ Текущий лимит: 10 сообщений в час

Режим:
Глубоководная Акула
Онлайн
Приветствую! Меня зовут Глубоководная Акула, я — чат-бот. С радостью отвечу на любой ваш вопрос.
Модель нейросети
Режим имитации диалога

Примеры промтов (запросов) для журналистов

  1. Напиши заголовок для этой новости: «[Текст новости]»
  2. Изложи в двух предложениях эту статью: «[Текст статьи]»
  3. Резюмируй содержание этой статьи: «[Текст статьи]»
  4. Создай контент-план для [Название издания и его тематика]
  5. Выступи в роли журналиста. Пиши текст с экспрессией, используй факты, придерживайся при этом журналистской этики. Для начала напиши статью примерно из [количество] слов на тему: «[Тема статьи]»
  6. Дополни следующий текст научными фактами или другой полезной для читателя информацией: «[Текст]»
  7. Действуй как критик. Расскажи о недостатках этого текста: «[Текст]»

В чём разница моделей LLaMA-7B, GPT-3.5-turbo/16k и Claude 2?

LLaMA-7B GPT-3.5-turbo/16k Claude 2
LLaMA-7B (Large Language Model Meta AI) умеет генерировать разнообразные и сложные ответы на широкий спектр вопросов, писать художественные тексты, придумывать шутки, идеи, сценарии для видео, названия для брендов, слоганы и т.д GPT-3.5-turbo/16k (Generative Pre-trained Transformer) — нейросеть, на которой основан известный чат-бот ChatGPT от OpenAI. GPT-3.5-turbo выполняет те же задачи по генерации текста, что и LLaMA, но зачастую справляется лучше Claude 2 — новая нейросеть команды Anthropic. Её главные функции: обработка больших объёмом информации, суммаризация текста, ответы на сложные вопросы. При генерации контента Claude 2 стремится к точности, а не к креативности
LLaMA-7B может отвечать на различные провокационные и неоднозначные вопросы Модели GPT в этом плане подвержены цензуре Claude 2 также уделяет большое внимание безопасности пользователей
LLaMA-7B плохо справляется с написанием кода и использованием контекста диалога для ответов GPT-3.5-turbo/16k способен писать код и использовать при генерации ответов предыдущие запросы пользователя Claude 2 не предназначен для помощи в программировании. В своих ответах он тоже использует контекст
LLaMA-7B пишет только короткие ответы. Как правило, до 1000 символов GPT-3.5-turbo может выдавать развёрнутые ответы до 4000 токенов, модель 16k — 16 000 токенов (около 6000 слов) Claude 2 обладает самым большим контекстным окном — 100 000 токенов (75 000 слов)