Несколько причин, по которым обычно не стоит отвечать на вопрос в чате копипастой из LLM.

Почему нельзя

  1. Ненужность. Сейчас у большинства людей есть доступ к LLM. Если человек задаёт вопрос – обычно он ознакомился с некоторой информацией на тему, в том числе из нейросетей.
  2. Стиль речи. Стиль речи LLM, её особенности форматирования, речевых конструкций (“это не X, это – Y”, “Ты попал прямо в точку!") сильно отличаются от ответа, который дал бы человек. Это мешает чтению. Особенно этим грешат отдельные модели (gpt-4o, Gemini…).
  3. Неточность ответа LLM. Нейросети часто дают неполный или недостаточно точный ответ.
  4. Неизвестный “эпистемический статус”. Когда человек отвечает “из головы” – он действует на основе своего опыта/знаний/интуиции. Если же человек отвечает с помощью LLM – часто он некомпетентен, и хочет просто “закрыть вопрос”. См. также пункт 3.

Когда всё же можно

Оговорки (когда ответ от LLM на заданный в чате вопрос будет приемлем/полезен):

  1. Если доступа к LLM нет. В некоторых случаях доступа к LLM-ответу у задающего вопрос нет, и ответ из LLM, проверенный на адекватность/корректность отвечающим пользователем – будет полезнее, чем ничего.
  2. Обсуждение. Если вопрос сложный, и ответа не предвидится, а ответ от LLM может оказаться правильным – ответ от LLM допустим как “отправная точка”.
  3. Лёгкая проверка. Дополнение пункта 2. Если ответ может оказаться неверным, но можно легко проверить (простой программный код, название/автор книги, историческая дата).

Как улучшить ответ от LLM

В любом случае ответ от LLM станет лучше, если:

  1. Он промаркирован как ответ от LLM. (“спросил у Perplexity”, “запустил ChatGPT Deep research”, etc.).
  2. Он компактный. (используется ссылка на чат/кодблок/спойлер).
  3. Помечен “эпистемический статус” ответа (“вот этот код точно сработает”, “в отношении X именно так, ещё есть Y но оно здесь не упомянуто”, “вроде примерно так”, etc.).
  4. Исправлен стиль ответа.