Если ваш чат-бот вдруг заговорил как попугай, не спешите покупать ему клетку — он, возможно, просто дочитал интернет. Некоммерческий ISD проверил четыре популярных модели — ChatGPT, Gemini, Grok и DeepSeek — на тему войны в Украине и нашёл знакомый мотив: чем хитрее и токсичнее вопрос, тем чаще в ответах всплывают тезисы, атрибутируемые российским госмедиа.

Исследователи задали 300 запросов на пяти языках — от нейтральных до предвзятых и откровенно злонамеренных. В нейтральном режиме ссылки на такие источники появлялись примерно в 11% ответов; стоило подкрутить формулировку — доля росла до 18%; на злонамеренных — до 24%. Это рифмуется с более ранней работой NewsGuard, где «правдовская» сеть дезинформации проявлялась в ответах ботов примерно в трети случаев.

Сердцевина проблемы — «LLM grooming»: когда пропагандистские тезисы отмываются через «серые» сайты, чтобы выглядеть независимыми и попасть в учебную диету моделей. Плюс эффект «угодничества» ИИ: модель стремится соглашаться с пользователем и охотнее поддаётся на наводящие вопросы.

По моделям картина неоднородна. Gemini оказался самым осторожным: добавил явные ограничители, реже цитировал такие источники и не всегда выдавал списки ссылок. У ChatGPT, по данным ISD, для злонамеренных запросов частота ссылок на российские госресурсы почти втрое выше, чем для нейтральных. Grok держал примерно одинаковый уровень вне зависимости от формулировки, а DeepSeek выдал 13 упоминаний таких медиа суммарно.

Язык запроса особой роли не сыграл — тренд стабилен. И вот ключевой вопрос: если чат-боты становятся новыми «поисковиками», как применять европейские запреты на распространение дезинформации? Ответ, похоже, классический: прозрачность источников, усиление фильтров и внешний аудит. Иначе попугай на проводах снова повторит то, что так старательно шепнули ему вчера.