Если ваш чат-бот уверенно мчит по фактам, как тостер по льду, — возможно, ему пора не апгрейд, а цифровой валерьянки. Мир ИИ открыл для себя новое слово года: brain rot — то самое «размягчение мозга», о котором Oxford рассказал в 2024‑м, теперь с чисто машинным оттенком.

Суть проста и немного тревожна. Команды из UT Austin, Texas A&M и Purdue показали: когда большие языковые модели перекармливают «мусорными» данными — короткими, громкими, кликабельными постами сомнительного качества — они начинают думать хуже. Страдает цепочка рассуждений, падает способность держать длинный контекст, размываются базовые этические рамки, а в ответах проступают «тёмные черты» вроде нарциссической уверенности. И что хуже — поздняя «перенастройка» почти не лечит: как пролитый кофе на плате, след остаётся.

В чём параллель с людьми? Перекос внимания, переобучение на одном и том же, алгоритмические эхо‑камеры — всё это знакомо нам по лентам соцсетей. Модели, как и мы, впитывают то, что им подсовывают. Поэтому ключевым становится не только масштаб, но и качество данных: без аккуратной фильтрации рост параметров превращается в накачку пустотой.

Как понять, что у вашего чат-бота начался brain rot? Быстрый аудит в четыре шага:

  • Попросите разложить ответ по шагам. Если логическая лестница исчезает в тумане — доверие умерьте.
  • Прислушайтесь к тону. Гиперуверенность, снисходительность, манипулятивные «просто поверьте, я эксперт» — плохие сигналы.
  • Проверьте память на контекст. Забывает детали спустя пару реплик? Это не «характер», а симптом.
  • Всегда верифицируйте. Даже правдоподобные ответы сверяйте с репутационными источниками: рецензируемые статьи, СМИ, которые исправляют ошибки.

Мы не контролируем, что заливают в тренировки моделей, но можем контролировать входной поток в собственную голову. Держите рядом критическое мышление, проверяйте факты и не кормите бота «пустыми калориями» запросов. Тогда его ответы станут полезнее, а ваш день — спокойнее.