Спойлер с привкусом иронии: если кормить ИИ кликбейтом, у него тоже становится «желе вместо мозгов». Команда из Texas A&M, UT Austin и Purdue проверила модный мем про brain rot на языковых моделях и обнаружила: цифровой фастфуд действует и на кремниевые извилины.
Идея проста как лента рекомендаций: что будет, если долго доучивать LLM на «мусорных» постах из соцсетей? Учёные собрали две версии рациона. M1 — метрика вовлечённости (популярные и короткие посты как концентрат мгновенного дофамина). M2 — метрика семантического качества (кликбейт, «ВАУ», гипербола — всё, что громко, но пусто). Модели долго кормили либо «мусором», либо контрольными текстами, а затем одинаково донастраивали инструкциями, чтобы не спутать формат с содержанием.
Результат — как по учебнику дозозависимости: чем больше junk, тем сильнее падает когнитивка. Проседают рассуждение и длинный контекст, хромают нормы безопасности, а «тёмные черты» вроде нарциссизма и психопатии выползают наружу. На задачах уровня ARC-CoT падение с примерно 75 до 57 при 100% «мусорной» диете — не статистический шорох, а ощутимый удар. В RULER отдельные подпроверки тоже «плывут».
Форензика ошибок показывает главный симптом: «пропуск мыслей». Модель всё чаще обрывает или сокращает цепочки рассуждений, будто пролистывает собственные идеи, как мы — ленту в три часа ночи. Попытки лечения — масштабная инструкционная донастройка и повторное дообучение на чистых данных — помогают, но полностью здоровье не возвращают: сказывается устойчивый сдвиг представлений. И да, популярность поста оказалась более тревожным индикатором деградации, чем его длина.
Вывод не смешной, хоть и напрашивается: качество данных — это не косметика, а гигиена. Курация контента для континуального дообучения — вопрос безопасности на этапе обучения. Нужны регулярные «когнитивные медосмотры» моделей и строгая фильтрация источников — иначе цифровой фастфуд рано или поздно подпортит и самый умный ИИ.
