Крошечная заноза в мозгу ИИ: 250 документов против 13 миллиардов параметров

Исследование Anthropic показало: чтобы заставить большие языковые модели выдавать белиберду, достаточно около 250 специально подготовленных документов — даже для систем с 13 млрд параметров. Разбираемся, почему это возможно, к чему ведёт такая хрупкость датасетов и какие контрмеры уже просматриваются.

октября 10, 2025 · 2 минуты · TechPulse