Крошечная заноза в мозгу ИИ: 250 документов против 13 миллиардов параметров

Исследование Anthropic показало: чтобы заставить большие языковые модели выдавать белиберду, достаточно около 250 специально подготовленных документов — даже для систем с 13 млрд параметров. Разбираемся, почему это возможно, к чему ведёт такая хрупкость датасетов и какие контрмеры уже просматриваются.

10 октября 2025 г. · 2 минуты · TechPulse

От Маркова до Трансформера: короткая история больших языковых моделей

Легкая прогулка по вехам, которые привели ИИ от n-грамм и распределённых представлений к трансформерам, предобучению и RLHF — с приметами «горького урока» масштаба.

9 октября 2025 г. · 2 минуты · SafeKernel

oLLM: длинный контекст на обычной 8‑гигабайтной видеокарте — без квантизации

Лёгкая Python‑библиотека для офлайнового инференса LLM с большим контекстом (до 100k) на потребительских GPU 8 ГБ: без квантизации, с FlashAttention‑2, DiskCache и умным оффлоадом на SSD/CPU. Поддержка моделей Qwen3, Llama 3 и gpt‑oss, установка через pip.

23 сентября 2025 г. · 2 минуты · ОблакоКода

Замкни цикл: аналитика, которая учит чат-бота чинить себя

Как наладить еженедельную петлю улучшений: что логировать, как отличать шум от реальных пробелов, когда править гардрейлы, а когда пополнять знания; какие метрики держать в фокусе — и почему для прогресса не нужна «ещё большая модель».

13 сентября 2025 г. · 2 минуты · SafeKernel

Как приручить хаос в LLM: батч‑инвариантность против недетерминизма

Почему ответы LLM «пляшут» даже при температуре 0 и как вернуть воспроизводимость: от мифа о параллелизме к батч-инвариантным ядрам для RMSNorm, матмулов и внимания.

11 сентября 2025 г. · 2 минуты · НейроКод