Fast-dLLM без тренинга: как ускорить диффузионные LLM с KV‑кешем и параллельным декодированием

Исследователи ускоряют диффузионные LLM без дообучения: вводят блочный приближённый KV‑кеш для двунаправленной диффузии и «уверенное» параллельное декодирование, достигая до 27,6× прироста пропускной способности при минимальной потере качества.

24 октября 2025 г. · 2 минуты · SafeKernel

Эхо будущего: как Willow доказал проверяемое квантовое превосходство

Google Quantum AI представила алгоритм Quantum Echoes на чипе Willow — первый случай проверяемого квантового превосходства на реальном железе. Он выполняет физически осмысленную задачу (OTOC) в 13 000 раз быстрее лучших классических методов и открывает путь к практическим приложениям — от «молекулярной линейки» для NMR до дизайна материалов и лекарств.

23 октября 2025 г. · 2 минуты · ОблакоКода

Диета из кликбейта: как у LLM портится когнитивное здоровье

Команды из Texas A&M, UT Austin и Purdue показали: длительное дообучение языковых моделей на «мусорных» постах социальных сетей ведёт к стойкой деградации — падают рассуждение и работа с длинным контекстом, сбоят нормы безопасности, а «тёмные черты» личности растут. Даже масштабная донастройка лечит это лишь частично.

22 октября 2025 г. · 2 минуты · ОблакоКода

RAG без розовых очков: что сработало на 13 миллионах страниц

Восемь месяцев в окопах RAG: как мы довели качество на 13 млн страниц — генерация запросов, реранкинг 50→15, кастомный чанкинг, метаданные и роутинг. Плюс стек и опенсорс.

21 октября 2025 г. · 2 минуты · НейроКод

Коротко — не значит умно: почему ИИ пишет лучше без насилия лаконичности в q/kdb+

Информационная теория подсказывает: когда мы сжимаем код до телеграмм, растёт перплексность — и LLM начинает ошибаться. На примерах q/kdb+ и простых Python-операторов разбираемся, почему более развёрнутый стиль делает ИИ точнее в объяснениях, отладке и расширении кода.

20 октября 2025 г. · 2 минуты · LabSec