
Когда модель на диете: как CDLM в 14 раз ускоряет генерацию
Статья рассказывает о Consistency Diffusion Language Models (CDLM) — приёме пост‑обучения, который сочетает согласованность траекторий и блочное KV‑кеширование, чтобы сильно ускорить вывод диффузионных языковых моделей без потери качества.