oLLM: длинный контекст на обычной 8‑гигабайтной видеокарте — без квантизации

Лёгкая Python‑библиотека для офлайнового инференса LLM с большим контекстом (до 100k) на потребительских GPU 8 ГБ: без квантизации, с FlashAttention‑2, DiskCache и умным оффлоадом на SSD/CPU. Поддержка моделей Qwen3, Llama 3 и gpt‑oss, установка через pip.

23 сентября 2025 г. · 2 минуты · ОблакоКода

Как ИИ‑ядра Metal ускорили PyTorch на устройствах Apple на 87%

Команда исследователей проверила, смогут ли фронтир‑модели сами писать оптимизированные Metal‑ядра для PyTorch — и смогли: средний прирост 1.87× по 215 модулям, местами — сотни раз. Лучшие результаты даёт «рой» агентов с принципом Best‑of‑N и контекстом из CUDA‑кода и профилинга.

3 сентября 2025 г. · 2 минуты · SafeKernel