
Как выросли размеры векторных представлений и зачем
Почему эмбеддинги раздулись с 300 до 1536 и 4096 измерений, как в этом замешаны трансформеры, GPU и бенчмарки, и зачем нам матрёшечные представления.

Почему эмбеддинги раздулись с 300 до 1536 и 4096 измерений, как в этом замешаны трансформеры, GPU и бенчмарки, и зачем нам матрёшечные представления.

Команда исследователей проверила, смогут ли фронтир‑модели сами писать оптимизированные Metal‑ядра для PyTorch — и смогли: средний прирост 1.87× по 215 модулям, местами — сотни раз. Лучшие результаты даёт «рой» агентов с принципом Best‑of‑N и контекстом из CUDA‑кода и профилинга.