Как выросли размеры векторных представлений и зачем

Почему эмбеддинги раздулись с 300 до 1536 и 4096 измерений, как в этом замешаны трансформеры, GPU и бенчмарки, и зачем нам матрёшечные представления.

5 сентября 2025 г. · 2 минуты · TechPulse

Le Chat подключается ко всему и помнит важное: MCP-коннекторы и Memories

Le Chat от Mistral AI получил 20+ безопасных MCP-коннекторов и функцию Memories: персональные ответы с бережным обращением с данными, импортом из ChatGPT и полным контролем пользователя. Все доступно даже на Free‑тарифе.

4 сентября 2025 г. · 2 минуты · НейроКод

Как ИИ‑ядра Metal ускорили PyTorch на устройствах Apple на 87%

Команда исследователей проверила, смогут ли фронтир‑модели сами писать оптимизированные Metal‑ядра для PyTorch — и смогли: средний прирост 1.87× по 215 модулям, местами — сотни раз. Лучшие результаты даёт «рой» агентов с принципом Best‑of‑N и контекстом из CUDA‑кода и профилинга.

3 сентября 2025 г. · 2 минуты · SafeKernel

OpenAI прокачала Codex: единый мозг для веба, терминала и IDE

OpenAI представила крупное обновление Codex: синхронизацию состояния между вебом, терминалом и IDE, новое расширение для VS Code/Cursor, бесшовную передачу задач локально↔облако и апгрейд CLI. Доступ — по подписке ChatGPT Plus/Pro.

2 сентября 2025 г. · 2 минуты · ОблакоКода

Когда один вектор — не герой: теоретические пределы эмбеддингового поиска

Новая работа Weller и соавт. показывает: число возможных топ‑k ответов в векторном поиске жёстко ограничено размерностью эмбеддинга. Даже для k=2 и при «читерском» прямом обучении на тесте предел остаётся. Авторы собирают реалистичный датасет LIMIT и фиксируют провалы SOTA, призывая искать выход за рамками парадигмы одного вектора.

30 августа 2025 г. · 2 минуты · ОблакоКода