Если ваш сайт вдруг решит притвориться подражателем и «считать» себя чужим макетом — не переживайте, это просто ИИ учится танцевать под вашу прокрутку. Moonshot представил Kimi K2.5 — открытый мультимодальный LLM, который обещает превратить одно загруженное видео или изображение в готовый веб-интерфейс с анимациями и интерактивными элементами блог Moonshot.

Модель, предобученная на 15 трлн текстовых и визуальных токенов, позиционируется как «родная» мультимодальная система: она не только пишет код, но и «видит» — анализирует скроллы, компоновку, визуальную логику и пытается воссоздать атмосферу сайта. В демонстрации K2.5 умудрялся восстановить общую эстетику по записи экрана, хотя иногда континенты на глобусе получались в стиле абстрактной живописи — очарование алгоритмов в мелочах.

По данным самой компании, K2.5 показывает результаты на SWE‑Bench, сравнимые с флагманами индустрии, а стартовая версия K2 летом прошлого года была описана в препринте arXiv. Практическая ценность функции «изображение/видео → код» пока вызывает вопросы (зачем клонировать уже хороший сайт?), но для концепт‑дизайна и быстрого прототипирования это мощный инструмент для «vibe coding» — подхода, где идея передаётся визуально, а не словами или пояснениями.

Kimi K2.5 доступен как часть открытой платформы Kimi Code, с интеграциями в IDE (VSCode, Cursor, Zed), через веб‑приложение и API на kimi.com и платформе разработчика (https://platform.moonshot.ai/). Ещё одна важная новинка — «agent swarm»: исследовательский режим, который распараллеливает задачу между сотней субагентов, снижая время выполнения до 80% по внутренним оценкам Moonshot.

Это не просто технологический фокус — это попытка сделать кодирование более интуитивным и доступным. Будущее, где сайт рождается из видео‑скетча и пары кликов, выглядит немного странно, но очень заманчиво.