Представьте, что ИИ ― это шаурма: ещё вчера все стояли в одной очереди к США, а сегодня внезапно открылась яркая китайская палатка с надписью «вкусно, быстро и почти бесплатно». Естественно, народ потянулся.
Недавний отчёт Stanford HAI, «Beyond DeepSeek: China’s Diverse Open-Weight AI Ecosystem and its Policy Implications» показывает: открытые китайские модели ИИ перестали быть догоняющими. Qwen от Alibaba, DeepSeek R1, GLM от Z.ai и другие уже статистически вровень с Claude от Anthropic и совсем рядом с флагманами OpenAI и Google. А по одному параметру они уверенно вырываются вперёд — по степени открытости и скорости распространения.
Пока западные игроки уходят в закрытые API и осторожные лицензии, Китай играет в долгую: выкладывает веса моделей, публикует код, всё чаще использует щедрые лицензии вроде Apache 2.0 и MIT. Qwen3 и DeepSeek R1 формально разрешают широкое использование, модификацию и перераспределение. Для разработчиков по всему миру это звучит как музыка: бери, дообучай, запускай на своих серверах, строй бизнес.
Цифры Stanford HAI впечатляют. В сентябре 2025 года 63% новых дообученных моделей на Hugging Face — китайского происхождения. В тот же месяц семейство Qwen стало самым скачиваемым LLM, обогнав Llama от Meta. По ряду открытых рейтингов 22 лучших китайских open-weight моделей уже превосходят собственную «открытую» модель OpenAI, GPT-oss.
Интрига в том, что рост произошёл на фоне экспортных ограничений США: без топовых GPU китайским лабораториям пришлось учиться выжимать максимум из имеющихся ресурсов. Итог — более эффективные архитектуры, экономичные пайплайны обучения и модели, которые особенно интересны странам с ограниченной инфраструктурой. Для России и других государств, которые стремятся к технологическому суверенитету, это окно возможностей: доступ к передовым ИИ без обязательной завязки на западные облака и санкционно уязвимые сервисы.
Конечно, мёд не без дёгтя. Открытые веса ещё не значат полной прозрачности: состав датасетов туманный, а вопросы влияния государства на корпорации в Китае никуда не делись. Отдельная тревога — безопасность. Согласно оценкам правительственного центра CAISI в США, модели DeepSeek в среднем в 12 раз легче «взломать» джейлбрейком, чем сопоставимые американские. Для исследователей это рай, для регуляторов — бессонные ночи.
Но главный вывод отчёта HAI прост: эпоха, когда судьбу ИИ определяли только несколько компаний из США, заканчивается. Китайские открытые модели запускают «глобальную диффузию» — от стартапов в Штатах до разработчиков в Африке, Латинской Америке и Евразии. А значит, борьба теперь идёт не только за излишне точные бенчмарки, но и за умы, экосистемы и технологический суверенитет целых стран. И тем, кто всерьёз думает о будущем, пора учиться говорить не только на английском, но и на языке открытых китайских LLM.
