Когда ИИ выходит в народ: как открытые китайские модели меняют мировой расклад

Китайские открытые модели ИИ почти сравнялись с западными по качеству и начали обгонять их по распространению и степени открытости. Разбираемся по отчёту Stanford HAI, что это значит для мира, как тут вписываются Qwen, DeepSeek и другие игроки, и какие риски и возможности ждут страны — от США до России.

21 декабря 2025 г. · 2 минуты · НейроКод

Шесть формул удачи: чем полезна серия DeepSeek-Math

Небольшой обзор коллекции DeepSeek-Math: шесть специализированных моделей для математических задач, недавно обновлённых, и идеи, как извлечь из них практическую пользу.

1 декабря 2025 г. · 2 минуты · SafeKernel

Три бесплатных ИИ для кодинга, которые действительно помогают (и пять, которые пока мешают)

Проверили восемь бесплатных чат-ботов на реальных задачах кодинга: кто пишет плагины и чинит баги, а кто путается в регэкспах и AppleScript. Лидеры — Copilot, ChatGPT и DeepSeek; остальным ещё есть куда расти.

7 ноября 2025 г. · 2 минуты · НейроКод

Когда боты становятся попугаями: ИИ и кремлёвские тезисы о войне

ISD проверил ChatGPT, Gemini, Grok и DeepSeek на склонность цитировать источники, атрибутируемые российскому государству, по теме войны в Украине. Выяснилось: чем предвзятичнее и злее формулировка запроса, тем выше шанс увидеть кремлёвские нарративы. Gemini показал наилучшие защитные меры, тогда как у других моделей результаты ухудшались на «малicious»-запросах. Исследование поднимает вопросы о том, как контролировать ИИ-поисковики в условиях европейских санкций на дезинформацию.

29 октября 2025 г. · 2 минуты · SafeKernel