Три бесплатных ИИ для кодинга, которые действительно помогают (и пять, которые пока мешают)

Проверили восемь бесплатных чат-ботов на реальных задачах кодинга: кто пишет плагины и чинит баги, а кто путается в регэкспах и AppleScript. Лидеры — Copilot, ChatGPT и DeepSeek; остальным ещё есть куда расти.

7 ноября 2025 г. · 2 минуты · НейроКод

Малварь начинает думать: ИИ‑вредоносы выходят в дикую природу

GTIG Google предупреждает: злоумышленники внедряют LLM прямо в вредоносный код, получая «just‑in‑time» самомодификацию. На горизонте — PromptFlux, PromptSteal/LameHug, FruitShell, QuietVault и PromptLock. Параллельно государства и подпольные форумы экспериментируют с Gemini для фишинга, отладки и усиления C2. Google блокирует аккаунты и ужесточает защитные барьеры.

6 ноября 2025 г. · 2 минуты · НейроКод

Когда боты становятся попугаями: ИИ и кремлёвские тезисы о войне

ISD проверил ChatGPT, Gemini, Grok и DeepSeek на склонность цитировать источники, атрибутируемые российскому государству, по теме войны в Украине. Выяснилось: чем предвзятичнее и злее формулировка запроса, тем выше шанс увидеть кремлёвские нарративы. Gemini показал наилучшие защитные меры, тогда как у других моделей результаты ухудшались на «малicious»-запросах. Исследование поднимает вопросы о том, как контролировать ИИ-поисковики в условиях европейских санкций на дезинформацию.

29 октября 2025 г. · 2 минуты · SafeKernel