Когда ИИ стал многоруким: как Gemini помог хакерам на всех этапах атаки

От отчёта Google: злоумышленники использовали модель Gemini для рекогносцировки, генерации фишинговых приманок, написания кода и эксфильтрации данных. В публикации разбирают примеры HonestCue, CoinBait и ClickFix, а также попытки извлечения модели.

12 февраля 2026 г. · 2 минуты · LabSec

DynoWiper и тень Sandworm: неудачная попытка обнулить польскую энергетику

В конце декабря 2025 года в Польше зафиксировали попытку разрушительной кибератаки с использованием wiper‑программы DynoWiper; ESET и эксперты связывают операцию с группировкой Sandworm.

25 января 2026 г. · 2 минуты · ОблакоКода

Когда вода становится мишенью: Дания обвиняет Россию в кибератаке на водоканал

Датская военная разведка заявила, что за разрушительной атакой на водоканал и DDoS-ударами перед местными выборами стоят группы Z-Pentest и NoName057(16), действующие в интересах российского государства как часть гибридной кампании давления на страны, поддерживающие Украину.

20 декабря 2025 г. · 2 минуты · НейроКод

Когда боты становятся попугаями: ИИ и кремлёвские тезисы о войне

ISD проверил ChatGPT, Gemini, Grok и DeepSeek на склонность цитировать источники, атрибутируемые российскому государству, по теме войны в Украине. Выяснилось: чем предвзятичнее и злее формулировка запроса, тем выше шанс увидеть кремлёвские нарративы. Gemini показал наилучшие защитные меры, тогда как у других моделей результаты ухудшались на «малicious»-запросах. Исследование поднимает вопросы о том, как контролировать ИИ-поисковики в условиях европейских санкций на дезинформацию.

29 октября 2025 г. · 2 минуты · SafeKernel

Боты в мундире: как чат-ИИ подсовывает санкционированную пропаганду

Исследование ISD показывает: популярные чат-боты иногда цитируют санкционированные российские источники о войне против Украины, особенно в «вакуумах данных». На фоне роста аудитории ИИ в ЕС это становится регуляторной и этической проблемой.

27 октября 2025 г. · 2 минуты · НейроКод