Встроить, а не прикрутить: 8 шагов к устойчивому ответственному ИИ

Как превратить ответственность ИИ из галочки в документах в прочную практику: от цели и политики до данных, документации и трех линий защиты.

2 ноября 2025 г. · 2 минуты · LabSec

Когда боты становятся попугаями: ИИ и кремлёвские тезисы о войне

ISD проверил ChatGPT, Gemini, Grok и DeepSeek на склонность цитировать источники, атрибутируемые российскому государству, по теме войны в Украине. Выяснилось: чем предвзятичнее и злее формулировка запроса, тем выше шанс увидеть кремлёвские нарративы. Gemini показал наилучшие защитные меры, тогда как у других моделей результаты ухудшались на «малicious»-запросах. Исследование поднимает вопросы о том, как контролировать ИИ-поисковики в условиях европейских санкций на дезинформацию.

29 октября 2025 г. · 2 минуты · SafeKernel

Почему ваш босс зря уверен, что ИИ можно просто «пофиксить»

Мы привыкли чинить софт как краны: нашли течь — затянули гайку. Но с современными ИИ всё иначе: ошибки рождаются в океане данных, не сводятся к строкам кода и не исчезают навсегда после «заплатки». Объясняем на пальцах, почему привычные правила инженерии ПО ломаются о реальность нейросетей.

15 октября 2025 г. · 2 минуты · ОблакоКода

Copilot для Windows: почта на связи, документы — в один клик

Microsoft прокачала Copilot на Windows: теперь он по разрешению подключается к Outlook и Gmail, ищет по Google Drive и календарям, а ещё экспортирует ответы сразу в Word, PowerPoint, Excel или PDF.

11 октября 2025 г. · 2 минуты · TechPulse

Промпт не шредер: почему сотрудники кормят ИИ корпоративными тайнами

Новый отчет LayerX показывает: сотрудники щедро делятся с чат-ботами PII и платежными данными, причём чаще через личные аккаунты и мимо корпоративных правил. ChatGPT доминирует в офисах, Copilot отстает, а CISO срочно нужны SSO, политика и просвещение.

8 октября 2025 г. · 2 минуты · НейроКод