
Встроить, а не прикрутить: 8 шагов к устойчивому ответственному ИИ
Как превратить ответственность ИИ из галочки в документах в прочную практику: от цели и политики до данных, документации и трех линий защиты.

Как превратить ответственность ИИ из галочки в документах в прочную практику: от цели и политики до данных, документации и трех линий защиты.

ISD проверил ChatGPT, Gemini, Grok и DeepSeek на склонность цитировать источники, атрибутируемые российскому государству, по теме войны в Украине. Выяснилось: чем предвзятичнее и злее формулировка запроса, тем выше шанс увидеть кремлёвские нарративы. Gemini показал наилучшие защитные меры, тогда как у других моделей результаты ухудшались на «малicious»-запросах. Исследование поднимает вопросы о том, как контролировать ИИ-поисковики в условиях европейских санкций на дезинформацию.

Мы привыкли чинить софт как краны: нашли течь — затянули гайку. Но с современными ИИ всё иначе: ошибки рождаются в океане данных, не сводятся к строкам кода и не исчезают навсегда после «заплатки». Объясняем на пальцах, почему привычные правила инженерии ПО ломаются о реальность нейросетей.

Microsoft прокачала Copilot на Windows: теперь он по разрешению подключается к Outlook и Gmail, ищет по Google Drive и календарям, а ещё экспортирует ответы сразу в Word, PowerPoint, Excel или PDF.

Новый отчет LayerX показывает: сотрудники щедро делятся с чат-ботами PII и платежными данными, причём чаще через личные аккаунты и мимо корпоративных правил. ChatGPT доминирует в офисах, Copilot отстает, а CISO срочно нужны SSO, политика и просвещение.