11.05.2026
Правительство США достигло соглашений с крупными разработчиками ИИ о проверке безопасности их моделей до публичного выпуска. Это шаг к федеральному надзору за мощными генеративными ИИ-системами.
Правительство США заключило новые соглашения о проверке безопасности ИИ-моделей с компаниями Google (DeepMind), Microsoft и xAI (компания Илона Маска). В рамках этих соглашений Центр стандартов и инноваций в области ИИ (CAISI) при Министерстве торговли США получит ранний доступ к новым версиям генеративных моделей для их тестирования и оценки. Цель – оценить потенциальные риски для национальной безопасности, включая кибер-безопасность, биобезопасность и возможность создания химического оружия, а также обеспечить соблюдение этических и технических стандартов.
Соглашения позволят CAISI проводить тестирование, исследовательскую оценку и разработку лучших практик для новых ИИ-моделей до их публичного выпуска. Проверке подлежат новые версии моделей Google Gemini (DeepMind), Microsoft Copilot и встроенные модели Azure OpenAI, а также xAI Grok. В ходе тестирования будут оцениваться функциональные возможности моделей, их уязвимости и эффективность встроенных механизмов контроля.
Это продолжение программы, начатой в 2024 году, когда CAISI заключил аналогичные соглашения с OpenAI и Anthropic. Новые договоры расширяют программу, включая в нее крупнейших игроков, что рассматривается как конкретный шаг к федеральному надзору за мощными генеративными ИИ-системами.
CAISI уже завершил более 40 оценок моделей, включая некоторые, которые еще не доступны широкой публике. Соглашения с Google, Microsoft и xAI позволят увеличить масштаб этой работы. Это событие может стать прецедентом для обязательного предварительного аудита ИИ-моделей перед их коммерческим запуском и поспособствовать появлению федеральных стандартов и регуляций в области ИИ.
Источник: bbc.com