Искусственный интеллект (ИИ), особенно генеративный ИИ, открывает огромные возможности для развития науки и технологий. Однако вместе с этим возрастает и риск злоупотребления ИИ для злонамеренных целей. Как обезопасить ИИ от кражи, подделки, манипуляции и других атак?
8 июня 2023 года Google представил Secure AI Framework (SAIF) — концептуальный фреймворк для защиты ИИ-технологий.
SAIF основан на опыте Google в разработке кибербезопасных моделей, таких как совместный фреймворк Supply-chain Levels for Software Artifacts (SLSA) и BeyondCorp — архитектура нулевого доверия, используемая многими организациями1. SAIF включает в себя шесть основных принципов:
«Мы скоро опубликуем несколько инструментов с открытым исходным кодом, чтобы помочь внедрить элементы SAIF для безопасности ИИ», — заявили Royal Hansen, вице-президент Google по инженерии для конфиденциальности, безопасности и защиты.
В компании также пообещали расширить программы Google для поиска ошибок, чтобы поощрять и стимулировать исследования в области безопасности и надежности ИИ.
SAIF — это первый шаг к тому, чтобы сделать ИИ более безопасным и ответственным. Google призывает всех заинтересованных присоединиться к этой инициативе и внести свой вклад в развитие общих стандартов безопасности для ИИ.
Источник: secure news