Алгоритм безопасной разработки ИИ

На международном Форуме ООН по управлению Интернетом, который проходил в Эр-Рияде в декабре 2024 года, «Лаборатория Касперского» представила руководство по безопасной разработке и внедрению систем на основе искусственного интеллекта (ИИ). Цель документа – помочь организациям избежать киберрисков, связанных с применением технологий ИИ. В первую очередь он предназначен для разработчиков, системных администраторов, DevOps-команд. В руководстве содержатся детальные практические советы о том, как предотвращать или устранять технические недостатки и операционные риски.

Руководство, составленное совместно с ведущими научными экспертами, охватывает ключевые аспекты разработки, внедрения и использования систем ИИ, а также предлагает лучшие практики в области безопасности. Это особенно важно для организаций, использующих сторонние модели ИИ и облачные системы: уязвимости в них могут привести к масштабным утечкам данных и нанести ущерб репутации. Рекомендации по безопасной разработке также помогут развёртывать ИИ-системы в соответствии с ESG-принципами и международными стандартами.

«Лаборатория Касперского» предлагает ряд принципов для повышения безопасности систем на основе ИИ.

Информирование о киберугрозах и обучение

Руководство организаций должно быть осведомлено об угрозах безопасности, связанных с использованием ИИ, регулярно проводить специализированное обучение для сотрудников. Сотрудники компании должны знать, какие методы используют злоумышленники для атак на системы ИИ, а обучающие программы необходимо постоянно обновлять, чтобы информация об угрозах была актуальной.

Моделирование угроз и оценка рисков

Моделирование угроз позволит заблаговременно выявлять и снижать риски: с помощью этого инструмента можно находить и устранять уязвимости на ранних этапах ИИ-разработки. «Лаборатория Касперского» предлагает использовать уже принятые методологии оценки рисков (в частности, STRIDE, OWASP), чтобы обнаруживать угрозы в сфере ИИ, например нецелевое использование моделей, применение нерелевантных данных для обучения модели, системные недостатки.

Безопасность облачной инфраструктуры

Системы ИИ часто развёртывают в облачных средах, и это требует строгих защитных мер, таких как шифрование, сегментация сети и двухфакторная аутентификация. «Лаборатория Касперского» предлагает следовать принципу нулевого доверия (то есть по умолчанию не доверять никаким пользователям или устройствам), применять защищённые каналы связи и регулярно обновлять инфраструктуру, чтобы снижать риски взломов.

Защита цепочки поставок и данных

«Лаборатория Касперского» напоминает о рисках, связанных с внешними ИИ-компонентами и моделями, включая утечки данных и их продажу злоумышленниками. Чтобы этого избежать, необходимо строго соблюдать политику конфиденциальности и правила безопасности для всех участников цепочки поставок.

Тестирования и проверки

Регулярные проверки моделей ИИ помогут убедиться в надёжности их работы. «Лаборатория Касперского» рекомендует проводить мониторинг их производительности, а также собирать отчёты об уязвимостях. Это позволит вовремя обнаруживать проблемы, связанные с изменением используемых моделью данных, а также атаки злоумышленников. Чтобы снизить риски, важно следить за актуальностью наборов данных и проверять логику принятия решений.

Защита от угроз, характерных для ИИ-моделей

ИИ-компоненты необходимо защищать от угроз, характерных для ИИ-систем: промпт-инъекций и других вредоносных запросов, отравления учебных данных и т. д. Чтобы снизить риски, можно намеренно включать нерелевантные данные в процессе тренировки модели, чтобы научить её распознавать их.

Кроме того, рекомендуется использовать системы обнаружения аномалий, а также методы дистилляции знаний, которые помогают эффективнее обрабатывать информацию и придают ей большую устойчивость к манипуляциям.

Регулярное обновление

Необходимо часто обновлять ИИ-библиотеки и фреймворки, чтобы вовремя устранять появляющиеся уязвимости. Чтобы повысить устойчивость таких систем, стоит участвовать в программах Bug Bounty, которые предполагают выплату вознаграждения сторонним специалистам за обнаружение уязвимостей, и регулярно обновлять облачные модели ИИ, учитывая их быструю эволюцию.

Соответствие международным стандартам

Следование международным нормам, использование передовых практик, а также проверка ИИ-систем на соответствие законодательству помогут компаниям соблюдать требования в сфере этики и конфиденциальности данных, а следовательно, укрепить доверие и повысить прозрачность бизнеса.

«Растущее использование инструментов на основе искусственного интеллекта делает обеспечение безопасности уже не просто желательным, а обязательным условием. Мы принимаем участие в многостороннем диалоге в этой сфере, чтобы выработать стандарты, которые помогут безопасно внедрять инновации и защититься от новых киберугроз», – пояснила Юлия Шлычкова, вице-президент по связям с государственными органами «Лаборатории Касперского».

Полная версия руководства «Лаборатории Касперского» по безопасной ИИ-разработке доступна на сайте компании.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее


Подпишитесь
на нашу рассылку