Доверенный искусственный интеллект

В ФСТЭК Рос­сии на­чали ра­боту над формированием ме­тоди­чес­ких ре­комен­да­ций для раз­ра­бот­чи­ков моделей ис­кусс­твен­но­го ин­тел­лек­та (ИИ), сообщает издание Comnews. Ключевая цель – развитие в стране доверенного ИИ.

 По стандартам безопасности       

О начале работы по составлению рекомендаций сообщил заместитель директора Федеральной службы по техническому и экспортному контролю (ФСТЭК) России Виталий Лютиков в ходе форума «Технологии доверенного искусственного интеллекта». Представитель Службы отметил, что в настоящий момент рассматривается вопрос разработки документа с методическими рекомендациями как для разработчиков, так и для операторов систем, использующих искусственный интеллект. «Это нужно для того, чтобы сформировать концептуальные подходы относительно специфичных угроз. Документ мы планируем сделать публичным, пока проект на стадии обсуждения», – пояснил он.

По его словам, в России пока нет доверенного ИИ в стандартном его понимании: «Доверенный ИИ должен соответствовать нескольким стандартам безопасности, разработанных с учетом объективности, непредвзятости, этичности и с учетом исключения применения для нанесения угрозы гражданам и государству. Пока мы не разработаем ИИ по этим составляющим и не сформируем методики подтверждения этим требованиям, то и говорить о существовании доверенного ИИ пока преждевременно».

Базовые характеристики

Доверенный ИИ включает в себя три базовые характеристики. «Прежде всего, законность – ИИ модели должны полностью соответствовать действующим правовым нормам. Во-вторых, этичность – искусственный интеллект должен соответствовать установленным в обществе нормам морали. Наконец, ИИ должен характеризоваться устойчивостью и высокой технической работоспособностью», – объяснил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.

Необходимость развития концепции доверенного искусственного интеллекта обусловлена рисками, которые содержит новая технология. «Это возможность избежать угроз, которые несет в себе искусственный интеллект. На данный момент Банк России выделяет три основных риска ИИ. Во-первых, группа угроз, связанная с ошибками при разработке ИИ, а также при неверном интерпретировании полученных результатов. Думаю, что это наиболее существенная угроза, поскольку она может напрямую затрагивать человека. Например, в случае неверного обучения медицинских ИИ-моделей мы можем столкнуться с самыми серьезными последствиями, включая неверное диагностирование, а также неправильно выбранную программу лечения. Во-вторых, существуют риски, связанные с информационной безопасностью, в том числе проблема утечки персональных данных. Наконец, отдельную группу угроз занимают вопросы этики, что связано с вероятностью принятия дискриминационных решений и общей непрозрачностью результатов анализа ИИ», – отметил депутат.

Драйвер развития экономики

В ближайшие шесть лет ИИ станет драйвером развития российской экономики и еще больше укоренится в повседневной жизни россиян, считает Немкин: «Это связано с утверждением нового нацпроекта «Экономика данных», согласно которому ВВП России к 2030 году увеличится на 11,2 трлн рублей, в том числе за счет активной интеграции технологий искусственного интеллекта. Поэтому формирование рынка доверенных ИИ-систем крайне важно».

В этом направлении в России уже были предприняты шаги. «В обновленную стратегию развития ИИ включены уточненные принципы развития и использования технологии, соблюдение которых обязательно. К ним относятся прозрачность и объяснимость работы ИИ, а также недискриминационный доступ пользователей к информации об алгоритмах и недопущение ограничения доступа к технологии. Схожие принципы закреплены и в Кодексе этики ИИ, к которому на данный момент присоединилось уже более 300 организаций», – заключил парламентарий.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее


Подпишитесь
на нашу рассылку