В ФСТЭК России начали работу над формированием методических рекомендаций для разработчиков моделей искусственного интеллекта (ИИ), сообщает издание Comnews. Ключевая цель – развитие в стране доверенного ИИ.
По стандартам безопасности
О начале работы по составлению рекомендаций сообщил заместитель директора Федеральной службы по техническому и экспортному контролю (ФСТЭК) России Виталий Лютиков в ходе форума «Технологии доверенного искусственного интеллекта». Представитель Службы отметил, что в настоящий момент рассматривается вопрос разработки документа с методическими рекомендациями как для разработчиков, так и для операторов систем, использующих искусственный интеллект. «Это нужно для того, чтобы сформировать концептуальные подходы относительно специфичных угроз. Документ мы планируем сделать публичным, пока проект на стадии обсуждения», – пояснил он.
По его словам, в России пока нет доверенного ИИ в стандартном его понимании: «Доверенный ИИ должен соответствовать нескольким стандартам безопасности, разработанных с учетом объективности, непредвзятости, этичности и с учетом исключения применения для нанесения угрозы гражданам и государству. Пока мы не разработаем ИИ по этим составляющим и не сформируем методики подтверждения этим требованиям, то и говорить о существовании доверенного ИИ пока преждевременно».
Базовые характеристики
Доверенный ИИ включает в себя три базовые характеристики. «Прежде всего, законность – ИИ модели должны полностью соответствовать действующим правовым нормам. Во-вторых, этичность – искусственный интеллект должен соответствовать установленным в обществе нормам морали. Наконец, ИИ должен характеризоваться устойчивостью и высокой технической работоспособностью», – объяснил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
Необходимость развития концепции доверенного искусственного интеллекта обусловлена рисками, которые содержит новая технология. «Это возможность избежать угроз, которые несет в себе искусственный интеллект. На данный момент Банк России выделяет три основных риска ИИ. Во-первых, группа угроз, связанная с ошибками при разработке ИИ, а также при неверном интерпретировании полученных результатов. Думаю, что это наиболее существенная угроза, поскольку она может напрямую затрагивать человека. Например, в случае неверного обучения медицинских ИИ-моделей мы можем столкнуться с самыми серьезными последствиями, включая неверное диагностирование, а также неправильно выбранную программу лечения. Во-вторых, существуют риски, связанные с информационной безопасностью, в том числе проблема утечки персональных данных. Наконец, отдельную группу угроз занимают вопросы этики, что связано с вероятностью принятия дискриминационных решений и общей непрозрачностью результатов анализа ИИ», – отметил депутат.
Драйвер развития экономики
В ближайшие шесть лет ИИ станет драйвером развития российской экономики и еще больше укоренится в повседневной жизни россиян, считает Немкин: «Это связано с утверждением нового нацпроекта «Экономика данных», согласно которому ВВП России к 2030 году увеличится на 11,2 трлн рублей, в том числе за счет активной интеграции технологий искусственного интеллекта. Поэтому формирование рынка доверенных ИИ-систем крайне важно».
В этом направлении в России уже были предприняты шаги. «В обновленную стратегию развития ИИ включены уточненные принципы развития и использования технологии, соблюдение которых обязательно. К ним относятся прозрачность и объяснимость работы ИИ, а также недискриминационный доступ пользователей к информации об алгоритмах и недопущение ограничения доступа к технологии. Схожие принципы закреплены и в Кодексе этики ИИ, к которому на данный момент присоединилось уже более 300 организаций», – заключил парламентарий.