Центральный банк сообщил, что придерживается риск-ориентированного принципа регулирования искусственного интеллекта (ИИ) в финансовой сфере. Соответствующие решения принимаются на основе анализа зависимости регуляторных требований от объема и вероятности реализации риска использования технологии в сравнении
с потенциальным положительным эффектом от ее внедрения.
Категории угроз
Регулятор выделяет три основные категории рисков по необходимости их регулирования: не требующие вмешательства, ограниченные за счет саморегулирования и рекомендаций, а также требующие внимания регуляторов. При этом не указывается, какие именно риски относятся к перечисленным категориям.
Банк определил основные группы рисков в целом: угрозы, связанные с ошибками при разработке ИИ, неверная интерпретация полученных результатов, нарушение информационной безопасности, в том числе утечка персональных данных. Кроме того, этический риск предполагает как принятие дискриминационных решений, так и общую непрозрачность результатов искусственного интеллекта. ЦБ обратил внимание на проблему монополий при разработке ИИ-решений со стороны крупных компаний.
Универсальный инструмент
Искусственный интеллект – универсальный инструмент развития различных сфер экономики. По словам члена комитета Госдумы по информационной политике, информационным технологиям и связи Антона Немкина, ИИ – это результат работы человека. «От человека зависит то, каким именно будет искусственный интеллект с точки зрения качества моделей, правильности предсказаний и недопущения дискриминационных решений. Подчеркну, что большая часть рисков, выявленная Банком России, действительно, имеет место быть и связана именно с человеческим фактором. Например, разработчик может использовать неправильную спецификацию модели и тем самым представить неверные результаты. Или использовать неполные данные при обучении выборки из-за чего точность предсказания также окажется низкой», – объяснил эксперт.
Для отрасли актуальна выработка стандартов при создании ИИ-решений. По мнению депутата, важно «понимать, что считать качественным решением, а что нет. Фактически ИИ не должен являться закрытым ящиком, о котором экспертное общество ничего не знает. Такие стандарты уже появляются и вопрос находится в дискуссии. Думаю, что повышение прозрачности внедренных ИИ-решений нивелирует часть перечисленных ЦБ рисков».