Регуляторная рамка для ИИ

Совет парламентской ассамблеи ОДКБ принял заявление в связи с развитием технологий искусственного интеллекта, в котором отмечена важность развития современных технологий и их значение для решения глобальных проблем.

 «Разработка и использование технологий искусственного интеллекта в гражданской сфере должны быть регулируемые и контролируемые. Нам надо эти вопросы также обсуждать, потому что во многом от этого зависит безопасность государств, входящих в ОДКБ», – заявил председатель Госдумы, председатель Парламентской Ассамблеи Организации Договора о коллективной безопасности (ОДКБ) Вячеслав Володин.

Помимо положительного влияния, технология «несет в себе риски: от кибермошенничества и вовлечения граждан в противоправную деятельность до вмешательства в работу систем безопасности и критической инфраструктуры государства».

Драйвер развития

К 2030 году искусственный интеллект станет одним из ключевых драйверов развития российской экономики, что связано с утверждением нового нацпроекта «Экономика данных», согласно которому ВВП России к 2030-му увеличится на 11,2 трлн рублей, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.

Сегодня государство должно сформировать эффективную регуляторную рамку, которая нивелирует все отрицательные последствия развития ИИ. «Риски есть у любой технологии, и искусственный интеллект здесь не исключение. Банк России выделил несколько групп рисков, которые могут оказывать непосредственное влияние на человека. Так, группа угроз, связанная с допущением ошибок при разработке ИИ или с неверной интерпретацией анализа, может привести к серьёзным последствиям, например, в сфере медицины или при регулировании транспортного потока. Также остро стоит проблема утечек данных, которые используются для обучения ИИ-моделей и неправомерного сбора данных с нарушением авторских прав. Особое беспокойство вызывает и использование ИИ в противоправных целях. Например, в прошлом году количество мошеннических схем с использованием дипфейков в мире выросло на 700%», – рассказал депутат.

Нивелирование рисков

Важно переходить к модели доверенного ИИ, который учитывает общий правовой контекст, характеризуется объективностью и непредвзятостью принимаемых решений. «Данные принципы были заложены в обновленную стратегию развития ИИ в России, но важно, чтобы их разделял и бизнес», – подчеркнул эксперт.

Нивелирование рисков ИИ также должно достигаться за счет развития международного сотрудничества. «Как по линии двухстороннего сотрудничества, так и в контексте международных объединений. Например, не так давно Россия и Китай договорились развивать сотрудничество в том числе и в области искусственного интеллекта. Ранее спикер Совета Федерации также отмечала необходимость сотрудничества стран в рамках БРИКС. Кроме того, Матвиенко предложила сформировать единое технологическое пространство, что позволит выработать единые нормы правового регулирования и положительно скажется на темпах внедрения ИИ», – напомнил депутат.

 

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку