Госдума приняла во втором чтении законопроект о страховании рисков от применения технологий искусственного интеллекта (ИИ). Поправки вносятся в закон об экспериментальных правовых режимах в сфере цифровых инноваций.
Государственная Дума РФ во втором чтении приняла инициированный Правительством законопроект о страховании рисков от применения технологий искусственного интеллекта. Из поправок следует, что разработчики искусственного интеллекта, работающие в экспериментальном правовом режиме (ЭПР), будут обязаны страховать ответственность за причинение возможного вреда жизни, здоровью или имуществу в ходе применения ИИ.
В поправках сказано, что программа экспериментального правового режима должна содержать нормы, касающиеся страхования участниками ЭПР своей гражданской ответственности за причинение вреда жизни, здоровью или имуществу других лиц при реализации ЭПР, в том числе в результате использования решений, созданных с применением технологий искусственного интеллекта, а также перечень требований к условиям такого страхования, включая размер минимальной страховой суммы, перечень рисков и страховых случаев.
В настоящий момент страхование рисков использования инновационных технологий в ЭПР носит добровольный характер, пояснил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Внесённые поправки, напротив, закрепляют за участниками ЭПР ответственность по обязательному страхованию, а также необходимость создания специальной комиссии по выявлению обстоятельств, в результате которых пользователям был причинён вред. Помимо этого, вводится ответственность за неправильную эксплуатацию технологий, функционирующих на основе ИИ. Для этого участники ЭПР будут обязаны вести отдельные реестры лиц, непосредственно работающих с технологией», – добавил он.
По словам Немкина, новые правила необходимы для нивелирования рисков, связанных с работой искусственного интеллекта. «Как уже не раз отмечалось – любая технология, помимо очевидных преимуществ, содержит и риски. К рискам применения искусственного интеллекта можно отнести, например, некорректно созданную ИИ-модель, которая впоследствии будет принимать неправильные решения. В этом случае могут напрямую пострадать и граждане. Сейчас в России ИИ-технологии особенно активно внедряются в сферу медицины. Так, по данным аналитиков «Тендерплана», госзакупки медицинскими учреждениями ИТ-продуктов с ИИ в 2023 году выросли в 7,2 раза по сравнению с аналогичным показателем 2022 года. Поэтому законодательную базу, защищающую всех пользователей, нужно формировать еще уже сейчас, на старте внедрения ИИ, что постепенно и происходит», – подчеркнул депутат.
Как отмечает Немкин, в сфере законодательного регулирования искусственного интеллекта необходимо придерживаться риск-ориентированного подхода. «То есть стремиться к формированию точечного регулирования отдельных «болевых точек», а не к установлению жёстких нормативных рамок, что отрицательно скажется на внедрении ИИ. Думаю, что этот подход вообще применим к регулированию всех инновационных решений», – сказал он.
При этом, подчеркивает депутат, вопрос определения ответственности за возможный вред, причинённый искусственным интеллектом пока что можно считать дискуссионным. «Конечно, главенствующая роль разработчика в создании ИИ-моделей очевидна. Но важно понимать, что искусственный интеллект – это, по сути, самообучающийся машинный алгоритм, который может развиваться самостоятельно, без помощи человека. Это достаточно трудный правовой вопрос, над решением которого сегодня бьются многие страны. Но думаю, что уже в ближайшем будущем и он будет разрешён», – отметил Немкин.