Нейросети и право: как подчинить искусственный интеллект

Депутаты профильных комитетов Европарламента (ЕП) планируют утвердить правила для использования искусственного интеллекта. Работа в этом направлении идет и в России – в Москве с 2020 года проходит эксперимент по установлению правового регулирования создания условий для разработки и внедрения технологий искусственного интеллекта, с 2021 года 160 организаций из разных регионов присоединились к Кодексу этики в этой сфере, а в Госдуме продолжается разработка законодательных норм использования искусственного интеллекта в целом.

В Европарламенте (ЕП) согласовали начало консультаций по закону об искусственном интеллекте (ИИ). Как отмечается в документе, в том случае, если законодательные нормы будут утверждены, в ЕС появятся первые в мире правила для искусственного интеллекта. С 1 июля 2020 года в Москве также проходит эксперимент, который регламентирует условия для разработки и внедрения технологий искусственного интеллекта, а также использования результатов их применения. Кроме того, в том же году была утверждена Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года. В ней затрагиваются вопросы регулирования оборота данных, юридической ответственности в случае применения искусственного интеллекта, информационная безопасность, а также возможность применения таких технологий в разных сферах экономики.  В 2021 году развитие темы продолжилось в принятом на национальном уровне Кодексе этики в этой сфере, а в 2022 году к нему присоединились уже более 160 организаций из различных регионов страны.

Тем не менее, мер ответственности за нарушения при внедрении ИИ в гражданский оборот по-прежнему нет, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин в рамках круглого стола «Какие правила должны быть закреплены для использования искусственного интеллекта в России?», который прошел в Парламентской газете в понедельник.

«Сегодня «Единая Россия» уже занимается разработкой законопроекта, направленного на регулирование использования искусственного интеллекта в целом. Важность принятия данного акта очень высокая, поскольку он, по сути, задаст дальнейший вектор развития нормативного регулирования ИИ. Новые поправки, в первую очередь, будут нацелены на то, чтобы актуализировать те нормы, которые уже существуют сегодня, а также определить ответственность за применение искусственного интеллекта в преступных целях. Сегодня в системы уже загружается большой объем корпоративных и персональных данных для повышения качества их работы, что делает их обладателями внушительного объема чувствительной информации о россиянах. Кроме того, навыки систем с использованием искусственного интеллекта совершенствуются постоянно. Со временем они неминуемо будут активно использоваться злоумышленниками, поэтому важно разработать четкий алгоритм борьбы с такими видами преступлений, понимать их объективную и субъективную стороны», — сказал депутат.

Кроме того, нейросети уже стали популярным инструментом для создания оригинального контента, поэтому важно уделить особое внимание вопросу регулирования авторских и смежных прав на сгенерированный ИИ контент. Однако пока что в РФ практически отсутствует четко закрепленный правовой статус созданных нейросетями произведений. Опираться в таких случаях можно только на Гражданский кодекс, где прописано, что «автором произведения науки, литературы или искусства признается гражданин, творческим трудом которого оно создано». Из этого следует, что действующее законодательство РФ признает авторские права лишь за человеком, внесшим деятельный творческий вклад в создание произведения. «По закону, нарушение авторских прав в России является уголовным преступлением и может привести к уголовной ответственности. Однако в контексте использования нейросетей для создания контента ситуация может быть сложнее, так как их обучают на контенте из интернета, который также может защищаться авторскими правами. Кроме того, нарушаться могут и права актеров, чьи образы используются, например, для создания дипфейков. Безусловно, регулирование в этой области должно быть проработано более тщательно. Сейчас, при активном развитии нейросетей, общество, и здесь речь идет о разработчиках, специалистах, использующих их в работе, и обычных пользователей должны осуществлять за ними тщательный контроль на всех этапах, от создания, и на протяжении всего процесса эксплуатации, чтобы новые технологии использовались исключительно во благо, и подчинялись потребностям общества», — добавил Антон Немкин.

Одним из важных шагов в направлении регулирования деятельности, связанной с технологиями искусственного интеллекта, должна стать маркировка контента, который создают нейросети. Так, специалисты из Российского технологического университета МИРЭА уже предложили делать это при помощи графических знаков. «В первую очередь, такая маркировка должна быть нераздражающей и понятной пользователю – людям нужно сразу показывать, какого рода контент перед ними, чтобы они могли анализировать его более тщательно. Количество контента в сети растет постоянно, а вместе с этим, к сожалению, множится и неправдивая информация. Никто не гарантирует, что изображение человека, или видео, сгенерированное с помощью изображения человека, не будет использоваться для совершения противоправных действий, или иного неприемлемого поведения в сети, например кибербулинга», — заключил парламентарий.

 

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее


Подпишитесь
на нашу рассылку