Российский технологический университет предложил в обязательном порядке маркировать контент, который создается при помощи искусственного интеллекта. Кроме того, в институте считают необходимым заранее подготовить программу защиты критически важной инфраструктуры от кибератак, которые в будущем могут совершаться с использованием нейросетей. По мнению экспертов, меры регулирования работы искусственного интеллекта должны быть четко определены, сейчас соответствующие законопроекты уже готовятся в Государственной Думе.
Новые меры регулирования работы искусственного интеллекта и нейросетей предложил Российский технологический университет МИРЭА – представители вуза обратились в Минцифры России с просьбой ввести обязательную маркировку специальным графическим знаком цифровых продуктов, которые создаются при помощи новых технологий. Кроме того, в университете предлагают подготовить и утвердить программу защиты критически важной инфраструктуры от возможных кибератак с использованием нейросетей. По данным вуза, сегодня на первое место в рейтинге опасностей, которые несут в себе нейросети, эксперты ставят возможный рост киберпреступности. Так как технологии с использованием искусственного интеллекта уже используются повсеместно, в том числе, в развлекательных целях, угроза утечек персональных данных пользователей растет ежедневно. Если не ввести в ближайшие несколько лет дополнительные меры контроля за работой искусственного интеллекта, он сможет взламывать защиту компьютерных программ, в том числе в критически важных для экономики сферах, эффективнее, чем люди, считают в МИРЭА.
В необходимости разработки правового регулирования использования технологий искусственного интеллекта на фоне их применения практически во всех областях экономики убежден и член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Количество аудиовизуального контента в сети растет в геометрической прогрессии каждый день, а вместе с ним, к сожалению, множится и ложная информация. Никто не гарантирует, что изображение человека или видео, сгенерированное нейросетью с помощью его изображения, не будет использоваться для совершения преступлений. Поэтому, на мой взгляд, маркировка продуктов, который создают нейросети, может стать по-настоящему рабочим инструментом. О такой идее писал ранее профессор Калифорнийского университета Хани Фарид – он предложил делать это с помощью водяных знаков со встроенным уникальным идентификатором. Уже сейчас помечает такого рода контент и социальная сеть TikTok. Наши специалисты хотят делать это при помощи графических знаков, однако, как мне кажется, это станет только первым этапом в развитии такой маркировки. При ее разработке следует учитывать множество факторов, и, в первую очередь, то, что она должна быть нераздражающей и понятной пользователю. Человек должен сразу понимать, какого рода контент он видит перед собой, и в зависимости от этого анализировать его еще более тщательно», — считает депутат.
Генеральный директор исследовательской компании TelecomDaily Денис Кусков также считает, что маркировка контента, созданного при помощи нейросетей, будет очень логичным шагом в современном мире, где за развитием новых технологий сложно даже уследить. «Сегодня, в принципе, очень трудно отличить реальное от нереального — особенно в виртуальном пространстве. Маркировка контента, который создается при помощи искусственного интеллекта, должна помочь и определённым образом оградить людей от негативных аспектов распространения таких цифровых продуктов. Ожидать, что такой подход решит сразу все проблемы, которые возникают на фоне развития новых технологий, не приходится, однако, я уверен, что это станет значительным шагом в заданном направлении», — отметил эксперт.
Сегодня партия «Единая Россия» уже занимается разработкой законопроекта, направленного на регулирование использования искусственного интеллекта. Новые поправки в законодательство будут нацелены на то, чтобы актуализировать существующие нормы, а также установить ответственность за применение ИИ в мошеннических целях. Кроме того, одной из основных задач проекта станет определение общих правил этики использования ИИ в России, которые будут носить обязательный характер для всех, кто работает с новыми технологиями, напомнил Антон Немкин.
«Бесконтрольное использование новых технологий в перспективе ближайших нескольких лет может привести к росту киберпреступности, – в этом вопросе я не могу не согласиться с экспертами МИРЭА. Сегодня в системы уже загружается большой объем корпоративных и персональных данных для повышения качества их работы, что делает их носителями внушительного объема чувствительной информации о россиянах. Кроме того, системы, в которых используется искусственный интеллект, развиваются и совершенствуются постоянно, и со временем злоумышленники неминуемо будут пытаться ими пользоваться. Поэтому мы должны заблаговременно разработать четкий алгоритм борьбы с такими видами мошенничества. На данном этапе развития нейросетей человек должен осуществлять за ним тщательный контроль, чтобы новые технологии использовались исключительно во благо», — заключил депутат.