ИИ-инструменты под контроль

В Роспотребнадзоре готовят предложения по регулированию технологий на основе искусственного интеллекта (ИИ). Ведомство считает, что пользователь должен иметь право ограничить и контролировать применение бизнесом ИИ-технологий. Помимо этого, компании хотят обязать информировать пользователей о том, что они общаются с ИИ-ботами, пишет «Коммерсант».

 Возможность стоп-сигнала

Роспотребнадзор подготовит предложения для нормативного регулирования рынка ИИ-решений в части защиты прав потребителей технологий искусственного интеллекта, рассказала замначальника управления федерального государственного надзора в области защиты прав потребителей ведомства Марина Кочнева.

По ее словам, для этого будет изучен законодательный опыт Европейского союза в сфере регулирования ИИ. В нем в том числе «прописана возможность нажать кнопку «стоп», сохранить за человеком возможности контроля применения ИИ», отметила Кочнева в ходе конференции «Партнерство БРИКС по развитию цифровой экономики».

В Роспотребнадзоре также считают, что обязательство по информированию пользователей о том, что они взаимодействуют с искусственным интеллектом, должно быть утверждено на законодательном уровне. Кроме того, должно быть определено лицо, несущее ответственность за нарушение прав потребителя при взаимодействии с ИИ-решениями.

Представитель ведомства отметила, что в предложениях по регулированию рынка будут учтены и жалобы пользователей: «Жалобы в основном связаны с неспособностью искусственного интеллекта решить проблему. Люди требуют внесения изменений в законы, чтобы ИИ использовался дозированно, и, если проблема потребителя не решена за определенное время, его переключали на оператора».

Темная сторона технологии на волне популярности

Популярность нейросетей в России растет с каждым годом. По словам члена комитета Госдумы по информационной политике, информационным технологиям и связи Антона Немкина, «в прошлом году, по данным Yota, мобильный трафик сервисов по работе с искусственным интеллектом увеличился в три раза, а сама аудитория ИИ-ботов выросла в 3,5 раза. При этом многие граждане не всегда знают, что пользуются решением на основе ИИ. Например, те же рекомендательные системы функционируют на основе машинного обучения, а картографические сервисы так или иначе используют интеллектуальные системы. ИИ все быстрее проникает на потребительский рынок, и, конечно, уже сейчас нужно прорабатывать вопрос законодательного регулирования технологии».

Одно из основных отрицательных последствий развития ИИ – использование технологии в противоправных целях.

«С прошлого года мы сталкиваемся с активным использованием дипфейков в мошеннических целях, чаще всего с синтетической генерацией голоса. Для того, чтобы вынудить человека сообщить конфиденциальную информацию или осуществить денежный перевод, злоумышленники начали представляться близкими людьми, коллегами, начальством, имитируя голос и заставляя гражданина поверить, что с ним разговаривает настоящий человек. Только в январе 2024 года, по данным Управления Президента РФ по развитию информационно-коммуникационных технологий, было выявлено около 2 тыс. таких инцидентов», – рассказал депутат.

Поскольку использование технологии показало результативность, ее популярность в дальнейшем будет только расти.

По принципу маркировки

Рынок достаточно остро реагирует на предложения по регулированию сферы. По мнению парламентария, основные опасения в том, что установление законодательных рамок отрицательно скажется на развитии технологии.

«Думаю, что и Госдума, и профильные министерства это прекрасно понимают. К вопросу нужно подходить через «мягкое» регулирование, о чем недавно, кстати, говорил глава нашего думского комитета Александр Хинштейн. И прежде всего – с позиции защиты пользователя. Анализ опыта ЕС, конечно, будет полезен, но, все-таки, регламент ЕС об ИИ – пример достаточно жесткого регулирования. Думаю, что важно уже сейчас двигаться в сторону маркировки: как в части маркировки продуктов, функционирующих на основе ИИ, так и в части контента, созданного ИИ. Это как раз позволит существенно повысить прозрачность использования технологии и в целом никак не повлияет на самих разработчиков», – считает депутат.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку