В России могут ввести уголовную ответственность за кражу и клевету с применением дипфейков. За преступление с использованием дипфейков может грозить штраф до 1,5 млн рублей или лишение свободы на срок до двух лет. Соответствующий законопроект планируют внести в Госдуму.
В России могут криминализировать использование технологии дипфейков в преступных целях, соответствующий законопроект должен быть внесен в Госдуму. Его авторы – глава думского комитета по труду, социальной политике и делам ветеранов Ярослав Нилов (ЛДПР) и сенатор Алексей Пушков.
Квалифицирующие признаки
«Мы предложили внести изменения в УК и уточнить некоторые квалифицирующие признаки за попытки использовать технологии дипфейков в противозаконных целях. Юридически это понятие в законодательстве пока не прописано, хотя давно следует. Но по смыслу мы понимаем, что это технологии, которые позволяют использовать изображение или звук как естественный, так и синтезированный, чтобы ввести человека в заблуждение. И мошенники этим пользуются», – пояснил Нилов ТАСС.
Поправки предполагают внесение изменений в статьи «Клевета», «Мошенничество», «Кража», «Вымогательство», «Мошенничество в сфере компьютерной информации» и «Причинение имущественного ущерба путем обмана или злоупотребления доверием».
Штраф или тюрьма
Из законопроекта следует, что клевета, совершенная с использованием изображения или голоса (в частности, фальсифицированных или искусственно созданных) потерпевшего, а также с использованием его биометрических данных, будет наказываться штрафом до 1,5 млн рублей или лишением свободы на срок до двух лет. Использование технологии в мошеннических целях может привести к штрафу до 400 тыс. рублей или лишению свободы на срок до шести лет.
В пояснительной записке отмечается, что развитие компьютерных технологий расширило возможности создания видео- и аудиоматериалов на основе изображений и голосов граждан, «искусственно воссоздающих несуществующие события». Если ранее злоумышленники подделывали фотографии для клеветы, то сегодня современные технологии, в том числе нейросети, позволяют создавать подделки, практически не отличающиеся от реальности.
Технологии подмены личности
В официальном отзыве правительства на законопроект указывается, что пока что в отраслевом законодательстве не урегулированы вопросы использования технологий подмены личности.
«Таким образом, введение предлагаемого регулирования в уголовное законодательство не представляется возможным из-за отсутствия корреспондирующих норм материального законодательства, что влечет существенные риски формирования некорректной правоприменительной практики», – говорится в отзыве.
Помимо этого, в правительстве отмечают, что пояснительная записка к законопроекту не содержит статистических и других данных, которые могли бы свидетельствовать «об общественной опасности криминализируемых деяний». Ввиду этого вывод о повышенной степени общественной опасности указанных деяний сделать невозможно. «На основании изложенного законопроект требует существенной доработки», – отмечают в правительстве.
Проблема есть, решение запаздывает
Вопрос регулирования использования дипфейков в противоправных целях уже давно назрел, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
«Технология очень активно используется в мошеннических целях – прежде всего искусственный синтез голоса. Злоумышленники взламывают пользовательские аккаунты в социальных сетях и мессенджерах, обучают модель на ранее отправленных человеком голосовых сообщениях и далее от имени владельца страницы просят осуществить денежный перевод», – пояснил депутат.
Ранее в Управлении президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры отмечали, что за часть первого квартала 2024 года в интернете было выявлено больше видео- и аудио- дипфейков, чем за весь 2023 год: число видеодипфейков выросло в 3 раза, а аудио – в восемь раз. О росте числа дипфейков также сообщали в Банке России, однако точной статистики регулятор не привел.
Точную статистику применения технологии в противоправных целях сейчас привести сложно.
«Во-первых, далеко не все пострадавшие обращаются за помощью в правоохранительные органы. Во-вторых, даже в случае обращения, далеко не всегда фиксируется тип атаки. Но отсутствие полной статистической картины не означает, что проблемы нет», – пояснил эксперт.
Ключевой вопрос – отсутствие законодательного регулирования. По словам депутата, «у нас пока что не сформировано рамочное регулирование технологии искусственного интеллекта (ИИ), а регулирование одной из его частей, тем более в рамках уголовного законодательства, может отрицательно сказаться на формировании правовой практики. Но вопрос установления нормативной рамки для ИИ сейчас стоит остро».