Под маской другого

У технологии, позволяющей имитировать внешность и голос реальных людей с завидной точностью, есть свои светлые и темные стороны. Как говорят специалисты, от развлечения до преступления всего один дипфейк. Негативные последствия применения таких инструментов ставят под сомнение доверие в цифровой среде. Участники десятого заседания Клуба цифровых юристов Digital Principle обсудили, как противостоять использованию дикфейков в мошеннических схемах, достаточно ли законодательных механизмов для противодействия киберпреступлениям под маской другого?

Любой желающий может создать цифровое лицо для использования в Сети – копию себя самого, в том числе измененную, изобразить вымышленного персонажа. Грань между законным и незаконным его применением весьма зыбкая. Законодатели рассматривают законопроект, предлагающий установить охрану голоса как «объекта личных неимущественных прав гражданина по аналогии с изображением гражданина, в том числе в случаях имитации голоса или путем синтеза речи в режиме реального времени».

Открывая заседание Клуба цифровых юристов, которое состоялось на площадке научно-образовательного центра Digital IP, модератор Антон Иванов, председатель Высшего арбитражного суда РФ в отставке, профессор-исследователь Digital IP, профессор факультета права НИУ ВШЭ, поделился наблюдениями о том, что примерно 95% случаев использования дипфейков ассоциируются с попытками ввести в заблуждение: «Как послушаешь новости, так это либо мошенничество, либо обман. Жулики первыми освоили эту нишу». А ведь применение дипфейков может приносить пользу. «Например, ничего плохого нет в том, чтобы вместо меня вел передачи виртуальный цифровой персонаж, который и моложе, и стройнее. Возможно, это добавит мне посетителей, подписчиков», – пояснил эксперт.

По его мнению, для новой технологии было выбрано крайне неудачное название: фейк – это подделка, дипфейк – глубокая, серьезная подделка. Термин с негативной коннотацией.

Эффект доступности

Технический эксперт, победитель LegalTech конкурса Владимир Зайцев отметил, что технические возможности генерации изображения, видео, звука не различаются в зависимости от цели задания (хорошей или плохой). Есть бизнес-идеи, которые легче реализовать путем генерации видео по заданному сценарию. Нет особой разницы и с тем, как десятилетия назад ретушировали фото и размещали в контексте, не очень благоприятном для конкретного человека.

С тех пор технология стала доступнее, причем в отношении не только фото, но и видео. Но едва ли это как-то влияет на право, за исключением эффекта доступности и качества. Ключевой момент – степень убедительности для воспринимающего соответствующую информацию. Дипфейки создаются с помощью нейросетей, которые работают на базе суперкомпьютеров. Ресурсы нейронных сетей предоставляются крупными разработчиками.

«То есть, если подводить к вопросам права, то за это отвечает тот, кто предоставляет услуги (берет за них плату). Вот туда и надо направлять следователей?», – не без иронии заметил модератор. В ходе обмена репликами участники сошлись на мнении, что торопиться с такими визитами следователям пока не стоит – иначе можно погубить технологию.

Имитация чего угодно

Интересы артистов нарушаются, когда продаются их образы в виде дипфейков, созданных на базе нейросетей. По словам Виталия Калятина, профессора кафедры интеллектуальных прав (Исследовательский центр частного права имени С.С. Алексеева при Президенте РФ), дипфейк – это имитация чего-то реально существующего. Правовыми нормами давно описаны и фальшивки, и подделки, которые существовали всегда. А с другой стороны, пародии и имитации не запрещены. Есть ли что-то новое для права в связи с распространением дипфейков?

Задача любого искусства – обмануть зрителя. Но этот обман – очевидный для зрителя, слушателя (который принимает заранее установленные правила). Применительно к дипфейкам имитация не очевидна, ее невозможно распознать с помощью имеющихся инструментов.

Кроме того, ранее подделки могли создавать ограниченное количество людей или госструктуры, которые, например, выдают шпионам фальшивые документы. Сегодня создание фальшивки доступно каждому человеку. И оказалось, что инструменты, которые столетиями вырабатывало гражданское право, неработоспособны в связи с дипфейками. Невольно возникает желание наложить запрет, внести изменения в уголовное право и т. п.

Но задача состоит в том, чтобы, не запретив дипфейк, поставить его под контроль. Ведь имитация возможна чего угодно: изображения человека, реальности, происходящих событий и т. д. Получается, что любой человек может убедить общественность в чем угодно, а возможность проверить достоверность утверждения весьма сомнительная, если не сказать отсутствует. Так сформулировали актуальную задачу участники дискуссии.

На вопрос модератора, достаточно ли в Гражданском кодексе инструментов для решения задачи, Виталий Калятин ответил, в ГК много инструментов, но они неэффективны. В частности, предлагается слабый механизм компенсации. Можно потребовать удаления или распространения фейкового изображения. Но какой в этом смысл, если оно уже нанесло вред репутации? Тем более в отдельных случаях приходится доказывать, что причинены вред, страдания…

Не следует сбрасывать со счетов «светлую» сторону дипфейка как элемента творчества, создания произведения. Известно, насколько искусственный интеллект помогает реставраторам восстанавливать художественные полотна, частично утраченные или поврежденные, в том числе по копиям. К слову, вот это направление использования дипфейков ГК не урегулировано. Инструменты гражданского законодательства необходимо развивать.

Инструменты контроля

Законодатели с энтузиазмом занимаются данной темой, выдвигаются идеи что-то запретить, маркировать изделия, созданные при помощи нейросети, и т. п. Предпринята попытка предложить в УК определение дипфейка, пусть и не самая удачная, что следует из отзыва Правительства РФ на эту инициативу, рассказала Александра Орехович, директор по правовым инициативам Фонда развития интернет-инициатив (ФРИИ). Важные дополнения в законодательство про охрану голоса. Именно голос часто используется в схемах мошенников. Правда, статья про голос копирует статью про изображение, которая тоже не лишена уязвимых положений.

Разных точек зрения придерживаются эксперты относительно маркировки. Едва ли можно утверждать, что она не сработает – на этот счет показателен китайский опыт. В Поднебесной такой контент маркируется, обязанность возложена на разработчика (обеспечивает скрытую маркировку) и на владельца платформы. Видя скрытую маркировку, владелец должен довести информацию о дипфейке до пользователя.

Убедительность и доступность – ключевые признаки дипфейка, настаивали эксперты. Демаркационная линия проходит по технической возможности подтверждения или не подтверждения имитации изображения. Запатентована программа, позволяющая определять наличие фейков. Технологии развиваются, возможно, в скором времени появятся соответствующие приложения проверки.

Ситуация с дипфейками – классический пример того, как технология обгоняет право. Важно критическое отношение к происходящему самих пользователей, которым рекомендуется проявлять бдительность, задавать уточняющие вопросы, полагает Дмитрий Кириллов, советник юридической фирма Lidings.

Уголовно-правовую картину использования технологии представил Руслан Долотов, партнер адвокатского бюро «Феоктистов и партнеры». После издания в 2022 г. соответствующего приказа Генпрокуратуры ведется статистический учет всех происшествий с использованием дипфейков. На каждое заполняется карточка, в ней есть графа для предметов, применяемых при совершении преступления, и отдельная графа – для преступлений, совершенных с использованием технологии дипфейков. Что такое дипфейк, в упомянутом приказе не раскрывается. Правоохранительные органы ориентируются на рекомендательный глоссарий, утвержденный парламентской ассамблеей ОДКБ в 2023 г.

Как показывает практика, наказание за дипфейк наступает, если в нем изображены несовершеннолетние, если его разновидности (аудио- и видеоизображение) используются для вымогательства, мошенничества. Проблем с квалификацией таких преступлений нет – в УК достаточно норм. Вводить дополнительную уголовную ответственность за использование технологии рано – пока недостаточно развито бланкетное законодательство, гражданское, административное.

Добро или зло на весах технологии

Технология дипфейков, как и любая другая (ИИ, больших данных), – инструмент решения определенных задач. Вопрос – в каких целях она используется: причинить ущерб третьим лицам или сделать добро. Оснований для принятия отдельного закона, регулирующего фейки, нет, утверждают эксперты.

В гражданское законодательство вносятся точечные изменения, корректирующие правовую защиту личных данных, которые позволяют идентифицировать человека. Голос и изображение нужно защищать, в том числе от использования в тех целях, в которых не планировалось самим человеком. Действующих статей УК достаточно для борьбы с негативными последствиями использования технологии.

Что касается мирового опыта, то в некоторых странах предлагается рассматривать дипфейки как отягчающее обстоятельство по отдельным преступлениям. В ряде государств появились законы, которыми вводится уголовная ответственность за использование дипфейков в политической сфере. По этому пути будет развиваться законодательство и в России, могут появиться дополнительные квалифицирующие составы, предположили участники обсуждения.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее
Спецпроект

ОСК провела демо-день ИЦК «Судостроение»

Подробнее


Подпишитесь
на нашу рассылку