Профи по дипфейкам

Российские ученые разработали метод автоматического определения дипфейков. При помощи этого метода была обучена нейросеть, которая анализирует видео, фото и помогает выявить созданный при помощи ИИ контент.

Автоматическое определение манипуляций

Ученые Санкт-Петербургского Федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) разработали метод автоматического определения дипфейков путем обнаружения манипуляций по повышению качества сгенерированного видео для его убедительности (апскейлинга). На основе этого метода была обучена нейросеть, которая анализирует видео и фото и помогает выявить дипфейки.

«Практически все современные смартфоны используют нейросети для улучшения фотографий. Однако при создании дипфейков фотографии изменяются гораздо сильнее, в этом и состоит отличие. Наш алгоритм научился выявлять апскейлинг, то есть искусственное улучшение качества изображения за счет повышения его разрешения», – рассказал ТАСС ведущий эксперт Международного центра цифровой криминалистики СПб ФИЦ РАН Дмитрий Левшун.

Чаще всего качественные дипфейки, которые создаются в мошеннических или политических целях, не обходятся без апскейлинга, поэтому подготовленная учеными нейросеть обеспечивает высокую эффективность выявления искусственно созданного контента. Специалисты планируют также создать базу данных и обучить нейросети выявлять дипфейки и по другим признакам.

Фейковый контент

При помощи искусственного интеллекта сегодня создаются до 10% всех фейков в сети, напомнил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин: «При этом в 2023 году, по сравнению с 2022 годом, количество такого контента выросло в 17 раз. Граждане уже выказывают обеспокоенность этой ситуацией – как показали результаты свежего исследования факультета права Высшей школы экономики (ВШЭ), опасения по поводу дипфейков, которые позволяют мошенникам создавать фальшивые видео и аудио, имитирующие голоса и внешность людей, разделяют 30% россиян».

По словам парламентария, «нельзя допустить такого варианта развития событий, когда созданные при помощи ИИ фейки и дипфейки буквально заполонили наше цифровое пространство. Граждане должны четко понимать, с каким контентом они имеют дело, был он сгенерирован искусственно или создан человеком. В этом плане важна маркировка продуктов деятельности ИИ, о которой я уже говорил ранее. А предложенный петербуржскими учеными метод однозначно будет для выявления тех дипфейков, которые будут распространяться без соответствующей маркировки и скорее всего в противоправных целях».

Рекомендации эксперта

Сегодня важно определиться в целом со стратегией работы с дипфейками и искусственным интеллектом, а также борьбы с их противоправным использованием.

«Соответствующие положения обязательно войдут в разрабатываемый в России Цифровой кодекс. А пока я советую гражданам пользоваться простыми правилами, которые могут помочь самостоятельно выявить дипфейк. Например, видеосообщение, созданное при помощи технологии «дипфейк», можно выявить по движению глаз человека на видео, цвету кожи и волос, контуру овала лица – зачастую они могут быть размытыми, странными. В случае голосовых подделок стоит всегда внимательно оценивать интонации и четкость речи. Ну и, конечно, всегда критически относиться к любым просьбам, которые поступают вам в сети, если это касается ваших личных данных или финансовых средств», – пояснил парламентарий.

 

 

 

 

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку