В Москве состоялся «Форум этики в сфере искусственного интеллекта. Поколение GPT. Красные линиИИ», на котором обсудили актуальные тенденции рынка ИИ, в том числе вопросы этического характера.
Центральной темой форума стало обсуждение развития искусственного интеллекта за счет внедрения эффективного законодательного регулирования, которое «закроет» все негативные последствия, которые потенциально несет
в себе технология, но при этом – не станет преградой на пути развития ИИ.
Согласно члену комитета Госдумы по информационной политике, информационным технологиям и связи, федеральному координатору проекта «Цифровая Россия» Антону Немкину, ИИ имеет большой потенциал, позволяющий как автоматизировать выполнение рутинных процессов, так и обрабатывать сверхбольшие массивы данных. «Тем не менее, мошенники также оценили возможности, которые дают современные технологии. Количество аудиовизуального контента в сети множится каждый день, а вместе с ним, к сожалению, растет и количество мошеннических схем, фейков. Искусственный интеллект также позволяет генерировать убедительные фишинговые письма, создавать дипфейки голосов, изображений и видеороликов. И отличить реальное от нереального становится действительно очень сложно», – считает эксперт.
Негативные последствия, возникающие вследствие активного внедрения ИИ, по мнению большинства участников форума, могут быть решены за счет соблюдения прозрачных принципов его работы. Стратегия такого подхода изложена в Кодексе этики в сфере искусственного интеллекта, к которому постепенно присоединяются рыночные игроки. «Более 270 компаний и органов государственной власти уже согласились соблюдать установленные Кодексом принципы. Ожидаем, что сегодня к ним присоединятся порядка 20 организаций», – сообщил заместитель министра Экономического развития РФ Максим Колесников.
При этом был поднят вопрос необходимости маркировки контента, который создал ИИ. Такой подход уже активно внедряют крупные иностранные ИТ-компании, в том числе Microsoft. Антон Немкин сообщил, что тема маркировки ИИ-контента в настоящий момент активно прорабатывается в Госдуме. «Наша задача состоит в том, чтобы не только грамотно внедрять искусственный интеллект в повседневную жизнь,
но и качественно информировать население о том, как именно и, главное, где, в каких процессах осуществляется его работа, как она регулируется и ограничивается для недопущения опасных последствий», – добавил он.
Предполагается, что выдвинутые на форуме идеи в дальнейшем будут использованы для корректировки национального курса развития ИИ.