YouTube вводит новые меры безопасности, требуя маркировать контент, созданный при помощи искусственного интеллекта. Компания предусматривает штрафные санкции для тех, кто отказывается маркировать такой контент.
Маркировка контента
Видеохостинг YouTube в ближайшие месяцы станет требовать от авторов роликов маркировать контент, который был создан при помощи инструментов искусственного интеллекта (ИИ). «Создаваемые ИИ новые формы подачи историй могут быть использованы для генерации контента, у которого есть потенциал ввести зрителей в заблуждение, особенно если они не осведомлены о том, что видео было изменено или создано искусственно», — говорится в сообщении компании.
Меры и штрафы
Как пояснили в администрации видеохостинга, авторы роликов должны будут указывать, когда созданный ими контент был изменен или создан полностью с использованием инструментов искусственного интеллекта. Особенно важны такие меры будут в том случае, если созданный ролик касается общественно значимых тем, таких как выборы, находящиеся в активной фазе конфликты или же кризисы в сфере здравоохранения.
При этом для тех, кто будет отказываться ставить соответствующую маркировку, могут быть введены штрафные санкции.
Для роликов, созданных при помощи нейросетей, YouTube планирует ввести два вида меток в зависимости от чувствительности темы видео. Хостинг также оставляет за собой право удалять ролики в том случае, если они нарушают его политику.
Разработка законодательства о блокировке
Сегодня необходимо не только грамотно внедрять искусственный интеллект в повседневную жизнь, но и качественно информировать население о том, как именно и, главное, где, в каких процессах осуществляется его работа, как она регулируется и ограничивается для недопущения опасных последствий, отмечает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
«Одним из важных шагов в этом направлении, мне кажется, должна как раз стать маркировка того контента, который создают нейросети. Даже сегодня интернет уже переполнен контентом, который создают боты, алгоритмы и так далее. А если рассматривать отдаленную перспективу, то ИИ-сервисы несут опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных. При этом человеку важно иметь представление о том, с чем он имеет дело, отличать реальное от нереального. Тут, как и в случае с рекламой, — пользователя очень легко обмануть и завлечь куда-то, а задача государства не позволить это сделать. И тут как раз приходит на помощь маркировка», — уверен депутат.
Как ранее показал опрос ВЦИОМ, больше половины россиян — 69%, положительно отнеслись к тому, чтобы особым образом маркировать продукты, изображения и решения, созданные искусственным интеллектом. Еще 39% считают, что маркировать такой контент однозначно нужно, 30% ответили «скорее надо», а 14% убеждены в обратном и ответили, что в подобных обозначениях нет необходимости.
Сегодня в Госдуме уже ведется разработка концепции закона о маркировке контента нейросетей, который в том числе позволит снизить риски от распространения дипфейков, напомнил Немкин. В частности, изучается законодательный опыт других стран, идут консультации с экспертами, работа над формулировками базовых дефиниций.