Злоумышленники используют ChatGPT для создания вредоносного ПО

Компания OpenAI пресекла более 20 вредоносных операций, в которых чат-бот использовался для разработки и тестирования вредоносного программного обеспечения (ПО), распространения дезинформации и проведения фишинговых атак.

В OpenAI сообщили о пресечении 20 вредоносных операций, в которых генеративный искусственный интеллект (ИИ) компании использовался для противоправных действий, следует из опубликованного OpenAI отчета.

В компании уточнили, что для определения ключевых сфер использования чат-бота в противоправных целях аналитики OpenAI проанализировали ключевые кейсы 2024 года. Так, зачастую чат-бот использовался для создания вредоносного программного обеспечения, генерации фейкового контента и фишинговых рассылок. Например, киберпреступники применяли ИИ-технологии для написания скриптов, используемых в рамках многоступенчатой ​​цепочки заражения устройств.

«Миссия OpenAI заключается в обеспечении того, чтобы искусственный интеллект приносил пользу всему человечеству. Мы стремимся выявлять, предотвращать и пресекать попытки злоупотребления нашими моделями во вредных целях. Мы знаем, что в этот год глобальных выборов особенно важно создать надежную, многоуровневую защиту от связанных с государством кибератакеров и операций тайного влияния, которые могут попытаться использовать наши модели для проведения кампаний по введению в заблуждение в социальных сетях и на других интернет-платформах», – говорится в заявлении компании.

Искусственный интеллект отлично справляется с поставленными задачами, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Ключевая проблема, с которой сегодня столкнулось мировое ИТ-сообщество, в том, что ИИ отлично справляется и с реализацией противоправных действий. Количество ИТ-преступлений, совершенных при помощи нейросетей, неуклонно растет», – отметил депутат.

На сегодняшний день лучше всего нейросети справляются с автоматизацией фишинговых рассылок, отмечает депутат. «Сейчас создать фишинговую рассылку может даже неопытный злоумышленник. По данным аналитиков «Лаборатории Касперского», за последнее время выросло количество теневых Telegram-каналов, где можно найти готовые скрипты для создания фейковых рассылок. Кроме того, увеличивается количество персонализированных фишинговых рассылок. Так, ИИ на основе открытых данных анализирует интересы и потребительские привычки пользователя, на основе которых впоследствии формирует фишинговую рассылку с уникальным пользовательским предложением», – пояснил депутат.

Тем не менее, отмечает Немкин, преступники все еще находятся на стадии тестирования искусственного интеллекта. «Нельзя сказать, что подавляющее число злоумышленников использует ИИ для реализации атак, но популярность инструмента, вероятно, будет только расти», – отметил депутат. По словам Немкина, существующие модели генеративного искусственного интеллекта содержат защитные механизмы: так, если код содержит вредоносную архитектуру, то чат-бот откажется выполнять назначенную команду. «Конечно, это осложняет жизнь злоумышленников, но точно не лишает их возможности использовать инструмент», – подчеркнул депутат.

Необходимо развивать системы доверенного искусственного интеллекта, уверен Немкин. Доверенный искусственный интеллект, помимо бесперебойной работы и технической устойчивости, базируется на разделяемых в обществе нормах морали и этики, а также соблюдает положения законодательных актов. «То есть использование ИИ в противоправных целях при доверенной системе в целом невозможно», – пояснил депутат.

Разработку доверенного ИИ в России сейчас ведут как минимум 12 научно-исследовательских центров, подчеркнул депутат.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее


Подпишитесь
на нашу рассылку