Искусственный интеллект может вести слежку за пользователями

Эксперты нашли уязвимость в ChatGPT, которая открывает новые возможности для злоумышленников. С ее помощью преступники могут установить шпионское программное обеспечение.

Эксперты в области информационной безопасности предупредили об опасной уязвимости – SpAIware – в приложении ChatGPT для операционной системы macOS, пишут «Известия». Она позволяет злоумышленникам устанавливать шпионское ПО.

Опасность SpAIware в том, что уязвимость обеспечивает постоянную утечку данных с личных устройств пользователей, в частности информации, введенной ими или полученную в чатах. По данным специалистов, злоумышленники эксплуатируют функцию памяти, которую разработчики ChatGPT внедрили только в этом году и для платной, и для бесплатной версии. Функция памяти агрегирует информацию из разных чатов, что позволяет пользователю не дублировать данные дважды.

Для того, чтобы активизировать уязвимость, пользователю необходимо перейти на вредоносный сайт либо скачать файл со скрытыми командами для ChatGPT.

Выявленная уязвимость – первый случай, когда у чат-бота обнаружили гипотетическую возможность шпионажа за пользователями. Как отмечает член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин, нейросети не так безопасны, как кажутся, и в ближайшем будущем случаев компрометации данных, как и эксплуатации уязвимостей, будет больше. «При передаче персональных сведений в любую информационную модель есть риск утечки данных, вне зависимости от того, передается ли персональная информация онлайн-магазину или генеративной нейросети. С учетом масштабного внедрения искусственного интеллекта, внимание к агрегируемым ИИ данным будет, безусловно, только расти. В прошлом году, например, уже случилась утечка платежных данных у пользователей продукта Open AI, хотя, казалось бы, компания должна предпринимать повышенные меры безопасности», – отметил депутат.

Более половины граждан России уже взаимодействуют с ИИ в повседневной жизни, а каждый третий россиянин использует ИИ в работе, отметил Немкин. «Это достаточно высокое значение, при условии того, что наиболее динамично нейросети развиваются в России последние два года. Но я бы не рекомендовал использовать чат-боты при работе с конфиденциальными данными. Соответствующей позиции придерживаются многие крупные компании, которые запретили использование чат-ботов при выполнении непосредственных рабочих задач. Одно из решений – интеграция собственных корпоративных ботов на основе внешних генеративных моделей – того же YaGPT или GigaChat», – посоветовал депутат.

Использовать иностранные чат-боты также нежелательно. «Данные зарубежных чат-ботов не хранятся на территории России, те, кто пользуется ChatGPT, по сути, передают информацию в черный ящик, контролировать который просто невозможно», – отметил депутат.

Ранее OpenAI выпустила обновление ChatGPT версии 1.2024.247, которое должно устранить возможность утечки данных. Тем не менее, ИБ-эксперты призывают регулярно проверять информацию в памяти ChatGPT, а при желании – отключить функцию. «При работе с нейросетями лучше использовать учетные записи, не привязанные ни к каким профилям, а также регулярно чистить историю запросов», — заключил Немкин.

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Цифровой девелопмент

Подробнее
Спецпроект

Машиностроительные предприятия инвестируют в ПО

Подробнее


Подпишитесь
на нашу рассылку