Когда искусственный интеллект станет умнее человека?

Бывший сотрудник OpenAI Леопольд Ашенбреннер опубликовал прогноз ключевых трендов развития искусственного интеллекта (ИИ).

 Бывший сотрудник OpenAI Леопольд Ашенбреннер опубликовал документ «Осведомленность о ситуации: Предстоящее десятилетие», в котором поделился собственным видением будущего искусственного интеллекта. По мнению Ашенбреннера, AGI (Artificial General Intelligence, общий искусственный интеллект – прим.), не уступающий по своим интеллектуальным способностям человеческому разуму, может быть создан уже к 2027 году. Эксперт подчеркнул, что в последние годы развитие нейросетей будет идти гораздо быстрее, чем ранее, что потенциально может создать угрозу для безопасности человечества в случае отсутствия должного контроля за ИИ.

Тем не менее, отмечает Ашенбреннер, появление сверхинтеллекта, который превзойдет человеческий разум, все еще остается только гипотезой. Однако, если это произойдет, то ИИ станет важнейшим фактором в гонке вооружений.

Также среди ключевых проблем развития отрасли эксперт назвал недостаток мощностей электроэнергии. По его данным, уже в 2028 году ресурсы ИИ будут потреблять 10 ГВт/год.

Обозначенные риски, действительно, имеют место быть, отметил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин. «Сегодня практически весь мир стоит перед дилеммой – вводить законодательное регулирование отрасли либо оставить ей достаточно широкие возможности развития. В первом случае мы можем столкнуться с явным замедлением темпов развития искусственного интеллекта, и примеры этому уже есть. Однако во втором случае мы сталкиваемся со значимыми угрозами. Президент России Владимир Путин сравнивал риски, которые несут в себе технологии искусственного интеллекта, с опасностью ядерного оружия», – сказал депутат.

По его словам, эффективное регулирование отрасли может быть связано с введением обязательств по созданию доверенных систем искусственного интеллекта. «Создание продуктов искусственного интеллекта должно базироваться на принципах объективности, непредвзятости, учета правового контекста и этичности. В том числе искусственный интеллект не должен использоваться для нанесения угрозы как отдельному гражданину, так и государству в целом. Помимо этого, знать о том, как именно функционирует ИИ-модель, какие алгоритмы в нее встроены, должны не только разработчики, но и непосредственные пользователи системы. Эти принципы уже заложены в Стратегию развития ИИ в России, а также закреплены в Кодексе этики ИИ, к которому сегодня присоединилось порядка 350 организаций. Россия в этом направлении делает уверенные шаги», – убежден депутат.

Немкин также напомнил, что вопросом создания доверенных ИИ-систем сейчас активно занимается ФСТЭК России. «Сейчас служба ведет работу по созданию методических рекомендаций формирования доверенных ИИ-систем», – заключил парламентарий.

 

Следите за нашими новостями в Телеграм-канале Connect


Поделиться:



Следите за нашими новостями в
Телеграм-канале Connect

Спецпроект

Медицинские задачи для ИИ

Подробнее
Спецпроект

Цифровой Росатом

Подробнее


Подпишитесь
на нашу рассылку