Более 700 человек – включая лауреатов Нобелевской премии, ученых, религиозных деятелей и знаменитостей – подписали петицию с призывом запретить разработку сверхразумного искусственного интеллекта (ИИ).

По данным британской газеты The Independent, эксперты беспокоятся о том, что такие системы могут появиться уже в ближайшие два года и выйти из-под контроля.

Письмо, опубликованное международной группой общественных деятелей, направлено против технологических гигантов – Google, OpenAI и Meta, которые соревнуются в создании ИИ, способного превзойти человека в большинстве когнитивных задач.

Согласно опросу, проведенному одновременно с публикацией письма, 64% американцев считают, что разработка сверхразума допустима лишь при условии доказанной безопасности и управляемости. Лишь 5% выступают за немедленное продолжение разработок.

Что говорится в петиции и кто ее подписал?

«Мы призываем ввести запрет на разработку сверхинтеллекта до тех пор, пока не будет достигнут научный консенсус о его безопасности и управляемости, а также не будет обеспечена широкая общественная поддержка», – говорится в документе.

Среди подписантов – пять лауреатов Нобелевской премии, соучредитель Apple Стив Возняк, британский миллиардер Ричард Брэнсон, бывший председатель Объединенного комитета начальников штабов США Майк Маллен, советник Папы Римского Паоло Бенанти, а также герцог и герцогиня Сассекские – Гарри и Меган.

Принц Гарри в личной записке отметил: «Будущее ИИ должно служить человечеству, а не заменять его. Истинный прогресс определяется не скоростью, а мудростью наших действий. Второго шанса не будет».

Потенциал и риски сверхинтеллекта

В преамбуле письма подчеркивается, что ИИ способен принести человечеству здоровье и процветание. Однако ведущие компании стремятся создать сверхинтеллект, который превзойдет человека почти во всех умственных способностях. Это вызывает серьезные опасения – от экономического неравенства и потери контроля до угроз национальной безопасности и возможного вымирания человечества.

– Это не запрет и не мораторий в привычном смысле», – поясняет профессор Калифорнийского университета в Беркли и пионер в области ИИ Стюарт Рассел. – Это предложение ввести меры безопасности для технологии, которая, по мнению ее создателей, может привести к вымиранию человечества. Разве это чрезмерное требование?»

1prof.by