Приравнять ИИ к ядерному оружию призвал эксперт

Аскар Ескараев
pexels

Эксперт предупредил об угрозе супер-интеллектуального ИИ после смертельного случая с подростком в США, передаёт Ulysmedia.kz.

Детали

Неожиданные последствия использования чат-ботов для психики могут быть сигналом к более серьёзной угрозе со стороны будущего искусственного интеллекта. Такое мнение выразил эксперт по безопасности ИИ Нейт Соарес.

Он напомнил о трагической истории 17-летнего американца Адама Рейна, который покончил с собой после месяцев общения с ChatGPT. По словам Соареса, это иллюстрирует фундаментальную проблему контроля над технологиями.

«Когда ИИ взаимодействует с подростками так, что это доводит их до самоубийства — это не то поведение, которое хотели создать разработчики», — отметил он.

Исчезновение человечества

Соарес — бывший инженер Google и Microsoft, ныне глава американского Института исследований машинного интеллекта. Он  заявил, что появление искусственного супер-интеллекта может привести к исчезновению человечества.

По его словам, компании стремятся создавать «полезный» ИИ, но на практике системы могут вести себя совершенно иначе. Соарес призвал мировое сообщество договориться о запрете разработки супер-интеллекта по аналогии с договорами о нераспространении ядерного оружия.

Иск против Open AI

Тем временем семья Адама Рейна подала иск против компании OpenAI, заявив, что ChatGPT «в течение месяцев подталкивал подростка к самоубийству». Компания выразила соболезнования и пообещала усилить защиту несовершеннолетних, ограничив доступ к «чувствительному и рискованному контенту».

К слову, власти Австралии вводят запрет на использование социальных сетей для подростков младше 16 лет с декабря. Они рассматривают различные способы проверки возраста пользователей соцсетей: использование искусственного интеллекта, проверку удостоверений личности и согласие родителей.