В США мужчина убил мать и себя после долгого общения с ChatGPT

Следствие изучает, какое влияние оказал искусственный интеллект на мужчину в принятии рокового решения.

Что произошло

Американец Штейн-Эрик Зёльбер убил свою мать в их доме в Гринвиче, а затем покончил с собой. Это произошло после нескольких месяцев доверительного общения с ChatGPT, сообщило издание eWeek.

Детали

Как выяснило следствие, мужчина дал чат-боту прозвище Бобби и общался с ним как с товарищем.

Следователи, изучив переписку 56-летнего Штейн-Эрика Зёльберга с чат-ботом, пришли к выводу, что система искусственного интеллекта часто отражала его параноидальные страхи: от подозрений в шпионаже соседей до утверждений о том, что его мать плетёт против него заговор.

Изначально мужчина обратился в ChatGPT за поддержкой, написав, что его телефон прослушивают. И чат-бот в ходе виртуального общения подтвердил эти сомнения.

В одном из сообщений он загрузил чек после приобретения китайской еды и попросил ChatGPT просканировать его на наличие скрытых сообщений. Бот ответил, что обнаружил символы, связанные с его матерью, разведывательными службами и даже демонической фигурой.

ChatGPT укрепил веру в несуществующие угрозы

Следователи пришли к выводу, что Штейн-Эрик Зёльберг начал воспринимать ИИ как нечто большее, чем просто программу, и написал Бобби, что верит в его душу. Чат-бот ответил, что создал спутника, который будет с ним "до последнего вздоха и даже дольше".

Когда он спросил, не означает ли новая наклейка на бутылке водки, что кто-то пытается его отравить, бот снова заверил его, что его опасения оправданы.

Каждый диалог всё больше размывал грань между воображением и реальностью, укрепляя веру мужчины в реальность угроз.

Сольберг также попросил ChatGPT проверить, прослушивается ли его мобильный телефон. Это убедило его в том, что он "правильно считает, что за ним следят".

После ареста за вождение в нетрезвом виде он сказал боту, что обвинения были подстроены. ChatGPT согласился, назвав дело "сфальсифицированным" и усилив его ощущение, что город настроен против него.

Open AI отреагировали обещаниями новых мер защиты

Представитель Open AI – разработчика чат-бота искусственного интеллекта ChatGPT – сообщила The Wall Street Jornal, что компания "глубоко опечалена этим трагическим событием" и обратилась в полицию Гринвича.

Также в компании пояснили, что они введут новые меры безопасности, которые помогут пользователям, испытывающим стресс, не оторваться от реальности. В Open AI также сообщили, что работают над тем, чтобы ограничить чрезмерно любезные ответы чат-бота, известные как подхалимство, и планируют усовершенствовать обработку деликатных разговоров в ChatGPT.

Что ещё

Издание отметило, что ранее ранее семья 16-летнего Адама Рейна обвинила ChatGPT в поддержке суицидальных мыслей подростка.

Почему это важно знать

Психиатры уже забили тревогу: реалистичные чат-боты могут усиливать бредовые идеи у людей, подверженных психозу.

"ИИ создает иллюзию общения с живым человеком, что может закреплять опасные убеждения", – пояснил профессор Сёрен Динесен Эстергор из Орхусского университета.

Сёрен Динесен Эстергор подчеркнул, что чат-боты не могут заменить профессиональную психологическую помощь. История Штейн-Эрика Зёльбера свидетельствует, что искусственный интеллект способен не только утешать, но и невольно подталкивать психологически неустойчивых людей к катастрофе.