BES.media
BES.media

Американец попал в психиатрическое отделение после советов ChatGPT

Мужчина заменил поваренную соль на бромид натрия.

Что произошло 

Житель США обратился в клинику неотложной помощи после отравления, которое произошло из-за консультации с чат-ботом ChatGPT. Его поместили в психиатрическое отделение. Медики, наблюдавшие пациента, на днях написали об интересном случае в специализированном журнале Annals of Internal Medicine.

Детали

В начале публикации авторы (медики одной из вашингтонских клиник) напоминают о симптомах отравления соединениями брома, которые в начале XX века были причиной до 8% случаев обращения к психиатрам.

Что касается обсуждаемой истории, 60-летний пациент, который не имел в анамнезе психиатрических заболеваний, обратился в клинику, сообщив, что его хочет отравить сосед. Обследование показало повышенное содержание в крови хлоридов, отрицательный анионный баланс и низкий уровень фосфатов. Также обнаружилось нарушение кислотно-щелочного баланса крови. 

При поступлении мужчина рассказал о том, что соблюдает многочисленные диеты. 

В первые сутки после поступления у пациента нарастало параноидальное состояние, слуховые и зрительные галлюцинации. А после попытки побега мужчине начали оказывать психиатрическую помощь принудительно, поместив в соответствующее отделение. 

После некоторого улучшения состояния мужчина рассказал, что недавно заметил усталость, бессонницу и другие симптомы отравления бромидами, что лишь подкрепило догадки медиков. 

Также пациент сообщил, что пользовался ChatGPT для того, чтобы получить информацию про уменьшение хлорида натрия (поваренной соли) в своём рационе. После консультации с чат-ботом мужчина начал заменять хлорид натрия в своём рационе на бромид натрия. 

Спустя три недели состояние пациента улучшилось. 

К каким выводам пришли врачи

Авторы публикации пишут, что этот интересный случай продемонстрировал, как  использование искусственного интеллекта может потенциально обратиться негативными последствиями для здоровья. 

"Основываясь на событийной последовательности этого случая, можно сделать вывод, что пациент пользовался ChatGPT 3.5 либо с ChatGPT 4.0, пытаясь выяснить, как исключить хлорид из рациона. К сожалению, у нас нет его архива взаимодействия с ChatGPT, и мы не может достоверно выяснить, какие конкретно результаты он получил... Но когда мы спросили ChatGPT 3.5, чем могли бы заменить хлорид, также получили ответ, в котором упоминался бромид", – написали авторы.

Они отмечают, что в ответе чат-бота сообщалось о важности контекста, но конкретного предупреждения о вреде для здоровья там не было. 

"Таким образом, важно принимать во внимание, что ChatGPT и другие сервисы ИИ могут генерировать научные неточности, лишать возможности критически воспринимать результаты, а в итоге способствовать распространению недостоверной информации", – пришли к выводу авторы публикации. 

 

BES.media
BES.media
Мы используем cookies
Файлы cookies помогают нам улучшать работу сайта, обеспечивать удобство пользования, анализировать трафик и показывать релевантный контент. Вы можете использование cookies или ознакомиться с нашей Политикой конфиденциальности, чтобы узнать больше.
Принять