Американец попал в психбольницу из-за советов ChatGPT

Входит в сюжеты
В этой статье

Мужчина из США попал в психбольницу на принудительное лечение после того, как по совету ChatGPT три месяца употреблял бромид вместо соли и получил отравление, вызвавшее психоз. Об этом говорится в статье медиков из Американской коллегии врачей и Американской кардиологической ассоциации, опубликованной в журнале Annals of Internal Medicine.

Пациент обратился в больницу с паранойей, галлюцинациями, он также отказывался от воды. Мужчина предполагал, что его отравил сосед. Врачи обследовали его, быстро обнаружили отравление бромидом и положили в больницу на принудительное лечение в психиатрическом отделении.

Мужчина рассказал, что хотел снизить потребление соли и по совету ChatGPT заменил его на бромид, купленный в интернете.

Врачи проверили ChatGPT и подтвердили, что искусственный интеллект мог рекомендовать такую замену без предупреждения об опасности. Мужчина выздоровел и был выписан через три недели.

Бромид раньше использовали в медицине, но потом отказались из-за его токсичности при длительном применении, отмечают врачи из Университета Вашингтона. Сейчас вещество встречается лишь в некоторых ветеринарных препаратах и добавках.

ChatGPT в последние годы начал выдавать ложные и абсурдные утверждения, сводя некоторых пользователей с ума, сообщила ранее The Wall Street Journal (WSJ). Искусственный интеллект заявлял о контактах с инопланетянами и будущем апокалипсисе. Врачи назвали это «психозом искусственного интеллекта», когда ИИ усиливает заблуждения и иллюзии пользователей. Некоторые люди тратили большие деньги по советам чат-бота или разрывали отношения с близкими. OpenAI признала проблему и пообещала запретить нейросети давать советы по важным личным вопросам.

Читайте РБК в Telegram.