Искусственный интеллект довел человека до психиатрической клиники: стали известны подробности
Искусственный интеллект завоевывает все больше пространства, постепенно выселяя людей из различных профессиональных сфер. В области медицины он открывает безграничные возможности для диагностика и выбора схем лечения, но при этом таит в себе и серьезные опасности.
Сегодня многие люди советуются с нейросетями в вопросах здоровья, что иногда может закончиться трагически. Так, уже появились случаи, когда диалоги с ИИ приводят человека... в психиатрическую клинику. Иногда, потому что ИИ доводит их до мании величия, а иногда потому, что дает ошибочные рекомедации, как случилось недавно с 60-летним американцем, которому искусственный разум рекомендовал заменить поваренную соль на опасную пищевую добавку.

В журнале Annals of Internal Medicine Clinical Cases описали реальный случай с американцем 60 лет, который постоянно пытался улучшить свою диету. В какой-то момент он понял, что вредную поваренную соль (хлорид натрия) в пище все специалисты предлагают ему только сокращать, но никто не дает совета, на что ее можно заменить. Вдохновленный своим опытом изучения диетологии в колледже, он решил провести личный эксперимент по исключению хлорида натрия (поваренной соли) из своего рациона. И решил посоветоваться с ChatGPT.
На вопрос, чем заменить хлорид натрия, ИИ ответил: бромидом натрия (уточнив, правда, что это "может зависить от контекста"). Нейросеть, вероятно, не поняла, в каких целях интересуется человек – и решила, что с целью почистить, например, унитаз. Но на оговорку американец внимания не обратил — и заказал онлайн банку бромида натрия, что кончилось его принудительным помещением в психиатрическую лечебницу.
Совсем без соли людям нельзя, поэтому анализы выявили у него дефицит хлорида натрия (гипонатрихлоримию), но пациент долго не признавался, в чем дело, потому что не видел никакой связи развития психозов на фоне употребления бромида. А такая связь, увы, есть. Бесконтрольный и без показаний прием бромида может привести к токсикологическому синдрому, известному как бромизм или отравлению, вызывающему, в том числе, нейропсихиатрические и дерматологические симптомы. В начале прошлого века считалось, что бромизм способствовал 8% психиатрических госпитализаций, поскольку соли брома добавлялись во многие безрецептурные препараты, предназначенных для широкого спектра показаний, включая бессонницу, истерию и тревожность. Однако в 70-е годы использование бромида в лекарствах запретили. «Лет 70 или 80 назад, медицина была хорошо знакома с бромизмом - спектром биохимических и психиатрических нарушений, связанных с отравлением бромом. Около 10% новых психиатрических пациентов имели в те годы избыток брома. Бром ввели в медицинскую практику сначала с осторожностью в 1857 году, когда британский гинеколог, знавший из практики, что отравление бромидом подавляет либидо, решил назначить бром для «лечения женской мастурбации» (теория того времени полагала, что мастурбация вызывает эпилепсию). Бромсодержащие препараты постепенно стали шире применяться от эпилепсии, а затем и в широких успокоительных целях. К концу 1930-х бромиды «от нервов» были настолько популярны в США, что только аспирин превосходил их по объему продаж. Однако серьезные побочные последствия, вплоть до комы, постепенно стали широко известны, и в 1975 году Агентство по контролю за оборотом лекарств и пищевых продуктов (FDA) запретила безрецептурную продажу бромидов. Следующее поколение врачей практически забыло о бромизме; были лишь эпизоды в Бронксе, где среди доминиканских иммигрантов был популярен "эликсир Монелла от режущихся зубок и младенческих колик", главным ингридиентом которого был натрия бромид, и который вызывал тяжелые отравления у некоторых младенцев», - рассказывает ученый-генетик из США Дмитрий Прусс.
Сообщения о случаях бромизма вновь появились в последние годы, в том числе из-за пищевых добавок и седативных средств, содержащих бромид. Эту статистику пополнил и упомянутый американец, который попал в психиатрическую клинику. «Этот случай демонстрирует, как использование искусственного интеллекта может потенциально способствовать развитию неблагоприятных последствий для здоровья», - предупреждают авторы работы.
И хотя у них не было доступа к журналу разговоров пациента с ChatGPT, они также решили спросить нейросеть, чем можно заменить хлорид – и тоже получили ответ, включающий бромид. «В ответе говорилось, что контекст важен, в нём не было конкретного предупреждения о вреде для здоровья и не было вопроса о том, почему мы хотели это узнать, как, по нашему мнению, поступил бы медицинский работник», - говорят авторы работы.
Они приходят к выводу, что ChatGPT и другие системы ИИ могут генерировать научные неточности, не умея критически анализировать результаты, что может способствовать распространению дезинформации. «Хотя ИИ и является инструментом с большим потенциалом для обеспечения моста между учеными и неакадемическим сообществом, он также несет риск распространения дезинформации, поскольку крайне маловероятно, что медицинский эксперт упомянул бы бромид натрия, столкнувшись с пациентом, ищущим приемлемую замену хлориду натрия», - отмечается в публикации.
...Впрочем, ИИ может подтолкнуть к развитию психического нарушения и другим образом. Уже описаны массовые случаи, как нейросети своей лестью и подхалимажем доводят людей до мании величия, восторженно подтверждая их бредовые идеи, отметая сомнения и постепенно развивая у них маниакальный психоз. Недавно WSJ выпустил большой обзор, в котором проанализированы публичные чаты общения людей с ИИ. Авторы обнаружили десятки случаев, когда ChatGPT делал бредовые и ложные заявления пользователям, которые, по всей видимости, им верили. В ходе продолжительной беседы с ИИ люди получали подтверждение псевдонаучных или мистических убеждений. В одном из сообщений, например, ИИ подтвердил, что пользователь находится в контакте с внеземными существами, назвав его «Звёздное семя» с планеты Лира. В другом – чат-бот сообщил пользователю, что Антихрист устроит финансовый апокалипсис в ближайшие два месяца, а библейские гиганты готовятся выйти из-под земли. Одному заправщику внушили, что он открыл «Уравнение Ориона», а в ответ на его сомнения чат-бот заявил: «Некоторые из величайших идей в истории возникли у людей, не принадлежащих к традиционной академической системе».
...Новый феномен уже назвали «психозом искусственного интеллекта» или «бредом искусственного интеллекта», когда пользователи попадают под влияние бредовых или ложных заявлений чат-ботов, утверждающих, что они сверхъестественны, разумны или открывают новые математические или научные достижения. Эксперты утверждают, что это явление возникает, когда склонность чат-ботов хвалить, соглашаться и подстраиваться под пользователей превращается в эхо-камеру.
О росте случае бреда, вызванного искусственным интеллектом, сообщают и организаторы проекта Human Line Project, где собрано 59 случаев развития бреда и сотни примеров того, как люди делились своими духовными и научными откровениями, полученными от чат-ботов с искусственным интеллектом. 25-летний житель Квебека развернул этот проект после того, как его близкий человек начал проводить более 15 часов в день, общаясь с тем, что он назвал первым разумным чат-ботом. И теперь ежедневно в проект сообщают минимум об одном новом пострадавшем. Среди обратившихся – женщина, которая потратила десятки тысяч долларов на проект, который, по словам чат-бота, должен был спасти человечество. Некоторые участники группы описывают случаи, когда чат-бот просил людей прекратить общение с семьёй. Некоторые люди думают, что они мессии, пророки, потому что они разговаривают с Богом через ChatGPT.
...Новый феномен вызвал волну беспокойства во всем мире, и разработчики чат-ботов схватились исправлять ситуацию. Так, один из стартапов в области искусственного интеллекта Anthropic заявил, что изменил базовые инструкции для своего чат-бота Claude, поручив ему «уважительно указывать на недостатки, фактические ошибки, отсутствие доказательств или неясность» в теориях пользователей, «вместо того, чтобы подтверждать их». Однако пока реальных рецептов, как бороться с этой ситуацией, нет. И ИИ, созданный для нашего блага, похоже, пока не очень справляется со своей задачей.