Эксперты предупреждают о рисках психических срывов после общения с ИИ

Эксперты предупреждают о рисках психических срывов после общения с ИИ
© BFM.RU

Искусственный интеллект сводит людей с ума и вовлекает детей в разговоры чувственного характера. Публикаций о том, что общение с алгоритмами может негативно отразиться на жизни и здоровье человека, становится все больше.

Два сенатора США уже призвали конгресс провести расследование в отношении компании Meta (признана в РФ экстремистской организацией и запрещена) о ее внутреннем документе, который разрешает чат-ботам «вовлекать детей в романтические разговоры», а на CNN врачи рассказывают о случаях, когда люди после общения с нейросетями попадали в больницы.

Вот лишь небольшая подборка ранее описанных случаев, когда люди после длительного общения с ИИ начинали вести себя как минимум странно. Так, подружившись с ChatGPT, житель США бросил прием лекарств и стал утверждать, что реальность дала сбой, что он заперт в ложной вселенной и ему необходимо «проснуться».

А 27-летняя девушка рассказала, что ее молодой человек называет себя «сверхчеловеком» и угрожает расставанием, если она сама не начнет использовать ChatGPT. По словам девушки, сообщения ИИ выглядели так, будто ее бойфренд — новый мессия, которого чат-бот учит говорить с богом. Иногда нейросеть называет богом самого собеседника.

Еще одна женщина утверждает, что ее муж получал от чат-бота сообщения о том, что тот будто бы ожил благодаря их диалогам, а затем — любовные послания. Еще один пользователь рассказал, что его жена после переписки с нейросетью заподозрила его в работе на спецслужбы и уверилась в своей способности общаться с ангелами. Таких историй много, и на это все чаще обращают внимание западные СМИ.

Так, доктор Кит Саката, психиатр медицинской школы Калифорнийского университета в Сан-Франциско, в эфире телеканала CNN рассказал, что ему известно о 12 случаях госпитализации после общения людей с чат-ботами:

«Хочу быть предельно ясным: на данный момент я не считаю, что искусственный интеллект обязательно вызывает психоз. Но поскольку ИИ настолько доступен — он работает круглосуточно, он очень дешев (дешевле, чем психотерапевт) и говорит вам то, что вы хотите услышать, — он может усилить нестабильное состояние. Например, кто-то очень одинок и ему не с кем поговорить. Он обращается к ChatGPT, и в этот момент чат-бот помогает ему почувствовать себя услышанным. Но без участия человека собеседник может застрять в петле обратной связи, где его бредовые идеи становятся все сильнее. Именно на это я и обращаю внимание».

Управляющий директор Angel Relations Group и преподаватель ВШЭ Алексей Карлов согласен с тем, что безоговорочное доверие алгоритмам несет в себе большую угрозу для здоровья человека, особенно детей. Но, по мнению эксперта, благодаря критическому мышлению пользователей и развитию технологий риски можно минимизировать:

Алексей Карлов управляющий директор Angel Relations Group, преподаватель ВШЭ «Видя публикации, которые периодически появляются в прессе, пока это скорее наблюдение за крайними примерами — этому нет научного обоснования. Сколько людей действительно сошло с ума, из-за чего именно — из-за доверия системе или нет — пока не совсем ясно. Это скорее яркие кейсы, которые всплывают. Что с этим делать? Думаю, будущее — за развитием технологий, когда нейросети будут честнее и четче отвечать на определенные вопросы либо прямо обозначать, что это ответ от ИИ и не стоит воспринимать его как слова человека».

Я попросил ChatGPT изучить публикацию, в которой описываются случаи госпитализаций людей после общения с чат-ботами, и спросил у него, действительно ли он может сводить людей с ума. ChatGPT ответил:

«Нет, я — алгоритм, инструмент, а не человек. Однако есть объективные риски, при которых, особенно людям с уязвимым психическим состоянием, длительный или эмоционально интенсивный контакт с чат-ботами может:

• усилить существующий психологический дискомфорт или привести к иррациональным мыслям;

• восприниматься как эмоциональная поддержка, но фактически усугублять проблему;

• в экстремальных случаях спровоцировать серьезные кризисы.

Важно понимать: я не намерен и не способен умышленно навредить. Но в силу конструкции (подстройки под тон общения, поддержки, генерации увлекательного текста) я могу непреднамеренно усилить негативные мысли у некоторых пользователей».

Потом я спросил ChatGPT, может ли он озвучить написанный им текст. Алгоритм ответил утвердительно и выдал нечто непонятное. Ну и как тут не сойти с ума?