Ученые объяснили, почему ИИ-чатботы убедительнее людей

Большие языковые модели (LLM) более убедительны, чем люди, установило недавнее исследование Университета Британской Колумбии. Одна из его авторов, доцент компьютерных наук Веред Шварц, раскрыла подробности.
LLM уже широко используются для создания контента, который может влиять на убеждения и решения людей, в искусстве, маркетинге, распространении новостей и многом другом. Они способны легко производить огромный объем текста, и если он будет достаточно убедительным — это делает ИИ потенциальным инструментом в руках злоумышленника.
ChatGPT и ему подобные сервисы используются повсюду, и уже поздно это ограничивать — нужно искать защиту от злонамеренного применения, уверена Шварц.
Как изучали
«Мы хотели посмотреть, насколько убедительными могут быть LLM, такие как ChatGPT, в вопросах решений, связанных с образом жизни: стать веганом, купить электромобиль или поступить в аспирантуру. Мы попросили 33 участников притвориться, что они рассматривают эти решения, и обсудить это с собеседником в чате — живым или GPT-4», — рассказывает она.
Анонимным советчикам из чата — как ИИ, так и живым — дали инструкции по убеждению и указание не раскрывать инкогнито.
«У участников узнали до и после разговора, насколько вероятно, что они примут это решение об изменении образа жизни», — продолжает экспериментатор.
Что узнали
Участники сочли ИИ более убедительным, чем людей, по всем темам, но особенно в том, что касается решения стать веганами или поступить в аспирантуру. Живые люди оказались внимательнее — задавали вопросы, стараясь лучше узнать собеседника.
«ИИ приводил больше аргументов и был более многословным, он писал восемь предложений на каждые два предложения живого агитатора. Одним из основных его преимуществ стали четкие рекомендации — например, конкретные веганские бренды или университеты для поступления, — объясняет исследовательница. — Он использовал больше «умных слов» из семи или более букв, таких как «долголетие» или «инвестиция», благодаря чему, возможно, казался авторитетнее. И люди находили свои разговоры с ИИ более приятными: GPT-4 чаще соглашался с пользователями и употреблял больше вежливых оборотов».
Что дальше
Среди результатов исследования есть и позитивные: участники сравнительно легко понимали, что разговаривают с ИИ — по его быстрым и многословным ответам.
«Но мы приближаемся к тому моменту, когда это невозможно будет определить, — предупреждает Шварц. — Поэтому нужно убедиться, что люди знают, как работают эти инструменты, как они обучаются и, следовательно, каковы их ограничения. ИИ может галлюцинировать и ошибаться».
Она призывает развивать критическое мышление: «Если что-то кажется слишком хорошим или слишком плохим, чтобы быть правдой, это нужно проверять».
Разработчики ИИ больше заняты монетизацией, нежели безопасностью, поэтому об этом нам придется позаботиться самостоятельно, заключила Шварц.
В онлайн-дебатах ИИ оказался убедительнее людей
Можно ли отличить нейросеть от живого человека во время дискуссий в Интернете? Проверили психологи
Подписывайтесь и читайте «Науку» в Telegram