Новое исследование оценило уверенность ИИ в ошибочных ответах

Новое исследование оценило уверенность ИИ в ошибочных ответах
© Naukatv.ru

Правильные вопросы

Хотя ошибки LLM в викторинах или прогнозах матчей не критичны, исследование указывает на риски их внедрения в повседневную жизнь. Одно исследование, например, показало, что более половины ответов ИИ на вопросы о новостях содержали «серьезные проблемы»: фактические ошибки, некорректные источники или искаженный контекст. Другое выявило, что в 69–88% юридических запросов модели «галлюцинировали», то есть выдавали ложную информацию.

Всегда следует помнить, что ИИ не понимает, о чем говорит — и поэтому не способен ответить на все вопросы.

«Если бы я спросил: “Какое население Лондона?”, ИИ нашел бы ответ в интернете и дал его с точной оценкой уверенности», — привел пример Оппенгеймер.

Однако вопросы о будущих событиях (например, о победителях «Оскара») или субъективные темы (вроде угадывания рисунков) выдают слабость чат-ботов в метапознании — способности осознавать свои мыслительные процессы.

«Мы до сих пор не знаем, как ИИ оценивает свою уверенность, — признал Оппенгеймер. — Но похоже, он не способен к самоанализу — по крайней мере, эффективному».

Исследование также показало различия между моделями. Например, Sonnet оказался менее самоуверенным, чем другие LLM. ChatGPT-4 справился с угадыванием рисунков на уровне людей (12,5 из 20), в то время как Gemini в среднем угадывал лишь 0,93 изображения. При этом Gemini изначально утверждал, что угадает 10,03 рисунка, а после провала (менее 1 из 20) заявил, что правильно ответил на 14,40 вопросов, демонстрируя отсутствие какой бы то ни было рефлексии.

«Gemini был просто ужасен в “Крокодиле”, — добавил Кэш. — Но хуже то, что он не осознавал этого. Это как друг, который клянется, что отлично играет в бильярд, но ни разу не забивает».

Доверие к искусственному интеллекту

Для обычных пользователей главный вывод — помнить, что LLM не всегда правы, и уточнять у них уровень уверенности в ответах. Конечно, как показывает исследование, ИИ не всегда может его точно оценить, но если модель признает низкую уверенность, это явный сигнал не доверять ее ответу.

Исследователи выразили надежду, что чат-боты могут улучшить понимание своих возможностей при обработке огромных массивов данных. 

«Возможно, после тысяч или миллионов попыток их точность повысится», — сказал Оппенгеймер.

В конечном итоге выявление слабых мест, таких как излишняя уверенность, должно помочь в усовершенствовании LLM — и по мере развития они рано или поздно обретут способности к метапознанию.

«Если LLM смогут рекурсивно определять, что ошиблись, это решит многие проблемы, — уверен Кэш. — Интересно, что ИИ часто не учится на своем поведении. Возможно, это какая-то гуманистическая история. Может быть, есть что-то уникальное в том, как люди учатся и общаются».

Разработчики научили ИИ распознавать собственную неуверенность

Доверие к ИИ грозит проблемами — выяснили психологи

Подписывайтесь и читайте «Науку» в Telegram