На Западе призвали прекратить использовать ИИ как замену Google
Полагаясь на инструменты генеративного ИИ, такие как ChatGPT и Google Gemini, в поисках исторической или фактической информации можно допустить существенные ошибки, считает обозреватель The Verge.
Недавние примеры показывают, что ИИ уверенно представляет ложные утверждения, например, такие утверждения, как помилование президентом Вудро Вильсоном вымышленного родственника по имени Хантер де Баттс или помилование Джорджем Бушем-старшим своего сына Нила, полностью сфабрикованы.
Этот вопрос привлек внимание, когда комментаторы приводили «факты», полученные с помощью ИИ, во время обсуждения недавнего помилования Хантера Байдена. Несмотря на авторитетный тон инструментов, им не хватает надежных источников. Проверка фактов часто выявляет галлюцинации ИИ, что требует дополнительной работы по проверке утверждений, считает эксперт.
В отличие от традиционных поисковых систем, «системы ответов» на основе ИИ редко ссылаются на первоисточники, что затрудняет выявление ошибок. Критики утверждают, что такие инструменты «ухудшают информационную среду».
Пока эти проблемы не будут решены, необходимо проявлять осторожность при использовании ИИ для «фактологических запросов».