Крупные чат-боты на основе искусственного интеллекта стали чаще ошибаться и давать неверные ответы на сложные вопросы.
Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании протестировал работу трех ведущих языковых моделей ИИ. Результаты его работы были опубликованы журнале Nature.
В результате исследования ученый обнаружил, что боты стали значительно умнее, но при этом потеряли способность признавать собственное незнание.
Вместо того чтобы честно отвечать «я не знаю», чат-боты теперь склонны давать ошибочные ответы. Ученый предполагает, что это связано с установкой их создателей на то, чтобы модели всегда отвечали на вопросы «любой ценой». Более того, исследователи выявили, что ИИ-ассистенты иногда ошибаются даже на простых вопросах.
Автор исследования считает, что производителям подобных моделей необходимо настроить их на возможность пропуска вопросов, ответы на которые им неизвестны. В противном случае, ошибочная информация может вводить пользователей в заблуждение.