Крупные чат-боты, основанные на искусственном интеллекте (ИИ), стали все чаще давать неверные ответы на сложные вопросы. Исследование, опубликованное в журнале Nature, показало, что эти модели фактически отказались отвечать на такие вопросы с формулировкой «я не знаю», но теперь часто производят больше ошибок.
Автор исследования Хосе Эрнандес-Оралло из Валенсийского исследовательского института искусственного интеллекта в Испании провел тестирование трех крупнейших чат-ботов на основе передовых ИИ-моделей. В число этих моделей входят GPT OpenAI, BLOOM и модель, созданная академической группой BigScience. Исследователи задавали сложные вопросы и заставляли ИИ решать математические задачи.
Результаты показали, что модели значительно улучшили свои способности по сравнению с предшественниками, однако теперь они предпочитают делать неправильные ответы вместо того, чтобы признать свою неведомость. Более того, было обнаружено, что все модели иногда предоставляют неверные ответы даже на простые вопросы.
«Люди не могут контролировать эти модели», — заявил Эрнандес-Оралло.
Исследователи призвали разработчиков моделей обеспечить возможность для чат-ботов пропускать вопросы, ответы на которые они не знают. В противном случае ИИ может вводить пользователей в заблуждение и привести к ошибкам.
Этот вывод подтверждается и другими исследованиями. Так, недавно фирма AMCI Testing выяснила, что новая версия автопилота Tesla склонна к рискованным действиям. Например, тестовый образец проехал на красный сигнал светофора, что могло привести к ДТП.
Таким образом, эти результаты подчеркивают необходимость тщательной оценки и регулирования использования ИИ в различных областях, чтобы обеспечить безопасность и точность взаимодействий между человеком и искусственным интеллектом.