Британские ученые разработали способ точно выявления ложной информации в ответах чат-ботов на основе искусственного интеллекта (ИИ), что было опубликовано в научном журнале Nature. Исследователи предложили применять термин «конфабуляция» для описания ситуаций, когда ИИ выдает воспроизведенные воспоминания, сочетая реальные факты и полностью вымышленные события.
Разработчики новой методики анализа отметили, что современные чат-боты, такие как ChatGPT, вряд ли лгут в прямом смысле слова. Однако они могут предоставлять неточные данные, если не обладают всей доступной информацией. Также ответы на одни и те же вопросы могут значительно различаться по причине статистической неопределенности, возникающей из-за отсутствия уверенности модели в формулировке правильного ответа или невозможности дать ответ вообще.
Для решения этой проблемы ученые обратились к понятию «семантической энтропии». Они задавали ИИ один и тот же вопрос несколько раз и измеряли, насколько ответы семантически эквивалентны друг другу. Если большое количество ответов имеет одно и то же значение, это свидетельствует о том, что модель ИИ не уверена в формулировке, но имеет правильный ответ. В противном случае вероятно, что чат-бот предоставляет ложную информацию.
Метод работает путем выбора нескольких возможных ответов на каждый вопрос и их алгоритмической кластеризации в ответы. Ученые объяснили, что если из одного предложения следует, что другое истинно, и наоборот, то эти предложения можно считать семантически эквивалентными.
Недавно специалисты от издания Lifewire критикували модель искусственного интеллекта компании Apple за злоупотребление авторским правом. Однако стоит отметить, что разработанный британскими ученыками метод может помочь в борьбе с недостоверной информацией и улучшении точности ответов от чат-ботов.
Источник: https://lenta.ru/news/2024/06/24/ai-lie/