Ученые США разработали модель искусственного интеллекта (ИИ), которая принимает решения, основываясь на принципе справедливости. Исследование было представлено в материалах конференции CPAIOR 2024 Proceedings.
Специалисты из Университета Карнеги — Меллона и Технологического института Стивенса заявляют, что современные автоматизированные системы были разработаны с целью максимальной объективности при принятии решений. Они создали модель, которая способна принимать сложные решения, опираясь на идеалы справедливости.
Как отмечается в научном материале, модель руководствуется традицией оптимизации социального обеспечения. Это означает, что ИИ учитывает как пользу, так и вред для конкретных лиц. При оценке справедливости система стремится к равному отношению к различным группам населения, определяющимся по экономическому уровню, расе, этнической принадлежности, полу и другим категориям.
Профессор Джон Хукер пояснил: «При принятии решений об одобрении ипотечного кредита ИИ не только анализирует кредитную историю и платежеспособность граждан, но и оценивает потенциальное влияние отказа на их жизнь. Система также учитывает контекст: например, понимает, что отказ в одобрении кредита может повлиять по-разному на богатых и бедных людей».
Американские ученые подчеркнули, что главная цель их исследования — найти баланс между справедливостью и максимальной выгодой для всех. Они утверждают, что технологии должны способствовать равенству между различными социальными группами.
Связь между обостренным чувством справедливости и состоянием микробиоты кишечника была изучена учеными Парижского института мозга и Боннского университета в конце мая. Они обнаружили, что состояние микробиоты влияет на это чувство.
Источник: https://lenta.ru/news/2024/06/20/fair/