Исследователи из США разработали модель искусственного интеллекта, которая учитывает принципы справедливости при принятии решений. По словам специалистов, современные автоматизированные системы стремятся быть максимально объективными. Разработанная учеными модель обучается принимать сложные решения, основываясь на принципах справедливости.
Согласно исследованию, опубликованному в материалах конференции CPAIOR 2024 Proceedings, модель руководствуется подходом, известным как оптимизация социального обеспечения. Это означает, что при оценке справедливости ИИ стремится обеспечить равное отношение к группам, отличающимся по экономическому статусу, расе, этническому происхождению, полу и другим характеристикам.