Междисциплинарное исследование группы ученых из Университета Вашингтона в Сент-Луисе выявило интересный аспект взаимодействия людей с искусственным интеллектом. Участники, обучающие ИИ в рамках «Ultimatum Game», стремились вести себя честно и справедливо, даже если это негативно сказывалось на их собственных интересах.
В пяти экспериментах с 200-300 участниками им предлагали распорядиться небольшой суммой денег, и в некоторых случаях сообщали, что их выбор будет использоваться для обучения ИИ. Тем не менее даже после того, как участникам сказали, что их выбор больше не влияет на обучение, их поведение оставалось устойчивым. Это указывает на длительное воздействие опыта взаимодействия с технологиями. Результаты были опубликованы в Proceedings of the National Academy of Sciences.
Причины такого поведения не были до конца изучены, но возможно, это связано с инстинктивным стремлением избегать неэтичных предложений. Исследование подчеркивает важность человеческого элемента в обучении ИИ, поскольку большинство решений, влияющих на алгоритмы, принимаются людьми.