Группа экспертов по искусственному интеллекту, включая ученых из Института искусственного интеллекта имени Пола Аллена и Стэнфордского университета, обнаружила скрытую дискриминацию моделей LLM в отношении людей, использующих афроамериканский вариант английского (AAE). Статья Су Линь Блоджетт из Microsoft Research и Зирака Талата из Университета искусственного интеллекта имени Мохамеда бин Заида описывает результаты исследований.
Хотя разработчики LLM, такие, как ChatGPT, внедрили фильтры против расистских ответов, тонкий расизм все еще присутствует. Он проявляется через негативные стереотипы, например, описания афроамериканцев как «ленивых» или «грязных», тогда как белых людей характеризуют как «амбициозных» и «дружелюбных». Исследователи протестировали LLM на пяти распространенных вопросах, написанных на AAE и стандартном английском, и нашли, что модели использовали негативные прилагательные в ответах на AAE. Исследование опубликовано в журнале Nature.
В то же время положительные прилагательные использовались для стандартного английского. Группа подчеркнула необходимость усилий по устранению расистских тенденций, учитывая важность применения LLM в таких областях, как отбор кандидатов и взаимодействие с полицией.