Нейросети могут распространять негативные стереотипы
Искусственный интеллект может распространять предубеждения и стереотипы. Ученые выяснили, что от этого могут страдать маргинализированные группы — женщины, дети, беженцы, коренные народы, люди с ограниченными возможностями, чернокожие и многие другие. Работа опубликована в журнале Science.
В последнее время генеративные модели искусственного интеллекта становятся частью нашей жизни. Люди используют Chat GPT, Google Bard и Midjourney как в профессиональных, так и в личных целях. Эти и многие другие модели стремительно развиваются, и ученые пытаются понять, как искусственный интеллект влияет на людей.
Специалисты из Школы компьютерных наук и статистики Тринити выяснили, что использование искусственного интеллекта формирует предубеждения и негативные стереотипы у пользователей. И люди, и нейросети используют Интернет для того, чтобы собирать информацию и генерировать новый контент. Из-за этого стереотипы, предубеждения, ложные данные могут повторяться и приниматься за правду снова и снова. Ученых беспокоит, что особенно сильно созданная информация затрагивает маргинализированные группы.
Когда человек не уверен в правдивости того, что он говорит, он сигнализирует об этом: использует такие фразы как «я думаю», задерживается с ответом во время размышлений, исправляет себя или неуверенно бормочет. А вот генеративные модели дают уверенные, беглые ответы. В результате, говорят ученые, это может привести к искажению того, как понимает данную ИИ информацию человек. В конце концов люди будут воспринимать ответы нейросети как фактически точные. Кроме того, отмечают исследователи, эта проблема «недопонимания» может усугубиться тем, что компании, разрабатывающие такие модели, делают их очень антропоморфными: они кажутся нам разумными и чуткими, им хочется доверять.
Например, статистические закономерности говорят о том, что чернокожие ответчики в суде менее благонадежны. Механизм машинного обучения будет сообщать о том, что чернокожие люди с большей вероятностью совершат повторное преступление. Из-за этого практика вынесения приговоров у судей, которые ознакомились с данной моделью искусственного интеллекта, может измениться, дискриминируя чернокожих.
Особенную озабоченность у ученых вызывает тот факт, что избавиться от предубеждений или сфабрикованной информации после того, как она стала приемлемой для человека, трудно. Особенно велик риск для детей — ученые заявили, что они с большей вероятностью антропоморфизируют технологии и легче поддаются их влиянию.
«Исследования и последующие вмешательства будут наиболее эффективно сосредоточены на воздействии на маргинализированные группы населения, на которые непропорционально сильно влияют как вымыслы, так и негативные стереотипы в результатах моделирования. Кроме того, необходимы ресурсы для обучения общественности, политиков и междисциплинарных ученых, чтобы дать реалистичные представления о том, как работают генеративные модели ИИ, и исправить существующую дезинформацию и шумиху вокруг этих новых технологий», — отметил профессор Абеба Бирхане из Школы компьютерных наук и статистики Тринити.
Ученые призывают психологов и экспертов по машинному обучению объединить свои усилия для анализа воздействия ИИ на восприятие человека.