Нейросети уличили в распространении негативных стереотипов о людях

. Иногда ИИ может безоговорочно выдавать за истину сомнительную информацию

Science: нейросети могут распространять негативные стереотипы о людях

Обновлено 26 июня 2023, 11:47
Shutterstock
Фото: Shutterstock

Нейросети могут распространять предубеждения и стереотипы про разные группы людей — женщин, детей, беженцев, коренные народы, людей с ограниченными возможностями и других. Данные недавнего исследования опубликованы в научном журнале Science.

Авторами стали доцент кафедры психологии Калифорнийского университета в Беркли Селеста Кидд и специалист по когнитивному поведению из Школы компьютерных наук и статистики Тринити-колледжа в Дублине Абеба Бирхане.

В исследовании отмечается, что основной источник, на котором обучаются генеративные модели искусственного интеллекта, — это информация из интернета.

При этом если человек, будучи не уверен в правдивости своих слов, добавляет вербальные сигналы об этом: например, фразы из серии «я думаю», паузы в разговоре, какие-либо пояснения, то алгоритмы искусственного интеллекта, которые учатся генерировать новый контент, дают уверенные и беглые ответы.

Shutterstock
Фото: Shutterstock

«Пользователи генеративных моделей ИИ запрашивают информацию в определенные моменты — когда они неуверенны и, следовательно, наиболее открыты для изучения чего-то нового. Как только человек получил ответ, его неуверенность снижается, его любопытство уменьшается и он не рассматривает и не взвешивает последующие доказательства так же, как на ранних стадиях принятия решения».

Таким образом, люди могут воспринимать ответы нейросети как достоверные. В итоге человек может укрепиться в каком-то ошибочном суждении, как и большая часть группы людей, которые пользуются одной и той же системой получения информации. И подобные утверждения начнут «бесконечно» передаваться уже в самом социуме, и исправить это постфактум «будет нелегко как на уровне отдельных лиц, так и на уровне населения», отметили ученые.

Авторы привели такие данные: статистические закономерности говорят о том, что чернокожие ответчики в суде менее благонадежны. Механизм машинного обучения будет сообщать о том, что афроамериканцы с большей вероятностью совершат повторное преступление. Из-за этого практика вынесения приговоров у судей, которые ознакомились с данной моделью искусственного интеллекта, может измениться, предупреждают ученые.

Shutterstock
Фото: Shutterstock

Сильнее всего эти предубеждения окажут влияние на умы несовершеннолетних, считают исследователи. По их мнению, одновременно с развитием нейросетей надо учить людей отличать фактические возможности новых технологий от воображаемых.

Ранее стало известно, что искусственный интеллект научился распознавать будущие музыкальные хиты с точностью 97%. Доказывающий это эксперимент провели ученые Клермонтского университета в США с участием 33 добровольцев. Их усадили в лаборатории, надели на них специальные датчики и предложили послушать различные песни, часть из которых были признанными стримингами новыми хитами, вышедшими недавно, а часть провалились в ротации музыкальных сервисов. Оказалось, что, изучив нейронную активность 33 человек, ИИ смог определить перечень прослушанных ими хитов.

Поделиться