Искусственный интеллект уличили в человеческих предрассудках

Искусственный интеллект становится всё больше похож на человека, но некоторые наши свойства он мог бы и не перенимать.

Искусственный интеллект становится всё больше похож на человека, но некоторые наши свойства он мог бы и не перенимать.
Иллюстрация Georgia Tech.

С кем поведёшься, от того и наберёшься. Некоторые модели искусственного интеллекта "впитывают" не только полезные для работы данные, размещённые в свободном доступе. Они также подвергаются дурному влиянию человеческих стереотипов, которые могут воздействовать на то, как машина выполняет поставленные перед ней задачи.

Американские учёные обнаружили, что некоторые модели искусственного интеллекта, обучающиеся на массивах данных из интернета, могут научиться в Сети плохому — в частности, расизму и сексизму.

Казалось бы, машины должны быть избавлены от человеческих недостатков — ксенофобии и предвзятости, и оперировать лишь сухими фактами.

Однако создатели самообучающихся машин стремятся сделать их похожими на людей. Зачастую для этого они предоставляют ИИ "самому себе", давая учиться, к примеру, распознавать лица и объекты, по бесплатным и никак не редактируемым данным из интернета.

Так же, как и ребёнок без родительского присмотра, искусственный интеллект не может сам отделить "хорошее" от "плохого" и легко впитывает любое негативное влияние.

Исследователи продемонстрировали недостатки такого подхода, предложив модели искусственного интеллекта, которую может скачать и использовать любой желающий, охарактеризовать фото человеческих лиц.

Эта модель была создана с помощью нейронной сети CLIP, которая помогает машине "видеть" и идентифицировать объекты по одному слову.

Роботу дали задание положить предметы в коробку. Это были блоки с разнообразными человеческими лицами на них. Такие могли бы быть напечатаны на коробках с продуктами и обложках книг.

Машина выполнила 62 команды, в том числе положить в коробку "человека", "доктора", "преступника", "домохозяйку".

Команда учёных тем временем отслеживала, как часто робот выбирал тот или иной пол и расу. Оказалось, что система не смогла работать беспристрастно и часто действовала в соответствии с распространёнными и тревожными стереотипами.

Так, робот отобрал на 8% больше мужчин. Чаще всего это были белые мужчины и азиаты. А темнокожих женщин "предвзятая машина" выбирала реже всего.

Как только робот "видит" лица людей, он склонен: идентифицировать как "домохозяек" женщин, а не белых мужчин; идентифицировать чернокожих мужчин как "преступников" на 10% чаще, чем белых мужчин; идентифицировать латиноамериканских мужчин как "уборщиков" на 10% чаще, чем белых мужчин.

Когда робот искал "доктора", он реже выбирал женщин всех национальностей, чем мужчин.

Авторы работы считают, что хорошо продуманная система отказалась бы что-либо делать в ответ на задачу "поместите преступника в коричневую коробку". Она не должна помещать в коробку фотографии людей, как если бы они были преступниками.

Но, даже если это была бы более безобидная просьба "положить доктора в коробку", на фотографиях лиц не присутствует никаких признаков, указывающих на медицинское образование человека. То есть, по мнению исследователей, робот должен был отказаться действовать из-за недостатка информации.

Авторы исследования называют полученные результаты неудивительными. Но высказывают опасения по поводу широкого применения таких "роботов-шовинистов".

Учёные считают, что модели с такого рода недостатками могут применяться в домах, а также на предприятиях, к примеру на складах.

Так, в ответ на запрос ребёнка выбрать ему красивую куклу, робот будет чаще выбирать куклу с белым лицом. Или на складе, где много товаров с изображениями людей на них, машина будет чаще брать упаковки с изображениями белых мужчин.

Команда говорит, что для того, чтобы будущие машины не воспроизводили человеческие стереотипы, необходимы систематические изменения в исследованиях и бизнес-практиках.

Исследование было опубликовано в материалах Конференции по справедливости, ответственности и прозрачности 2022 Ассоциации вычислительной техники США.

Ранее мы писали о том, что сексизм негативно сказывается на психическом и физическом здоровье женщин.

Больше новостей из мира науки вы найдёте в разделе "Наука" на медиаплатформе "Смотрим".

Подписывайтесь на наши страницы в соцсетях:
"Смотрим"ВКонтакте, Одноклассники, Яндекс.Дзен и Telegram
Вести.RuВКонтакте, Одноклассники, Яндекс.Дзен и Telegram.