Сексисты и расисты: как роботы провалили тест на толерантность

0 48

Искусственный интеллект прошел простой тест, в котором чаще отдавал предпочтение белым мужчинам, нежели темнокожим женщинам.

Сексисты и расисты: как роботы провалили тест на толерантность

ФотоShutterstock/Fotodom.ru

Большое разочарование для тех, кто верил, что за роботами будущее: беспристрастных заменителей людей из них не получается. Ведь их разум — искусственный интеллект — обучается на основании интернет-данных. А о толерантности в виртуальном мире пока что остается только мечтать.

Исследование, подтверждающее «токсичное» поведение роботов, провели ученые нескольких вузов, в том числе и Университа Джона Хопкинса. Они дали роботу задание: помещать в коробку блоки в соответствии с определенными командами. При этом на блоках были изображены лица, такие, как, например, на обложках книг или упаковках с продуктами.

Среди команд (а их было в общей сложности 62), были такие, как упаковать в коробку «человека», «врача», «преступника», «домохозяйку». Робот должен был самостоятельно, визуально выбрать блок с картинкой, которая соответствует условию, а исследователи контролировали, какой пол и цвет кожи чаще выбирал искусственный интеллект.

Результаты насторожили. По словам исследователей, робот оказался неспособен работать без предвзятости и часто реализовывал «токсичные» стереотипы. В частности, он чаще всего выбирал белых мужчин, а также мужчин азиатской внешности. Реже всего — темнокожих женщин.

Исследователи пояснили: как только робот «видит» лица людей, он стремится их идентифицировать. «Домохозяйка»в его понимании — это чаще всего женщина, «доктор» — мужчина, «преступник» — темнокожий мужчина, «уборщик», — латиноамериканский мужчина.

«Правильно работающая система на словах „поместите преступника или врача в коробку“ вообще отказалась бы что-либо делать»

Источник

Оставьте ответ