В мире

Искусственный интеллект оказался склонен к расизму и сексизму

К такому выводу пришли учёные после простого исследования.

Искусственный интеллект оказался склонен к расизму и сексизму
Фото:
pixabay.com.

Американские учёные предупредили, что мы стоим на пороге появления первого поколения роботов-сексистов и расистов.



Как пишет
Daily Mail, к такому выводу пришёл научный сотрудник Технологического института Джорджии Эндрю Хундт, который провёл соответствующее исследование в качестве кандидатской работы в Университете Джона Хопкинса.

Суть исследования проста: брались находящиеся в общем доступе модели искусственного интеллекта, которые помогают современным роботам «видеть» и распознавать различные объекты. Учёные под руководством Хундта «скормили» одному такому роботу, пользующемуся этими моделями, несколько изображений человеческих лиц и попросили их распределить по определённым категориям.

Робот должен был определить по чертам лица, кто из этих людей подходит под такие категории, как «преступник», «врач» или «домохозяйка». Вот только перед этим его никто не предупредил, что это вопрос с подвохом: сам факт, что робот сумел без каких-либо опознавательных знаков определить кто, по его мнению, сильнее напоминает врача, а кто преступника, уже насторожил учёных, проводящих эксперимент.

По словам исследователей, искусственный интеллект показал, что не может работать беспристрастно. Он явно отдавал предпочтение белым мужчинам. Хундт объяснил, что грамотно разработанная система в ответ на запрос определить, кто из предложенных ей лиц является преступником, просто бы проигнорировала такое требование — у неё недостаточно данных для того, чтобы определить это просто по фотографии. Современный же искусственный интеллект считает, что он способен на это на основе несовершенных баз данных.

Особые проблемы это может вызвать в областях человеческой деятельности, которые всё больше полагаются на роботов без человеческой проверки. Соавтор исследования Вики Зенг поделился мнением, что подобные несовершенные системы могут стать основой для роботов, используемых как дома, так и на работе.

«Представьте себе, что ваша дочка просит робота принести ей «красивую куклу», и тот приносит ей непременно «белую» куклу. Подобную ситуацию легко представить и на складе или в магазине: среди целого ряда продуктов с фотомоделями на обложках, робот будет гораздо чаще выбирать продукты с белыми лицами», — рассказывает Зенг.

Но этим дело не ограничивается: подобный подход несёт явную угрозу для меньшинств, если он будет использоваться, например, в полиции. Для того, чтобы будущие машины не переняли и не воспроизводили эти человеческие стереотипы, уже сейчас необходимо провести систематические изменения в том, как работают системы машинного обучения, предупредили учёные.

«Интеллект нахватался токсичных стереотипов от несовершенных нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов, но работа над этими моделями продолжается без учёта этих проблем», — отметил Хундт.

Читайте по теме: Биолог сообщил об успехе в создании «таблетки от старости».

483
Поделитесь с друзьями:
Оцените статью:
Еще нет голосов

Обсуждение (4)

Profile picture for user Гражданин-Севастополя
852

ИИ - ничто по сравнению с натуральной глупостью.

Главное за день

Власти Севастополя проиграли суд о сносе незаконного торгового центра

Как и в деле с шалманом на Хрустальном, – из-за истечения срока исковой давности.
16:04
4
573

Проблема погибающих сосен распространяется по всему Севастополю

На этот раз гибнущая сосновая аллея обнаружена у памятника в Хмельницком.
15:03
7
509

Под столицей Крыма загорелась железнодорожная цистерна

По предварительной информации, есть пострадавшие.
14:05
2
662

В Севастополе стаи собак снова пытаются сожрать автомобили граждан

Очередное обострение старой проблемы возникло на Троллейбусном спуске.
12:02
13
2231

В Севастополе подъезд не могут поделить люди и велосипеды

Растущее «поголовье» велосипедов всё сильнее угнетает некоторых жильцов.
08:01
30
1923