по популярности / по алфавиту

эксперт
Научные и НФ-комиксы на Реакторе

Михаил Заславский: Парадоксальный взгляд комиксиста может подтолкнуть ученых к открытию

«Взрослые и увлекательные комиксы будут следовать за главными событиями науки и дополнят картину мира для интеллектуалов»

подробнее
Искусственный интеллект может перенимать предрассудки у людей

Искусственный интеллект может перенимать предрассудки у людей

Автор:

Фото: Принстонский университет

Дата: 8 мая 2017 13:21

Ученые протестировали программы на расизм

Исследователи из Принстонского университета выяснили, что системы машинного обучения, использующие понятия из интернета, склонны к нетерпимости.

«Обычные программы машинного обучения, использующие язык и слова, доступные в онлайне, могут обзавестись культурными предрассудками, включенными в языковые шаблоны», – говорится в релизе университета. Предрассудки могут быть нейтральными: например, программы отдают предпочтение цветкам при сравнении цветков и насекомых. В то же время, программы демонстрировали расистские и сексистские шаблоны, поясняется в релизе.

Исследователи использовали тест подсознательных ассоциаций, разработанный в США в конце 1990-х. Тест, по мнению создателей, выявляет находящиеся на подсознательном уровне стереотипы. Во время тестирования людям предлагается ассоциировать пары слов. Считается, что люди намного быстрее подтверждают сочетаемость слов, если пара соответствует стереотипам. Например, тестируемые в среднем быстрее реагировали на сочетание «цветок» и «ласка», чем на сочетание «цветок» и «уродливый».

Ученые создали программу машинного обучения, которая действует в рамках теста: самостоятельно создает связи между словами. Программный комплекс, названный исследователями GloVe, во многом схож с программами, которые сейчас используют частные компании.

GloVe самостоятельно исследовал 840 миллиардов слов на страницах в интернете. В случае, если определенные слова часто встречались рядом, GloVe считал их ассоциацией.

В итоге, у GloVe сформировались сексистские, по мнению исследователей, ассоциации. В частности, программа считала, что мужские имена ассоциируются со словами «профессионал» и «зарплата», а женские – со словами «свадьба» и «родители». «Хотя, разумеется, подобные результаты – часто отражение происходящего в действительности», – оговаривают исследователи.

Исследователи нашли гендерные стереотипы у самообучающегося сервиса Google.Translate при переводе с турецкого. Турецкий язык имеет местоимение «o», не указывающее на мужской или женский род. Сервис переводит с турецкого на английский слова «o bir doktor» как «he is a doctor» (он доктор). В случае, если речь идет о младшем медицинском работнике – «o bir hemşire» – фраза переводится как «she is a nurse» (она медсестра).

Кроме того, исследователи выяснили, что программы машинного обучения считают имена афроамериканцев менее привлекательными, чем имена жителей США, имеющих европейские корни. «Исследование напоминает о том, что метод машинного обучения вовсе не «объективный» или «непредвзятый» лишь потому, что основывается на алгоритме», – цитируется в релизе один из исследователей.

Исправить стереотипы и ассоциации можно, предоставив программам четкие правила, в которых указывается, что общество называет неприемлемым, считают исследователи.

Исследования возможностей искусственного разума и роботов в решении моральных вопросов исследуют и другие структуры. В частности, известно, что министерство обороны США выделяет средства на создание модели, позволяющей роботам рассуждать и действовать по правилам этики для решения практических задач.

Понравилась заметка? Поделитесь —

Комментарии (0)

Добавить комментарий

Войти с помощью: