Материал раздела Основной
Мастрид Wired — главное о современных технологиях и их влиянии на культуру, экономику и политику. Выходит в первый вторник месяца.
Благодаря развитию искусственного интеллекта (ИИ) техника научилась анализировать и сопоставлять множество данных. Но вот только оказалось, что и эта технология имеет свои «взгляды» на мир. Ученые провели исследование, по результатам которого оказалось, что ИИ делит людей на хороших и плохих исходя из гендерных, расовых и прочих стереотипов.
Например, в 2012 году был запущен проект ImageNet, который сыграл ключевую роль в развитии ИИ. Он предоставил разработчикам обширные данные (более 14 млн изображений) для обучения компьютеров визуальному восприятию и анализу. Но спустя время оказалось, что созданные алгоритмы и цепочки выдают предвзятые и этически неверные результаты. Так, ИИ может предположить, что все программисты исключительно белые люди.
Исследователи, которые раньше разрабатывали алгоритмы для ИИ, теперь занялись их изменением. По словам ученых, уже сформированные взгляды и аналитические цепочки преобразовать будет трудно, но над этим работают. Доцент Принстона Ольга Русаковская говорит, что теперь экспертам придется учесть гораздо больше параметров, чтобы разработать новые непредвзятые алгоритмы для ИИ.
Полная версия статьи — по ссылке.