Проведенное исследование Amazonпоказывает, что алгоритмы распознавания лиц борются с гендерными и расовыми предрассудками.
Медиа-лаборатория Массачусетского технологического института, AmazonПриложение для распознавания лиц показало, что Rekognition без труда определяла пол светлокожих людей, но неправильно определяла пол пятой части темнокожих мужчин и одной трети темнокожих женщин. Программное обеспечение IBM и Microsoft, с другой стороны, имеет 1,5-процентную погрешность для темных людей. AmazonОн чуть не шлепнул программное обеспечение.
Amazonоспаривал результаты тестов Массачусетского технологического института в течение 2018 года. Он сказал, что команда, проводившая тесты, не использовала последнюю текущую версию Rekognition и тестировала функцию анализа лица вместо распознавания лиц. Утверждая, что анализ лиц имеет гораздо более простые и базовые функции, обнаружение лиц имеет довольно обширные функции. AmazonОн подчеркнул, что это два отдельных пакета.
Это не первый раз, когда программное обеспечение подвергается критике. В феврале 2018 года исследователи Массачусетского технологического института и Стэнфорда заявили, что три разные программы анализа лица дали сексистские и расистские результаты и что они были неверны. С тех пор IBM внесла новые улучшения для повышения точности инструментов анализа лица, а Microsoft сделала некоторые правила обязательными для поддержания высоких стандартов.
С другой стороны, некоторые советники с трудом воспринимали людей разного цвета после того, как в ноябре прошлого года они решили использовать Rekognition в юридической практике. AmazonОни ждали каких-то ответов. AmazonВ то время как , хотел использовать свое приложение на таможне, некоторые акционеры хотели, чтобы система была закрыта, потому что они опасались, что это может нарушить гражданские права людей.
Источник: https://www.engadget.com/2019/01/25/amazon-recognition-facial-analysis-gender-race-bias-mit/