Стремясь оценить расовую и гендерную предвзятость в своих системах искусственного интеллекта/машинного обучения, Twitter запускает новую инициативу под названием «Ответственное машинное обучение».
Называя это долгим путешествием в первые дни, Twitter заявил, что инициатива оценит любой «непреднамеренный вред», причиненный ее алгоритмами.
“Когда Twitter использует машинное обучение, оно может влиять на сотни миллионов твитов в день, а иногда то, как была разработана система, может начать вести себя иначе, чем предполагалось», — сказали Ютта Уильямс и Румман Чоудхури из Twitter.
«Эти тонкие изменения могут затем начать влиять на людей, использующих Twitter и мы хотим убедиться, что мы изучаем эти изменения и используем их для создания лучшего продукта», — говорится в заявлении компании поздно вечером в четверг.
TwitterРабочая группа Responsible ML является междисциплинарной и состоит из людей со всей компании, включая технические, исследовательские, доверительные и безопасные группы, а также продуктовые группы.
«Руководителем этой работы является наша команда по этике, прозрачности и подотчетности машинного обучения (META): специальная группа инженеров, исследователей и ученых, работающих с данными, которые сотрудничают во всей компании, чтобы оценить последующие или текущие непреднамеренные вреды в алгоритмах, которые мы используем, и помочь Twitter расставьте приоритеты, какие проблемы решать в первую очередь», — уточнили в компании.
Twitter заявила, что будет изучать и понимать влияние решений по ОД, а также проводить углубленный анализ и исследования для оценки существования потенциального вреда в алгоритмах, которые она использует.
Некоторыми из задач будет анализ гендерных и расовых предубеждений алгоритма обрезки (заметности) изображений, оценка справедливости наших рекомендаций по хронике «Дома» среди расовых подгрупп и анализ рекомендаций по контенту для различных политических идеологий в семи странах.
«Наиболее эффективное применение ответственного машинного обучения будет связано с тем, как мы применяем наши знания для создания лучшего Twitter”, – заявили в компании.
Это может привести к изменению продукта, например, к удалению алгоритма и предоставлению людям большего контроля над изображениями, которые они публикуют в Твиттере.
Twitter заявила, что также создает объяснимые решения ML, чтобы люди могли лучше понимать ее алгоритмы, то, что их информирует, и как они влияют на то, что они видят на платформе.