Tehnografi.com - Технологические новости, обзоры и советы

Twitter Анализ вредного воздействия алгоритмов искусственного интеллекта и машинного обучения

Стремясь оценить расовую и гендерную предвзятость в своих системах искусственного интеллекта/машинного обучения, Twitter запускает новую инициативу под названием «Ответственное машинное обучение».

Называя это долгим путешествием в первые дни, Twitter заявил, что инициатива оценит любой «непреднамеренный вред», причиненный ее алгоритмами.

“Когда Twitter использует машинное обучение, оно может влиять на сотни миллионов твитов в день, а иногда то, как была разработана система, может начать вести себя иначе, чем предполагалось», — сказали Ютта Уильямс и Румман Чоудхури из Twitter.

«Эти тонкие изменения могут затем начать влиять на людей, использующих Twitter и мы хотим убедиться, что мы изучаем эти изменения и используем их для создания лучшего продукта», — говорится в заявлении компании поздно вечером в четверг.

TwitterРабочая группа Responsible ML является междисциплинарной и состоит из людей со всей компании, включая технические, исследовательские, доверительные и безопасные группы, а также продуктовые группы.

«Руководителем этой работы является наша команда по этике, прозрачности и подотчетности машинного обучения (META): специальная группа инженеров, исследователей и ученых, работающих с данными, которые сотрудничают во всей компании, чтобы оценить последующие или текущие непреднамеренные вреды в алгоритмах, которые мы используем, и помочь Twitter расставьте приоритеты, какие проблемы решать в первую очередь», — уточнили в компании.

Twitter заявила, что будет изучать и понимать влияние решений по ОД, а также проводить углубленный анализ и исследования для оценки существования потенциального вреда в алгоритмах, которые она использует.

Некоторыми из задач будет анализ гендерных и расовых предубеждений алгоритма обрезки (заметности) изображений, оценка справедливости наших рекомендаций по хронике «Дома» среди расовых подгрупп и анализ рекомендаций по контенту для различных политических идеологий в семи странах.

«Наиболее эффективное применение ответственного машинного обучения будет связано с тем, как мы применяем наши знания для создания лучшего Twitter”, – заявили в компании.

Это может привести к изменению продукта, например, к удалению алгоритма и предоставлению людям большего контроля над изображениями, которые они публикуют в Твиттере.

Twitter заявила, что также создает объяснимые решения ML, чтобы люди могли лучше понимать ее алгоритмы, то, что их информирует, и как они влияют на то, что они видят на платформе.