Tehnografi.com - Технологические новости, обзоры и советы
[adinserter block="67"]

Amazon, Microsoft, «подвергая мир риску убийственного ИИ»: исследование

AmazonMicrosoft и Intel входят в число ведущих технологических компаний, подвергающих мир риску из-за разработки роботов-убийц, согласно отчету, в котором опрашивались крупные игроки сектора об их позиции в отношении смертоносного автономного оружия.

Голландская неправительственная организация Pax оценила 50 компаний по трем критериям: разрабатывают ли они технологии, которые могут иметь отношение к смертельному ИИ, работают ли они над соответствующими военными проектами, и взяли ли они на себя обязательство воздерживаться от участия в будущем.

«Почему такие компании, как Microsoft и Amazon не отрицает, что они в настоящее время разрабатывают эти весьма неоднозначные оружие, которое может решить, чтобы убивать людей без непосредственного участия человека?», сказал Франк Slijper, ведущий автор доклада, опубликованного на этой неделе.

Использование ИИ, позволяющее системам оружия автономно выбирать и атаковать цели, в последние годы вызвало этические дебаты, и критики предупреждают, что они могут поставить под угрозу международную безопасность и объявить третью революцию в войне после пороха и атомной бомбы.

Группа правительственных экспертов обсудила варианты политики в отношении смертоносного автономного оружия на заседании Конвенции Организации Объединенных Наций о конкретных видах обычного оружия в Женеве в среду.

Google, которая в прошлом году опубликовала руководящие принципы, исключающие использование ИИ для использования в системах вооружения, была одной из семи компаний, которые, как было установлено, используют «передовой опыт» в анализе, охватывающем 12 стран, как и Softbank Японии, наиболее известный своим гуманоидным роботом Pepper.

Двадцать две компании относились к категории «средней озабоченности», а 21 – к категории «высокой степени озабоченности», особенно Amazon и Microsoft, которые оба претендуют на 10-миллиардный контракт Пентагона на поставку облачной инфраструктуры для вооруженных сил США.

Другие в группе «высокой заботы» включают Palantir, компанию с корнями в поддерживаемой ЦРУ организации венчурного капитала, которая получила контракт на 800 миллионов долларов на разработку системы искусственного интеллекта, «которая может помочь солдатам анализировать зону боевых действий в реальном времени».

«Автономное оружие неизбежно станет масштабируемым оружием массового уничтожения, потому что, если человек не в курсе, то один человек может запустить миллион оружия или сто миллионов оружия», – Стюарт Рассел, профессор компьютерных наук в Университете Калифорнии Об этом Беркли сообщил AFP в среду.

«Дело в том, что корпорации будут разрабатывать автономное оружие, и с точки зрения кампании по предотвращению распространения автономного оружия, оно может сыграть очень большую роль», – добавил он.

Разработка ИИ в военных целях вызвала дебаты и протесты в отрасли: в прошлом году Google отказалась продлевать контракт с Пентагоном под названием Project Maven, в котором машинное обучение использовалось для различения людей и объектов в видеозаписях дронов.

Он также вышел из строя для совместной инфраструктуры защиты предприятий (JEDI), облачного контракта, который Amazon и Microsoft надеются на сумку.

В отчете отмечается, что сотрудники Microsoft также выразили свое несогласие с контрактом армии США на гарнитуру с дополненной реальностью HoloLens, которая направлена ​​на «увеличение смертности» на поле боя.

Как они могут выглядеть
По словам Рассела, «все, что в настоящее время является оружием, люди работают над автономными версиями, будь то танки, истребители или подводные лодки».

Израильская Гарпия – это уже существующий автономный беспилотник, «слоняющийся» в целевой области и выбирающий места для удара.

Еще больше тревожат новые категории автономного оружия, которого еще не существует – к ним могут относиться вооруженные мини-дроны, подобные тем, которые показаны в короткометражном фильме 2017 года «Убойные роботы».

«С этим типом оружия вы могли бы отправить миллион из них в контейнерном или грузовом самолете – так что они обладают разрушительной способностью ядерной бомбы, но оставляют все здания позади», – сказал Рассел.

Используя технологию распознавания лиц, дроны могут «уничтожить одну этническую группу или один пол, или используя информацию из социальных сетей, вы можете уничтожить всех людей с политической точки зрения».

В апреле Европейский Союз опубликовал руководство о том, как компании и правительства должны разрабатывать ИИ, включая необходимость человеческого контроля, недискриминационной работы на благо общества и окружающей среды и соблюдения конфиденциальности.

Рассел утверждал, что необходимо сделать следующий шаг в форме международного запрета на смертельный ИИ, который можно обобщить как «машины, которые могут принять решение убивать людей, не должны разрабатываться, развертываться или использоваться».

Add comment