Tehnografi.com - Технологические новости, обзоры и советы
[adinserter block="67"]

Facebook Детские шаги к выявлению глубоких фальшивых изображений и их источника

Facebook и Университет штата Мичиган представили новый метод выявления глубоких фальшивых изображений и отслеживания их источника. Или, по крайней мере, проследить, какая генеративная модель использовалась для создания изображений. Согласно отчетам, посвященным раскрытию, новая система использует сложную технику обратного проектирования. В частности, для выявления закономерностей, лежащих в основе модели ИИ, используемой для создания глубокого фальшивого изображения.

Система работает, прогоняя изображения через сеть оценки отпечатков пальцев (FEN), чтобы проанализировать шаблоны – отпечатки пальцев – на этих изображениях. Эти отпечатки пальцев фактически создаются из набора известных переменных в глубоких поддельных изображениях. Генеративные модели оставляют после себя измеримые закономерности в «величине отпечатка пальца, повторяющемся характере, частотном диапазоне и симметричной частотной характеристике».

И, после передачи этих ограничений обратно через FEN, метод может определить, какие изображения являются глубокими подделками. Затем они передаются обратно через систему для разделения изображений с помощью «гиперпараметров», которые устанавливают, чтобы система могла самостоятельно изучать различные генеративные модели.

Он все еще находится в зачаточном состоянии, но он на шаг приближается к выявлению и отслеживанию глубоких поддельных изображений.

Одна из серьезных неудач нынешней итерации системы подчеркивает, что это все еще новая технология. Он далеко не готов к прайм-тайму. А именно, он не может обнаруживать поддельные изображения, созданные генеративной моделью, на которой он не был обучен. И таких моделей существует бесчисленное множество.

Более того, это ни в коем случае не окончательный метод выявления глубоких поддельных изображений из Facebook и МГУ. Мало того, что невозможно быть уверенным в том, что каждая генеративная модель учтена. Никаких других исследований, связанных с этой темой, нет. Или, по крайней мере, нет наборов данных, чтобы создать основу для сравнения. В общем, невозможно точно узнать, насколько хороша новая модель искусственного интеллекта.

Команда, стоящая за проектом, указывает, что существует «гораздо более сильная и обобщенная корреляция между сгенерированными изображениями и пространством встраивания значимых гиперпараметров архитектуры и типов функций потерь». И он сравнивает это со случайным вектором той же длины и распределения. Но это основано на его собственном базовом уровне, созданном им самим.

Итак, без дальнейших исследований, единственный вывод состоит в том, что модель обнаруживает глубокие поддельные изображения, созданные искусственным интеллектом, и их источник лучше, чем простое предположение.

Для чего это можно было использовать?

Цель проекта, представленная командой, – создать способ отследить глубокие поддельные изображения до их источника после их идентификации. Это потенциально может облегчить применение политик и правил в отношении дезинформации. В частности, это касается социальных сетей и все еще безудержного распространения дезинформации.

Facebook  Диаграмма методологии поиска источника глубоких фальшивых изображений МГУ