Дипфейки обгоняют обнаружение: Предупреждение эксперта-криминалиста

4

Гонка между синтедией и её обнаружением стремительно меняется. Дипфейки, когда-то грубые имитации, теперь опережают проверку фактов благодаря прогрессу в генеративном ИИ. То, что начиналось как инструмент для несанкционированного злоупотребления, стало повсеместным оружием в цифровом ландшафте: мошенничество, социальная манипуляция и даже выдача себя за других в конфиденциальной переписке. Ключевой вопрос не в самом существовании подделок, а в скорости их создания и распространения – к тому моменту, когда дипфейк будет разоблачён, ущерб часто уже нанесён.

Хани Фарид, исследователь в области цифровой криминалистики из Калифорнийского университета в Беркли, утверждает, что современные подходы к борьбе с дипфейками принципиально ошибочны. Он отвергает представление о «магии ИИ», называя генеративный ИИ просто «генератором токенов» – продвинутым автозаполнением, а не настоящим интеллектом. Его решение заключается не в фильтрации контента, а в перестройке правил ответственности и уничтожении экономических стимулов, которые делают цифровое обман выгодным. Scientific American поговорил с Фаридом, чтобы разобрать траекторию развития дипфейков и наиболее эффективные меры противодействия.

Разрушение инфраструктуры доверия

В основе современной экосистемы дезинформации лежит слияние контента, генерируемого ИИ, и распространения в социальных сетях. Возможность создания реалистичного аудио, видео и изображений, на которых кто угодно говорит или делает что угодно, в сочетании с платформами, предназначенными для быстрого распространения, делает традиционные представления о доверии устаревшими.

Фарид подчёркивает, что угроза выходит за рамки социальных сетей: дипфейки уже проникают в судебные разбирательства, разработку самоуправляемых автомобилей и критическую инфраструктуру. «Что произойдёт, когда мы начнём строить всё на основе ИИ? Как мы сможем доверять этим системам?» – спрашивает он. Проблема не только в выявлении подделок, но и в системной эрозии доказательств как таковых.

Генеративный ИИ: Не интеллект, а автоматизация

Распространённое заблуждение заключается в уравнивании генеративного ИИ с настоящим интеллектом. Фарид называет это «генератором токенов»: алгоритмом, который предсказывает следующее слово или пиксель на основе огромных наборов данных. Настоящий интеллект заключается в человеческой аннотации, которая совершенствует эти модели. «Невозможно получить ChatGPT, не привлекая множество людей, которые вручную аннотируют вопросы и ответы». Это подчёркивает, что ИИ не автономен; он обучается человеческим трудом, что делает его восприимчивым к предвзятости и манипуляциям.

Растущий вред: От злоупотреблений до мошенничества

Вред диверсифицируется. Несанкционированные интимные изображения (NCII) остаются серьёзной проблемой наряду с детской порнографией и шантажом. Дипфейки также усиливают мошенничество, с использованием клонирования голоса для обмана частных лиц и предприятий. Влияние на образование – ещё одна недооценённая угроза: студенты уже используют ИИ для обхода правил академической честности, что требует фундаментального переосмысления методов обучения.

Ограничения обнаружения

Современные методы обнаружения, такие как сопоставление хешей (выявление цифровых отпечатков), становятся все менее эффективными. Хотя они полезны для отслеживания повторяющихся случаев детской порнографии, они не работают против быстрого производства контента, сгенерированного ИИ. «Вы можете поймать это изображение, но я могу сделать 100 других за следующие 30 секунд». Скорость создания подавляет способность выявлять и удалять подделки.

Несовершенное правовое поле

Существующее законодательство о дипфейках часто контрпродуктивно. Законы, такие как TAKE IT DOWN Act, устанавливают нереалистичные сроки удаления (например, 48 часов), которые не имеют значения в мире, где ущерб наносится за секунды. Кроме того, в них отсутствуют наказания за ложные сообщения, что создаёт возможности для злоупотреблений.

Фарид выступает за ответственность вышестоящих: нацеливание на инфраструктуру, которая позволяет создавать и распространять дипфейки. Это означает, что хостинговые компании, магазины приложений и платёжные системы должны нести ответственность за содействие вреду. «Когда у вас 1000 тараканов, нужно найти гнездо и сжечь его дотла».

Будущее обнаружения: Потоки против файлов

Следующий рубеж – обнаружение в режиме реального времени. Компания Фарида GetReal переключает внимание с анализа статических файлов на перехват дипфейков во время прямых трансляций (Zoom, Teams, WebEx). Это сложнее для злоумышленников, поскольку им приходится генерировать подделки на лету. Цель состоит в том, чтобы выявить криминалистические следы, которые сохраняются даже после сжатия и манипуляций.

Суть: Ответственность и осведомлённость

Для построения работоспособной инфраструктуры доверия Фарид подчёркивает два ключевых принципа: минимальное количество ложных срабатываний (избежание необоснованных обвинений) и объяснимость (предоставление чётких доказательств манипуляций). Он также выступает за правовую реформу, привлекая платформы к ответственности за вред, причинённый контентом, сгенерированным ИИ.

«Если вы создаёте продукт, который причиняет вред, и знали или должны были знать, что он причиняет вред, я буду судить вас так же, как в реальном мире». Цифровой мир слишком долго работал по другим правилам.

В конечном счёте, наиболее эффективная защита – это осведомлённость: знание о существовании дипфейков, бдительность и использование простых мер предосторожности, таких как кодовые слова в конфиденциальной переписке. Проблему нельзя решить только технологиями; она требует фундаментального сдвига в правовой ответственности и общественном восприятии.

попередня статтяPoznámky čtenáře: Věda, doplňky a vnímání času