Как распознать дипфейки? Объяснение от Digimagg

Откройте для себя методы выявления фейкового контента и защитите себя от дезинформации.

июнь 26, 2024 - 12:15
июль 19, 2024 - 11:57
Как распознать дипфейки? Объяснение от Digimagg
дипфейки

Рост дипфейков начинает бросать вызов нашему пониманию реальности, стирая грань между правдой и ложью, особенно затрагивая политиков и знаменитостей, которые являются главной мишенью для манипулируемого контента.

От дипфейковых аудиозаписей, в которых предположительно мэр Лондона Садик Хан делает подстрекательские заявления накануне национального празднования Дня перемирия, до Тейлор Свифт, ставшей мишенью с помощью откровенных изображений, созданных искусственным интеллектом, — возможность манипулировать контентом становится все более доступной и широко распространенной, доступной практически каждому и в любом месте. .

С появлением Sora от OpenAI — несомненно, впечатляющего достижения в создании сложных видеосимуляций реальных сценариев — ожидается, что в 2024 году проблема различения подлинных и сфабрикованных медиа станет еще более сложной.

Учитывая значительное распространение дипфейков, очевидно, что существует острая необходимость улучшения среди поставщиков, регулирующих органов и пользователей методов обнаружения и контроля распространения дипфейкового контента. Более того, потребителям требуется всесторонняя помощь в распознавании подлинности контента. Какие усилия предпринимает индустрия искусственного интеллекта (ИИ) для решения этой проблемы и какие шаги люди могут предпринять, чтобы защитить себя? Продолжайте читать, чтобы узнать больше.

Как решаются поставщики искусственного интеллекта и кризис DeepFake?

После разногласий вокруг дипфейков Тейлор Свифт Microsoft быстро ввела запрет на создание изображений знаменитостей. Ранее у компании были ограничения на создание изображений общественных деятелей и изображений, содержащих наготу.

Многие другие поставщики, такие как OpenAI и Google, придерживаются аналогичных правил модерации контента, запрещая создание контента с участием общественных деятелей с использованием таких инструментов, как DALL-E 3 и ImageFX.

Однако с помощью изобретательных подсказок и обходных путей пользователи могут манипулировать инструментами генерации изображений и голоса ИИ, создавая контент, который нарушает эти политики модерации.

Например, в каналах Telegram, где распространялись дипфейки Swift, некоторые пользователи намеренно писали имена знаменитостей с ошибками или использовали ненормативную лексику, чтобы побудить генераторы изображений создавать фейковые изображения.

Факт остается фактом: Всякий раз, когда поставщики ИИ вводят новую политику модерации, злоумышленники будут пытаться найти лазейки. Хотя такие поставщики, как OpenAI и Google, пытаются усовершенствовать эту политику, нанося цифровые водяные знаки на изображения, созданные ИИ, еще предстоит добиться значительного прогресса.

Изучение существующей нормативно-правовой базы

В настоящее время нормативно-правовая база, касающаяся производства дипфейков, находится на ранней стадии, и власти в Соединенных Штатах и ​​​​Европейском Союзе стремятся смягчить распространение дипфейковой порнографии и контента, связанного с выборами.

В США по меньшей мере 14 штатов предложили законопроект, направленный на устранение угрозы дипфейков, распространяющих дезинформацию во время выборов. Эти законодательные усилия варьируются от законопроектов, устанавливающих требования к раскрытию информации, таких как те, которые были приняты на Аляске, Флориде и Колорадо, которые потребуют раскрытия информации в созданных ИИ средствах массовой информации, распространяемых с целью повлиять на выборы, до прямых запретов, подобных предложенным в Небраске, которые запретят распространение дипфейков перед выборами.

В Европейском Союзе Европейский Совет и Парламент достигли консенсуса по предложению ввести уголовную ответственность за несанкционированный обмен интимными изображениями, включая дипфейки, созданные с помощью искусственного интеллекта. Аналогичным образом, Великобритания намерена ввести уголовную ответственность за распространение дипфейковых изображений в соответствии с предстоящим законодательством о безопасности в Интернете.

Хотя эти меры представляют собой первые шаги, они подчеркивают растущее внимание регулирующих органов к рискам, связанным с контентом, создаваемым ИИ. Однако на данный момент ответственность за выявление дипфейков при их обнаружении остается в первую очередь обязанностью пользователей.

Как обнаружить дипфейки?

Пользователи могут защитить себя от дипфейков, ознакомившись с отличительными характеристиками дипфейковых изображений, видео и аудио.

Некоторые признаки дипфейкового изображения включают в себя:

  • Аномалии в изображении рук
  • Грубые контуры вокруг лица
  • Непоследовательная текстура кожи
  • Размытость в некоторых местах
  • Необычное освещение или искажения

Определенные признаки дипфейкового видео состоят из:

  • Искусственные движения глаз и рук/тела
  • Несоответствие между движениями губ и звуком
  • Ненормальное освещение или тени

Тем не менее, зачастую легче сказать, чем сделать, распознать дипфейки. Амманат заявил: «Хотя люди иногда могут обнаружить дипфейки, задача становится все более сложной, поскольку технологии, используемые для создания контрафактного контента, становятся все более изощренными».

«Продвинутые алгоритмы искусственного интеллекта и машинного обучения, особенно нейронные сети, можно обучить обнаруживать дипфейки и другой фальсифицированный контент в режиме реального времени, тем самым уменьшая их распространение. Нейронные сети, обученные обнаруживать дипфейки, могут распознавать характерные закономерности и тонкие нарушения в манипулируемых медиафайлах».

Иллюстрируя потенциал ИИ, Амманат пояснил, что алгоритмы обнаружения, управляемые ИИ, могут обнаруживать тонкие изменения, такие как выцветание или пиксели в оттенках серого вокруг лица человека на обработанных фотографиях.

Таким образом, использование детекторов дипфейков, оснащенных алгоритмами машинного обучения и нейронными сетями, обученными на обширных наборах данных подлинных и обработанных видео и изображений, является надежным методом более точной идентификации сфабрикованного контента.

Повышенное значение в год выборов

Поскольку выборы в США пройдут в течение 2024 года, как потребители, так и предприятия должны ожидать увеличения контента, создаваемого ИИ, поскольку недобросовестные субъекты стремятся использовать эту технологию в своих политических программах или интересах.

Одна из распространенных тактик включает создание дипфейков, в которых политические деятели, по-видимому, одобряют или делают политические заявления, направленные на влияние на поведение избирателей.

Это иллюстрируют такие случаи, как звонок от робота Байдена, когда фокусник из Нового Орлеана утверждал, что консультант предвыборного штаба Дина Филлипса заплатил ему за фабрикацию аудиозаписи президента Байдена с целью отговорить избирателей от участия в праймериз в Нью-Гэмпшире 23 января 2023 года. .

Чтобы эффективно противостоять этим угрозам, крайне важно ознакомиться с явными признаками дипфейков и, когда это возможно, использовать инструменты обнаружения дипфейков для их идентификации и проверки источника. Принятие этих мер поможет смягчить потенциальные последствия неправильного использования ИИ во время предвыборной кампании.

В заключение отметим, что дипфейки стали постоянным явлением, и до тех пор, пока поставщики ИИ и регулирующие органы не разработают стратегии по сдерживанию их распространения, пользователям придется приобретать навыки их идентификации. Простого решения для определения подлинности цифрового контента больше не существует.

Хотя это, возможно, и не облегчит страдания или вред, причиненный тем, кто стал жертвой дипфейков, это может помочь смягчить распространение дезинформации.