Люди или машины лучше обнаруживают дипфейки?

Дипфейк угрожает всем аспектам жизни общества. Способность людей распознавать фейковый контент имеет решающее значение для нейтрализации дезинформации, но по мере совершенствования технологии искусственного интеллекта, кому мы можем доверять в обнаружении дипфейков: людям или машинам?

Опасности дипфейка

По мере развития технологий искусственного интеллекта опасность дипфейков становится все более серьезной угрозой для всех нас. Вот краткий обзор некоторых наиболее актуальных проблем, связанных с дипфейками:

  1. Дезинформация. Видео и голосовые записи с использованием дипфейков могут распространять ложную информацию, например фейковые новости.
  2. Выдача себя за другое лицо. Выдавая себя за отдельных людей, дипфейки могут нанести ущерб репутации людей или ввести в заблуждение любого, кто их знает.
  3. Национальная безопасность: дипфейковый сценарий конца света — это сфабрикованное видео или аудио, на котором мировой лидер разжигает конфликт.
  4. Гражданские беспорядки. Ложные видеозаписи и аудио также могут использоваться сторонами для разжигания гнева и гражданских беспорядков среди определенных групп.
  5. Кибербезопасность. Киберпреступники использовали инструменты клонирования голоса искусственного интеллекта, чтобы нацеливаться на человека с убедительными сообщениями от людей, которых они знают.
  6. Конфиденциальность и согласие. Злонамеренное использование deepfake позволяет использовать изображения людей без их согласия.
  7. Доверие и уверенность: если вы не можете отличить правду от лжи, точная информация становится ненадежной.

Дипфейки будут становиться все более убедительными, поэтому нам нужны мощные инструменты и процессы для их обнаружения. ИИ предоставляет такой инструмент в виде модели обнаружения дипфейков. Однако, как и алгоритмы, предназначенные для идентификации текста, сгенерированного ИИ, инструменты обнаружения дипфейков не идеальны.

В настоящее время принятие решений человеком — единственный инструмент, на который мы можем положиться. Итак, можем ли мы лучше алгоритмов распознавать дипфейки?

Могут ли алгоритмы обнаруживать дипфейки лучше, чем люди?

Deepfake представляет собой достаточно серьезную угрозу, поэтому технологические гиганты и исследовательские группы выделяют огромные ресурсы на исследования и разработки. В 2019 году такие компании, как Meta, Microsoft и Amazon, предложили призы в размере 1 000 000 долларов США в рамках конкурса Deepfake Detection Challenge.

Самая эффективная модель имела точность 82,56% по набору данных общедоступных видео. Однако при тестировании тех же моделей с набором данных «черного ящика» из 10 000 непросмотренных видео наиболее эффективная модель имела точность только 65,18%.

Существует также множество исследований, анализирующих эффективность инструментов обнаружения дипфейков с использованием искусственного интеллекта на людях. Конечно, результаты варьируются от исследования к исследованию, но в целом люди имеют равные или превосходящие показатели успеха по сравнению с инструментами обнаружения дипфейков.

Исследование 2021 года, опубликованное в PNAS, показало, что «случайные наблюдатели» достигли немного более высокой точности, чем ведущие детекторы дипфейков. Однако исследование также показало, что участники-люди и модели ИИ были подвержены различным типам ошибок.

Интересно, что исследования, проведенные Сиднейским университетом, показали, что человеческий мозг подсознательно более эффективно обнаруживает фейковое поведение, чем наши сознательные усилия.

Обнаружение визуальных подсказок в Deepfake

Наука обнаружения дипфейков сложна, и требования к анализу будут различаться в зависимости от характера отснятого материала. Например, печально известное дипфейковое видео северокорейского лидера Ким Чен Ына, снятое в 2020 году, по сути представляет собой видео чата, в начале которого есть только движение. В этом случае наиболее эффективным методом обнаружения дипфейков может стать анализ изображений (движений рта) и фонем (звуков) для поиска несоответствий.

Эксперты-люди, обычные зрители и алгоритмы — все могут выполнять этот тип анализа, даже если результаты могут различаться. MIT определяет 8 вопросов, которые помогут идентифицировать дипфейковые видео:

  1. Обратите внимание на лицо. Расширенные операции DeepFake почти всегда представляют собой операции по трансформации лица.
  2. Обратите внимание на щеки и лоб. Кожа кажется слишком гладкой или морщинистой? Возраст кожи совпадает с возрастом волос и глаз? DeepFake может быть необоснованным в некоторых отношениях.
  3. Обратите внимание на глаза и брови. Появляется ли тень там, где вы ожидаете? DeepFake может не полностью отражать естественную физику сцены.
  4. Обратите внимание на очки. Стекло бликует? Меняется ли угол ослепления при движении человека? Опять же, DeepFake может не полностью отражать естественную физику света.
  5. Обратите внимание на волосы на лице. Волосы на лице выглядят настоящими? DeepFake может добавлять или удалять усы, бакенбарды или бороды. Однако DeepFake, возможно, не сможет выполнить полностью естественную трансформацию волос на лице.
  6. Обратите внимание на родинки на лице. Родинки выглядят настоящими?
  7. Обратите внимание на свое моргание. Человек моргает слишком мало или слишком часто?
  8. Обратите внимание на движения губ. Некоторые дипфейки используют синхронизацию губ. Так естественно ли движение губ?

Новейшие инструменты обнаружения дипфейков на основе искусственного интеллекта могут повторно анализировать аналогичные элементы с разной степенью успеха.

Ученые, работающие с данными, также постоянно разрабатывают новые методы, такие как обнаружение естественного кровотока на лицах людей, говорящих на экране. Новые подходы и улучшения по сравнению с существующими могут помочь инструментам обнаружения дипфейков с искусственным интеллектом превзойти людей в будущем.

Обнаружение звуковых подсказок в Deepfake

Обнаружение дипфейкового звука — еще одна задача. Без визуальных подсказок видео и возможности выявлять аудиовизуальные несоответствия обнаружение дипфейков в значительной степени зависит от аудиоанализа (также возможны и другие методы, такие как проверка метаданных). полезно в некоторых случаях).

Исследование, опубликованное Университетским колледжем Лондона в 2023 году, показало, что люди могут обнаружить фальшивую речь в 73% случаев (на английском и китайском языках). Как и в случае с дипфейковыми видео, люди часто интуитивно обнаруживают неестественные речевые образцы в речи, генерируемой ИИ, даже если они не могут четко сказать, что не так.

Общие признаки включают в себя:

  1. Шепот
  2. Отсутствие естественного выражения
  3. Фоновый шум или помехи
  4. Непоследовательный голос или речь
  5. Голосу не хватает «округлости»
  6. Озвучка слишком “драматичная”)
  7. Отсутствие естественных сигналов (не спотыкаться, не откашляться и т. д.)

Опять же, алгоритмы также могут анализировать речь на наличие подобных признаков дипфейков, но новые методы делают инструменты более эффективными. Исследование USENIX выявило закономерности в воспроизведении речи ИИ, которые не могут имитировать естественную речь. В отчете резюмируется, что генератор речи ИИ производит звуки, адаптированные к узким голосовым диапазонам, без естественного движения человеческого голоса.

Предыдущее исследование Института Хорста Гёрца проанализировало реальные и дипфейковые звуки на английском и японском языках и выявило тонкие различия в более высоких частотах реальной речи и дипфейковых звуков.

Как громкость, так и высокочастотные несоответствия могут восприниматься слушателями и моделями обнаружения искусственного интеллекта. В случае высокочастотных различий модели ИИ теоретически могут становиться все более точными — хотя то же самое может произойти и с дипфейками ИИ.

Deepfake обманывает людей и алгоритмы, но по-разному

Исследования показывают, что люди и новейшие инструменты обнаружения искусственного интеллекта способны распознавать подобные дипфейки. Вероятность успеха может варьироваться от 50% до 90+%, в зависимости от параметров тестирования.

В более широком смысле, люди и машины обманываются дипфейками в одинаковой степени. Однако важно отметить, что люди уязвимы по-разному, и это может быть нашим самым большим преимуществом в борьбе с опасностями технологии дипфейков. Сочетание сильных сторон человека и инструментов обнаружения дипфейков сведет к минимуму недостатки и повысит показатели успеха.

Например, исследования Массачусетского технологического института показывают, что люди лучше распознают дипфейки мировых лидеров и знаменитостей, чем модели искусственного интеллекта. Исследование также показало, что модели ИИ плохо справляются с кадрами, в которых участвуют несколько человек, хотя предполагается, что это может быть связано с тем, что алгоритмы обучались на кадрах, где говорит один человек.

И наоборот, то же исследование показало, что модели ИИ работают лучше, чем люди, с отснятым материалом низкого качества (размытым, темным и т. д.), который может быть намеренно использован для обмана зрителей. Аналогичным образом, новейшие методы обнаружения искусственного интеллекта, такие как мониторинг кровотока в определенных областях лица, включают в себя аналитические возможности, которые люди не могут выполнить.

По мере разработки новых методов растет не только способность ИИ обнаруживать признаки того, что люди не могут улучшиться, но и способность дипфейка обманывать. Большой вопрос заключается в том, превзойдет ли технология обнаружения дипфейков сам дипфейк.

В приведенной выше статье вы познакомились с вопросом: «Люди или машины лучше обнаруживают дипфейки?». СоветыНадейтесь, что эта статья вам поможет! Если эта статья кажется вам интересной и полезной, не забудьте поделиться ею. Спасибо!

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *