GIJN делится статьями о том, как распознавать фейки различного содержания и формы. В частности, репортер проекта Роуэн Филп подготовил материал о средствах обнаружения голосовых фейков.
Factchecknet.uz представляет актуальные материалы в переводе:
Украинский сайт StopFake.org недавно разоблачил и отследил фейковое видео, на котором высокопоставленный генерал осуждает президента Владимира Зеленского. Используя инструмент Deepware Scanner, обнаружено, что фейковый материал создан за счёт добавления фейковых изображений и звука к реальному видео украинского генерала, снятому годом ранее с использованием техники машинного обучения GAN. По мнению других аналитиков, дипфейк впервые разместил Telegram-канал, который утверждает, что делится «юмористическим контентом».
Ольга Юркова из StopFake говорит, что она использовала простые инструменты обратного поиска изображения для проверки подозрительного мультимедийного контента, но предупреждает, что «к сожалению, этот метод не всегда работает». «У нас нет опыта обнаружения аудиофейков, — объясняет она, — часто мы можем отличить такой фейковый контент простым прослушиванием, но в основном это работает для некачественных фейков».
Технические советы по работе с подозрительным аудиоконтентом:
- Проверьте фейк с помощью носителей языка. Юркова привела в пример аудиопроверку 2023 года, когда был имитирован голос президента США Джо Байдена, на котором он якобы признал, что Владимир Путин непобедим. Этот контент широко распространялся российскими государственными СМИ и некоторыми Telegram-каналами. StopFake поделился аудиозаписью только с американскими носителями английского языка, которые указали, что некоторые слова были фальшивыми, в частности, слово «патриот» было произнесено неправильно.
- Используйте инструменты. По словам Ольги Юрковой, среди инструментов обнаружения голосовых фейков более эффективным является классификатор речи ElevenLabs на основе искусственного интеллекта, однако он может проверять только контент, созданный с помощью инструментов ElevenLabs.
- Сотрудничество с профильными экспертами. Журналисты могут обратиться за помощью к экспертным ресурсам таких организаций, как Reality Defender, Loccus.AI, Respeecher, DeepMedia, а также университетских лабораторий цифровой криминалистики и ИТ-отделов.
- Попробуйте инструмент PlayHT Classifier, чтобы выявить общие признаки манипуляций ИИ в аудио. «Это помогает проверить, является ли звуковая дорожка сгенерированной искусственным интеллектом или оригинальной записью. Юркова также предлагает инструмент AIorNot как совершенно бесплатный вариант поиска фейковых изображений в контенте. Другой эксперт Саманта Сунн предлагает журналистам попробовать альтернативные инструменты, такие как sensity.ai.
- Ознакомьтесь с платными инструментами, которые работают на многих языках. В частности, AI Voice Detector предлагает дополнительные функции, такие как фильтры для удаления фоновой музыки, а также автоматическую проверку звука. «Программа не хранит личные аудиофайлы и имеет широкий выбор языков», — поясняет Юркова. Также эксперт рекомендует DuckDuckGoose (детектор синтетического звука на любом языке) с точностью 93% и Resemble Detect, платную программу проверки звука в реальном времени, требующую регистрации.
- Следите за словами, которые необычны или вряд ли могли быть произнесены. В октябре была опубликована аудиозапись предполагаемого интервью израильского правительства с радио Хамас после взрыва больницы Аль-Ахли в секторе Газа, который, по утверждению официальных лиц, был доказательством вины Хамас. Однако арабские журналисты поставили под сомнение подлинность диалекта.и акцента голосов, а в другом репортаже Channel 4 назвали диалог фальшивым из-за того, что он был склеен из двух отдельных записей.
- Проверьте метаданные и историю доменов сайтов, на которых распространяется аудио. «Журналисты могут использовать онлайн-инструменты, такие как WHOIS, для отслеживания оригинальной учетной записи в социальной сети или фейковой информации на постерах», — объясняет Юркова. Такие инструменты, как RiskIQ и Crowdtangle, также могут помочь отслеживать происхождение контента.
- Ищите «выключенные» элементы в видеороликах с покадровым анализом. «Визуальные несоответствия можно увидеть на видеороликах с покадровым анализом», — говорит Юркова. Мы обращаем внимание на то, соответствует ли выражение лица человека ожидаемым эмоциям во время выступления. Несоответствие между вербальными и невербальными сигналами может означать, что слова и выражения лица передают разное значение.
- Проанализируйте текст и заголовки, добавленные к контенту, на наличие ошибок. Журналистам также следует проверять наличие политических лозунгов или предвыборных текстов, скрытых в подписях и сопроводительном тексте, которые могут указывать на манипуляции.
Источник: https://factchecknet.uz/ru/2024/04/13/kak-raspoznavat-golosovie-feyki/