Дождитесь окончания загрузки
Модальное окно "Дорогой друг, прими участие в опросе"
preview Назад

Дипфейки выходят в экономический сектор

23.05.2024 • 07:01

Мошенники использовали видеозапись на YouTube во время виртуальной встречи для создания дипфейка.

Глава крупнейшей в мире рекламной группы пострадал от изощренной аферы на основе искусственного интеллекта с использованием голосового клона. Генеральный директор WPP Марк Рид рассказал о мошенничестве в недавнем электронном письме руководителям компании, призывая других опасаться звонков, якобы исходящих от высшего руководства.

Согласно письму, полученному Guardian, мошенники использовали публичное изображение Рида, чтобы создать учетную запись в WhatsApp и организовать встречу в Microsoft Teams. Во время выступления мошенники использовали голосовой клон лидера и его видео на YouTube. Они участвовали от имени Рида через окно чата встречи. Афера была нацелена на «руководителя агентства», который просил его открыть новый бизнес и пытался получить деньги и личную информацию.

«К счастью, злоумышленникам это не удалось», — написал Рид в электронном письме. «Нам всем необходимо проявлять бдительность в отношении того, как используются виртуальные встречи, искусственный интеллект и технологии дипфейков».

Представитель WPP подтвердил, что попытка не увенчалась успехом: «Благодаря бдительности наших сотрудников, в том числе соответствующего менеджера, инцидент удалось предотвратить». WPP не ответила на вопросы о том, когда произошла атака и какие руководители, помимо Рида, были «замешаны».

За последний год в корпоративном мире выросло количество дипфейковых атак, в первую очередь связанных с онлайн-преследованием, порнографией и политической дезинформацией. Голосовые клоны искусственного интеллекта обманули банки, финансовые компании на миллионы долларов и предупредили отделы кибербезопасности. Похоже, что у злоумышленников теперь есть множество инструментов, которые они могут использовать, чтобы выдать себя за реальных корпоративных специалистов и руководителей.

«Мы наблюдаем рост сложности кибератак, особенно против руководителей высшего звена», — написал Рид в электронном письме. Он перечислил ряд вещей, на которые следует обратить внимание, включая паспорта, денежные переводы и запросы на «покупки, транзакции или платежи, о которых никто не знает». «То, что в аккаунте есть мои фотографии, не означает, что это я», — написал Рид в электронном письме.

WPP, рыночная капитализация которой составляет около $11,3 млрд, также сообщила на своем веб-сайте, что борется с фейковыми сайтами, использующими торговую марку, и работает с соответствующими органами, чтобы остановить мошенничество.

Многие компании сталкиваются с потенциальными недостатками генерации искусственного интеллекта.

В прошлом году WPP объявила, что будет сотрудничать с производителем чипов Nvidia, чтобы начать создавать рекламу с использованием генеративного искусственного интеллекта, назвав это серьезным сдвигом в отрасли. «ИИ меняет мир маркетинга с беспрецедентной скоростью. Эта новая технология изменит способ, которым бренды создают контент для коммерческих целей», — заявил Рид в своем заявлении в мае прошлого года.

В последние годы технология аудиодипфейков получила широкое распространение и весьма эффективна. Некоторые модели искусственного интеллекта могут реалистично имитировать голос человека, используя всего лишь несколько минут аудиозаписи, что дает мошенникам возможность создавать манипулятивные записи голоса практически любого человека.

Источник

Присоединяйтесь к сообществу фактчекеров.

Данная информационно-познавательная платформа предназначена для молодежи РК, КР, РУз, РТ.

Платформа разработана с учетом требований законодательств стран-партнеров. Все примеры, используемые на платформе, приводятся исключительно в учебных целях и не несут противоправного умысла. Пользуясь платформой, Вы подтверждаете свое понимание и соглашаетесь с вышеназванными целями и задачами.