'

Новый вид мошенничества в Израиле: поддельные лица и голоса по видеозвонкам

В мире совершается одно мошенничество с deepfake каждые пять минут. В Израиле в этом году зафиксировано 250 попыток

Вести-Ynet|
1 Еще фото
דיפ פייק
דיפ פייק
"Подделка" лица
(Фото: shutterstock)
Новый отчет предупреждает: технология deepfake в видеозвонках, позволяющая преступникам в реальном времени выдавать себя за других людей, превращается в опасное экономическое и стратегическое оружие. В Израиле в этом году зафиксировано 250 попыток мошенничества, а ущерб в мире достигает сотен миллионов долларов. Об этом 30 сентября пишет Ynet.
Если четыре года назад мир еще был встревожен технологией аудио-deepfake, позволявшей хакерам грабить крупные компании с помощью точной имитации голосов топ-менеджеров, то теперь центр тяжести сместился на видео. Новые возможности ИИ позволяют перейти на следующий уровень - "deepfake-видео": видеозвонки, в которых участники могут менять как свое лицо, так и свой голос.
Специальный доклад подразделения по идентификации и биометрическим приложениям в Управлении по кибербезопасности Израиля показывает, что технология уже вышла за рамки экспериментов и стала массовым оружием. В отчете содержится призыв к общественности и организациям Израиля готовиться заранее. По данным компании Trustpair, в 2024 году зафиксирован рост на 118% в использовании deepfake в видео и поддельных голосах. Отчет компании Entrust указывает, что в мире совершается одно мошенничество с deepfake каждые пять минут, а около 40% всех биометрических атак сегодня включают такие инструменты.
Согласно израильскому докладу, преступники и хакеры используют доступные в сети технологии deepfake, чтобы в реальном времени или в заранее записанных видео выдавать себя за таких фигур, как генеральные директора, врачи или юристы. Они выглядят и звучат как авторитетные лица, которые могут приказать о крупных финансовых действиях. В прошлом году в Управление кибербезопасности Израиля поступило 250 жалоб на deepfake-видео, большинство из которых были подделками под известных людей.
►1000 поддельных аккаунтов
Наиболее известный случай произошел в начале 2024 года в Гонконге. Сотрудник финансового отдела филиала британской инженерной компании Arup получил письмо с приглашением на видеоконференцию с финансовым директором (CFO) и другими знакомыми ему менеджерами. В ходе разговора они утверждали, что необходимо срочно перевести средства в рамках "секретной покупки".
Хотя изначально он сомневался, видеозвонок снял все барьеры, но все участники, кроме него, были deepfake, созданными ИИ. В результате он провел 15 переводов на пять банковских счетов общей суммой около 25 млн долларов.
В 2023–2024 годах отмечен резкий рост попыток мошенничества с deepfake-видео для прохождения уникальной биометрической проверки, которую требуют банки и компании при открытии счетов, получении кредитов или доступе к личным данным. Преступники создают deepfake-видео реальных людей, которые двигают головой, моргают или зачитывают текст для подтверждения личности.
По данным компании Regula (системы биометрической идентификации) и других отчетов, с помощью этой схемы было создано более 1000 поддельных аккаунтов и совершено множество попыток взять кредиты. Совокупный ущерб составил десятки и даже сотни миллионов долларов.
Явление угрожает не только бизнесу. По словам Наамы Бен-Цви, главы подразделения по биометрии, "любой человек, который сегодня ведет видеозвонок с психологом, адвокатом, ипотечным консультантом и другими специалистами, должен учитывать возможность, что перед ним - подделка".
В Управлении кибербезопасности опасаются сложных атак, при которых злоумышленники собирают информацию о руководстве, фрагменты видео и голоса, а затем с помощью доступных AI-инструментов создают достоверные образы.
Мотивы таких атак могут быть не только финансовыми: кража личных данных, промышленный шпионаж, финансовое мошенничество, вторжение в частную жизнь или подготовка к более сложной кибератаке.
В конце 2024 года в Индии распространились deepfake-видео с министром финансов Нирмалой Ситараман, где она якобы рекламировала «щедрую программу» с обещанием огромных доходов при небольшой инвестиции. Фальшивка получила столь широкое доверие, что правительству Индии пришлось официально заявить о подделке.
В прошлом году в США сообщалось, что тысячи северокорейских агентов получили работу в IT-компаниях после того, как с помощью ИИ создали поддельные личности на собеседованиях по Zoom. Интервьюеры не заметили, что их собеседники использовали "чужой облик".
Израильский отчет также описывает возможные схемы атак через видеозвонки: • вход на встречу по ссылке, предназначенной для легитимного участника, • использование профиля с именем и фото реального человека, • приглашения в Zoom с требованием скачать вредоносное ПО.
Власти рекомендуют продвинутые меры предосторожности: • попросить показать физический предмет (карточку, записку), • проанализировать мимику в реальном времени, • провести AI-аутентификацию, • обращать внимание на подозрительные признаки: "замороженные" выражения лица, расфокусированный взгляд, рассинхрон звука и губ, замедленные реакции.
Комментарии
Автор комментария принимает Условия конфиденциальности Вести и соглашается не публиковать комментарии, нарушающие Правила использования, в том числе подстрекательство, клевету и выходящее за рамки приемлемого в определении свободы слова.
""