Сгенерированная с помощью искусственного интеллекта симуляция голоса помогла преступникам обмануть сотрудника банка в Объединённых Арабских Эмиратах (ОАЭ), в результате чего финансовое учреждение потеряло 35 миллионов долларов.
Судя по недавно обнародованному судебному документу, история произошла ещё в январе, когда менеджер одного из филиалов ответил на обычный телефонный звонок. Его собеседник представился владельцем крупной компании — менеджер уже говорил с ним незадолго до этого и не смог распознать «подделку».
Действия мошенников, дополнительно использовавших «поддельные» электронные письма компании и её юриста, позволили убедить менеджера, что бизнес находится в процессе заключения крупной сделки на $35 млн. Он последовательно выполнял приказы звонящего и инициировал несколько крупных транзакций на новые счета. В результате это оказалось виртуозным мошенничеством.
Местные правоохранительные органы пришли к выводу, что злоумышленники использовали технологию Deep Voice, позволяющую точно имитировать речь главы компании. Следствие считает, что в схеме участвовали как минимум 17 человек, а средства были переведены на множество банковских счетов, разбросанных по всему миру. Два из них были открыты в Centennial Bank (США), поэтому в расследовании по просьбе органов дознания из ОАЭ теперь участвуют и американские правоохранители.
Примечательно, что подобное случается уже не в первый раз. В 2019 году энергетическую компанию из Великобритании постигла аналогичная судьба — мошенники смогли похитить порядка $243 000, выдавая себя за генерального директора. По мнению экспертов, это далеко не первый случай использования голосовых «дипфейков» и, конечно, не последний.
По мнению эксперта ESET Джейка Мура (Jake Moore), стремительное развитие технологий создания поддельного аудио- и видеоконтента представляет невероятную угрозу данным, деньгам и бизнесам. По его мнению, мир находится на пороге перехода злоумышленников на новейшие технологии для манипуляции людьми, не имеющими представления о существовании подобных технических решений, и многомиллионные банковские мошенничества с их использованием могут стать «новой нормой».
>>10848408 (OP) >Сгенерированная с помощью искусственного интеллекта симуляция голоса помогла преступникам обмануть сотрудника банка Ну да рассказывай, с кем прохрамировал, с кем генерировал.
>>10848537 Действительно, ведь долбоёбов на должности с огромными деньгами не назначают, их же так мало на планете Земля и хватает только на модераторов двача.
>>10848408 (OP) Поэтому ни в коем случае не сдавай биометрию, везде отказывайся. Потому что пароль/ключ/чип можно поменять, а твою биометрию украдут - и хуй что сделаешь.
>>10848675 > пришлось давеча сдать дактилоскопию Зачем? Приняли чтоли? Просто слышал, что некоторых при покупке оружия разводят, но это незаконно закон в тоталитарной параше, уже даже не смешно.
>>10848675 Теперь главное ничего отпечатком не локать больше никогда в жизни, потому что база с твоими пальчиками уже продана.
А так отпечаток вроде бы брали на американскую визу, и кажется, на шенген, так что куча народу, которая любит отдыхать в европке, откатывала сканировалась.
>>10848811 На американскую берут уже лет десять минимум у всех въезжающих поголовно. На шенген чуть поменьше, но тоже у всех. Тутачки берут у всех подающих на гражданство и предшествующие доки, на патент. С зимы будут брать у всех трудовых мигрантов.
Блэд, иногда накатывает знатный багор из-за этого. Некоторые знакомые сдавали, но их вообще не парит. А я не знаю, как успокоиться в моменты особо сильной жопной тяги.
>>10849125 ну блять, даже б если я знал о своих правах, разве будет омежка спорить с полицаями? хотя там дядька адекватный был, прапорщик, но потом вроде другие были. какая им вообще выгода от моих отпечатков? хотя я могу этот случай путать с другим, я тогда был в ебучей бурятии, и меня с одним челом забрали, потому что мы на каких то козлов в розыске были похожи, могли и там снять, не помню уже.
Судя по недавно обнародованному судебному документу, история произошла ещё в январе, когда менеджер одного из филиалов ответил на обычный телефонный звонок. Его собеседник представился владельцем крупной компании — менеджер уже говорил с ним незадолго до этого и не смог распознать «подделку».
Действия мошенников, дополнительно использовавших «поддельные» электронные письма компании и её юриста, позволили убедить менеджера, что бизнес находится в процессе заключения крупной сделки на $35 млн. Он последовательно выполнял приказы звонящего и инициировал несколько крупных транзакций на новые счета. В результате это оказалось виртуозным мошенничеством.
Местные правоохранительные органы пришли к выводу, что злоумышленники использовали технологию Deep Voice, позволяющую точно имитировать речь главы компании. Следствие считает, что в схеме участвовали как минимум 17 человек, а средства были переведены на множество банковских счетов, разбросанных по всему миру. Два из них были открыты в Centennial Bank (США), поэтому в расследовании по просьбе органов дознания из ОАЭ теперь участвуют и американские правоохранители.
Примечательно, что подобное случается уже не в первый раз. В 2019 году энергетическую компанию из Великобритании постигла аналогичная судьба — мошенники смогли похитить порядка $243 000, выдавая себя за генерального директора. По мнению экспертов, это далеко не первый случай использования голосовых «дипфейков» и, конечно, не последний.
По мнению эксперта ESET Джейка Мура (Jake Moore), стремительное развитие технологий создания поддельного аудио- и видеоконтента представляет невероятную угрозу данным, деньгам и бизнесам. По его мнению, мир находится на пороге перехода злоумышленников на новейшие технологии для манипуляции людьми, не имеющими представления о существовании подобных технических решений, и многомиллионные банковские мошенничества с их использованием могут стать «новой нормой».
https://3dnews.ru/1051337/moshenniki-v-oae-klonirovali-golos-s-pomoshchyu-dipfeyktehnologiy-dlya-hishcheniya-35-millionov