Добавить в корзинуПозвонить
Найти в Дзене
Рабочая группа по AI

Новый вид киберпреступности использует против вас ИИ и ваш голос

Достаточно легко подделать подпись с целью мошенничества. Однако до недавнего времени считалось, что голоса людей уникальны и их трудно имитировать. Новый вид киберпреступности, использующий искусственный интеллект и голосовые технологии, стал одним из неприятных открытий настоящего времени. Правоохранительные органы и эксперты по ИИ знают о растущих возможностях голосовых технологий и высокой вероятности того, что ИИ станет новым инструментом для мошенничества. В прошлом году компания Pindrop, которая создает программное обеспечение и протоколы безопасности для колл-центров, сообщила о росте числа случаев мошенничества в отношении кредитных организаций, банков, страховщиков, брокерских компаний и эмитентов карт на 350% в период между 2013 и 2017 годами. Недавно мошенники похитили с помощью голосовых технологий 243 000 долларов, о чём сообщил Wall Street Journal. Преступники использовали программное обеспечение на основе ИИ, чтобы выдать себя за генерального директора немецкой м

Достаточно легко подделать подпись с целью мошенничества. Однако до недавнего времени считалось, что голоса людей уникальны и их трудно имитировать.

Новый вид киберпреступности, использующий искусственный интеллект и голосовые технологии, стал одним из неприятных открытий настоящего времени.

Правоохранительные органы и эксперты по ИИ знают о растущих возможностях голосовых технологий и высокой вероятности того, что ИИ станет новым инструментом для мошенничества. В прошлом году компания Pindrop, которая создает программное обеспечение и протоколы безопасности для колл-центров, сообщила о росте числа случаев мошенничества в отношении кредитных организаций, банков, страховщиков, брокерских компаний и эмитентов карт на 350% в период между 2013 и 2017 годами.

Недавно мошенники похитили с помощью голосовых технологий 243 000 долларов, о чём сообщил Wall Street Journal.

Преступники использовали программное обеспечение на основе ИИ, чтобы выдать себя за генерального директора немецкой материнской компании, дав указание директору неназванной дочерней британской энергетической компании о совершении якобы срочного крупного денежного перевода, позвонив ему по телефону. Директор осуществил запрашиваемый перевод. Якобы руководитель материнской компании, позвонив еще раз, заверил, что перевод будет немедленно возмещен. Это тоже казалось правдоподобным.

Однако, когда возмещение так и не появилось на счетах, и поступил третий звонок, когда звонивший снова заявил, что является главой материнской компании, и потребовал еще один срочный перевод, британский директор заподозрил неладное. Несмотря на то, что голос звонившего казался голосом его босса, директор отказался сделать перевод, понимая, что что-то не так.

Хотя директор британской компании узнал знакомый акцент и интонацию германского руководителя, оказалось, что начальник не звонил. Средства, которые были перечислены в Венгрию, были впоследствии переведены в Мексику и другие места, и властям еще предстоит установить подозреваемых.

Рюдигер Кирш, эксперт по мошенничеству в страховой компании Euler Hermes, которая покрывала претензии потерпевшей компании, сообщает, что страховая компания никогда ранее не рассматривала претензии, связанные с потерями в результате преступлений, связанных с ИИ. Он говорит, что полицейское расследование установило, что хакеры использовали коммерческое программное обеспечение для генерации голоса, отметив, что он протестировал один из таких продуктов и обнаружил, что воспроизведенная версия его голоса звучит реалистично.

Притворяясь кем-то другим по телефону, голосовой мошенник может получить доступ к частной информации, которая иначе не была бы доступна, и может использоваться ее в преступных целях. Способность симулировать личность другого человека с помощью голоса становится проще, чем когда-либо, благодаря новым звуковым инструментам и большей зависимости от колл-центров, которые предлагают услуги (в отличие от, скажем, обращения в банк и общения с кассиром лицом к лицу). По мере того как инструменты для создания подделок совершенствуются, шансы преступников, использующих технологию голосовой связи на основе ИИ, чтобы имитировать наши голоса и использовать их против нас, увеличиваются.

https://qz.com/1699819/a-new-kind-of-cybercrime-uses-ai-and-your-voice-against-you/