Объективные новости через призму совести

Опасность ИИ: как мошенники используют нейросети?

4 августа 2023
Опасность ИИ: как мошенники используют нейросети?

Автор: Виктория Лисунова

Искусственный интеллект за последний год в той или иной степени уже охватил практически все сферы нашей жизни — на ближайшие 10 лет запланировано его внедрение в большую часть отраслей. Новые технологии играют огромную роль в повседневной жизни для каждого из нас. Кроме того, они помогают в работе многих специалистов. Однако искусственный интеллект начали использовать в своих корыстных целях и мошенники, что представляет опасность для общества.

Мошенники не стоят на месте, как и научно-технологический процесс, они постоянно разрабатывают свои новые схемы для обмана граждан. В современном мире нейросети приобрели такое широкое распространение, что их просто не могли не использовать в качестве одного из своих инструментов киберпреступники, ведь искусственный интеллект гораздо сильней упрощает и ускоряет их работу — генерирует различные тексты, видеозаписи, картинки и фотографии, а также создает аудиоматериалы и даже с легкостью может имитировать любой голос.

Фейковые профили

Одним из распространенных видов использования искусственного интеллекта мошенниками является создание ненастоящих профилей в социальных сетях и месседжерах. Посредством генерации довольно реалистичной визуальной, текстовой и голосовой информации они обманывают невинных юзеров. Стоит иметь ввиду, что далеко не всегда за пользователем, который присылает вам сообщения, может скрываться реальный человек или настоящая организация, которая собирается использовать ваши личные данные по назначению. Таким образом просьба предоставить пароли, номера банковских карт или иной информации, которая является строго конфидециальной, является первым признаком фишинговой атаки.

Поддельные документы

Кроме генерации текстовой, аудио, фото и видео информации искусственный интеллект способен подделывать документы. Согласитесь, это уже куда серьезней. Например, с помощью нейросети киберпреступники могут создать фальшивые паспорта, водительские права, удостоверения сотрудников различных организаций или банковские выписки. Так, на человека можно повесить долг на крупную сумму денег и побудить погасить его в короткие сроки, переведя средства на конкретный банковский счет. Зачастую мошенники применяют поддельные документы для увеличения эмоционального давления на потенциальную жертву.

Лживые новости

Новости распространяются очень быстро, тем более если они касаются деликатных тем, которые способны спровоцировать реакцию общества. Как правило именно цель широкого распространения и введения граждан в заблуждение и преследуют мошенники при создании фейковых информационных поводов, а помогает им в этом, конечно же, искусственный интеллект — он генерирует (или по-другому сочиняет) тексты на требуемые темы. По этой причине в последние несколько лет особенно актуальна стала проверка источников информации и достоверность приводимых в материалах фактов и сведений. 

Клеветнический контент

Благодаря помощи искусственного интеллекта мошенники прибегают к шантажу. Речь идет о генерации нейросетью фальшивой аудио, фото или видео информации — подобного рода контент называют дипфейком. Ввиду достаточно реалистичной подмене искусственным интеллектом лица или, например, голоса определенного человека, иногда бывает сложно понять, что это ни что иное как обман. Такая технология в руках киберпреступников может принести немало проблем.

«Помимо fake news мы стоим на пороге новой угрозы — deep fake, это очень страшная штука. Вот я стою, и вместо меня на компьютере можно вставить другую голову, другой голос. Если все это оказывается в руках и головах других ребят, вы представляете, сколько они могут наделать вреда? И отличить это будет очень и очень сложно», — подчеркнул в 2021 году пресс-секретарь президента Дмитрий Песков в ходе онлайн-марафона общества «Знание» в Москве.

Имитация чужого голоса

Одним из самых распространенных видов мошенничества является телефонное мошенничество. Теперь обманывать граждан злоумышленникам может стать намного проще, все из-за возможности подменять голос. Недавно преступники в ОАЭ использовали голосовые дипфейки, чтобы выдать себя за главу компании и убедить сотрудника перевести крупную сумму на их счета — и у них это получилось.

Читать все материалы