Грамотные фишинговые письма и сообщения, клонирование голоса и дипфейки для аутентификации - все это улучшенные с помощью ИИ мошеннические схемы. Похоже, искусственный интеллект становится новым оружием киберпреступников.
Forbes Ukraine рассказал об угрозах мошенничества с помощью ИИ.
Мы попросили ChatGPT "написать е-письмо Джону До о том, что банк Chase должен ему $2000. Позвоните по номеру 1-800-953-XXXX для возврата средств". Как, к сожалению, многие знают, по такой схеме работают фишинговые мошенники. Чат-бот выдал грамотное, не подозрительное и заслуживающее доверия письмо, которое не похоже на характерные для фишинговых рассылок формулировки.
"У мошенников теперь безупречная грамматика, как у любого носителя языка", - говорит Супс Ранджан, соучредитель и гендиректор стартапа Sardine, который предотвращает мошенничество. Клиенты различных банков все чаще попадаются на крючок злоумышленников, потому что "сообщения, которые рассылают аферисты, почти идеальны", рассказывает анонимно директор по вопросам мошенничества в американском цифровом банке. (Советы о том, как не стать жертвой проходимца, читайте в конце статьи).
В нашем новом мире генеративного искусственного интеллекта как никогда просто для нечистых на руку людей создавать тексты, аудиозаписи или даже видео, которые могут задурить голову не только выбранной жертве, но и программам, которые должны разоблачать нечестные схемы. Впрочем, здесь ничего удивительного, ведь охочие до наживы проходимцы всегда быстро принимали новые технологии, а правоохранители уже должны были догонять прогрессивных преступников.
Генеративный ИИ может даже сделать устаревшими лучшие на сегодня меры предотвращения мошенничества, такие как голосовая аутентификация или "живые проверки", когда изображение человека в реальном времени должно совпадать с тем, что хранится в системе.
"Мы постоянно видим, как дипфейковые фото и видео используют для аутентификации, и можем смело предположить, что они были сделаны с помощью генеративного ИИ", - сказал Кеннет Уильямс, старший вице-президент Synchrony, крупнейшего эмитента кредитных карт в США (70 млн активных счетов).
В июньском опросе 650 экспертов по кибербезопасности компанией Deep Instinct три из четырех сказали, что заметили увеличение киберпреступлений за последнее время. А "85% опрошенных с таким мнением считают, что этот рост вызван использованием преступниками искусственного интеллекта".
Американские потребители сообщили Федеральной торговой комиссии о том, что в прошлом году мошенники украли у них рекордные $8,8 млрд, а это на 40% больше, чем в 2021-м. Наиболее прибыльными для проходимцев оказались инвестиционные схемы, но самым распространенным видом мошенничества оказалось самозванство, с которым, скорее всего, помогает ИИ.
Если вы часто выкладываете свои фотографии и другую информацию онлайн, аферисты могут научить ИИ-модель писать в вашем стиле. Затем они могут написать вашему дедушке или бабушке с просьбой прислать "вам" деньги, потому что вы попали в какую-то неприятность. Больше всего пугает то, что преступники теперь умеют очень правдоподобно воспроизводить голос и уже были зафиксированы случаи, когда родителям присылали запись голоса их ребенка с требованием выкупа.
Это касается не только отдельных людей, но и компаний. Преступники выдают себя за настоящих поставщиков, отправляя убедительные письма бухгалтерам фирм, в которых пишут, что заказ надо оплатить как можно скорее по указанным в письме реквизитам. Ранджан из Sardine говорит, что финтех-стартапы, которые являются клиентами его фирмы, уже стали жертвами таких схем, потеряв сотни тысяч долларов.
Но это мелочи по сравнению с $35 млн, которые японская компания потеряла, когда проходимцы воспроизвели голос директора компании, чтобы подтвердить перевод денег на "покупку" компании. Как другие индустрии берут на вооружение ИИ, чтобы улучшать или облегчать свою работу, так и мошенники создают собственные инструменты (FraudGPT или WormGPT) на основе ИИ-моделей техногигантов.
Все чаще пожилые люди в США становятся целями для мошенников, которые нередко используют стационарные телефоны, чтобы выдать себя за внуков или детей потенциальных жертв. Те, кто переживал на себе трюки злоумышленников, отмечают, насколько похожими были голоса их псевдородных и как тщательно мошенники готовятся, изучая жизнь целей.
"Даже мурашки берут от того, как точно им удалось воспроизвести голос, интонацию и тембр, - рассказал Леонард, у которого преступники пытались выманить деньги, выдав себя за его внука. - Не было пауз между предложениями или словами, которые могли бы указать на то, что говорит автомат или начитывает программа. Все было очень убедительно".
Но не только пожилым людям надо остерегаться, ведь клонирование голоса мошенниками опасно и для тех, у кого настроена аутентификация голосом. К примеру, такую возможность предоставляет взаимный фонд Vanguard Group, у которого более 50 млн инвесторов. Ранджан из Sardine уже сталкивался со случаями, когда с помощью клонирования голоса люди получали доступ к чужим банковским счетам.
Кроме того, мы давно знаем о том, как мошенники присылают фейковые письма со счетами фирмам, чтобы те оплатили якобы срочный заказ. Теперь же с помощью ИИ-инструментов злоумышленники могут звонить в компании и приказывать голосом директора выполнить какую-то транзакцию или передать секретную информацию.
Преступники также используют генеративный ИИ, чтобы перехитрить специалистов по борьбе с мошенничеством и компании, которые на этом специализируются.
Такие компании, как Socure, Mitek и Onfido, которые занимаются верификацией людей, используют "живые проверки". Они просят сделать селфи или записать видео, которое затем сравнивают с теми изображениями, которые есть в системе.
Но об этом алгоритме действий знают и мошенники, поэтому готовятся к проверке. Они покупают фото реальных водительских удостоверений в даркнете, а дальше с помощью специальных программ, которые становятся все более доступными и дешевыми, накладывают лицо человека на свое. В такой программе злоумышленник может говорить и двигать лицом за ширмой лица жертвы, что может помочь обойти "живые проверки".
"Мы заметили достаточно значительный скачок в использовании высококачественных дипфейков для живых проверок, - рассказал Рик Сонг, гендиректор антимошеннической фирмы Persona. - Скачок разный для разных индустрий, но в некоторых мы увидели десятикратный рост по сравнению с прошлым годом". Финтех- и криптокомпании страдают больше всего.
Эксперты по мошенничеству рассказали Forbes о своих подозрениях относительно того, что компании, которые предоставляют услуги по верификации пользователей (например, Socure и Mitek), демонстрируют худшую статистику предотвращения мошенничества. Socure это отрицает, но добавляет, что некоторые клиенты затягивают с обновлением систем верификации, что может влиять на эффективность. Компания сказала, что три ее крупнейших банка-клиента пропустили четыре обновления системы.
JPMorgan, Bank of America и Wells Fargo отказались комментировать свои проблемы с мошенничеством с помощью ИИ-технологий. А представитель Chime, крупнейшего цифрового банка США, у которого в прошлом были большие проблемы с мошенничеством, говорит, что они не увидели роста злоумышленнических схем с ИИ-инструментами.
OpenAI пытается встроить в свой чат-бот ограничения, которые бы блокировали возможность использования ChatGPT для мошенничества, но и их можно обойти.
В своем блоге компания написала: "Нет идеального способа обеспечить ответственное использование, поэтому мы пытаемся узнать о границах возможностей наших моделей и потенциальных вариантах злоупотребления ими".
Llama 2, большую языковую модель от Meta, еще проще использовать как преступный инструмент, ведь она имеет открытый код, который доступен для использования кому угодно. Например, на базе Llama 2 мошенники могут создавать злонамеренные ИИ-инструменты.
Как и OpenAI, Meta не дала комментарий для этой статьи. Впрочем, Марк Цукерберг в июле сказал, что открытость кода Llama может усовершенствовать "ее безопасность и надежность, ведь открытое ПО находится под более прицельным наблюдением и больше людей могут найти и исправить проблемы".
Компании, которые занимаются предотвращением мошенничества, пытаются успевать за мошенниками. Они ищут новые виды данных, которые бы помогали замечать работу злоумышленника. Ранджан считает, что "нужен ИИ, чтобы доказать в сети, что вы именно тот, за кого себя выдаете".
Другими словами, чтобы поймать ИИ, нужен ИИ.
Пять советов для защиты от ИИ-мошенничества
Укрепить защиту аккаунтов и счетов. Многофакторная аутентификация требует от вас ввода пароля и дополнительных кодов для проверки вашей личности. Включите многофакторную авторизацию на всех своих финансовых счетах.
Сохраняйте приватность. Мошенники могут использовать вашу личную информацию в соцсетях или других онлайн-ресурсах, чтобы убедительнее выдать себя за вас.
Сбрасывайте. Майк Стейнбах, глава финансовых преступлений и предотвращения мошенничества в Citi, советует не отвечать на звонки с незнакомых номеров.
Создайте кодовые фразы. Члены семьи могут договориться о кодовом слове или фразе, которые бы подтверждали их личность. Такие же кодовые фразы могут ввести малые бизнесы для авторизации денежных переводов руководителями. Внимательно присматривайтесь к сообщениям от руководителей, которые просят купить подарочные сертификаты, - это тоже распространенная мошенническая схема.
Сбивайте с толку. Если вы заподозрили что-то во время телефонного разговора, попробуйте задать случайный вопрос, типа, что за погода в том городе, в котором должен находиться человек, или о чем-то личном.
Источник: Focus