Появился инструмент, который помогает за секунды обнаружить дипфейк
10- 3.12.2024, 20:06
- 9,658
Бесплатно.
В компании Hiya представили Deepfake Voice Detector. Это бесплатное расширение для Google Chrome, которое быстро определяет сфальсифицированный аудио- и видеоконтент, предоставляя результаты за «считанные секунды», передают «Детали».
Голосовое мошенничество и видео с дипфейками стали большей проблемой. Социальные сети предоставляют мошенникам достаточно материала для клонирования голосов, а специальные программы позволяют им во время общения в Сети или на видео проецировать нужное лицо прямо на себя. Так мошенники могут разговаривать и двигать головой, скрываясь за чужим цифровым лицом и увеличивая при этом свои шансы на то, чтобы успешно пройти проверку живого пользователя.
Инструмент Deepfake Voice Detector интегрирован прямо в браузер, что делает его максимально удобным для использования. Журналисты, компании и обычные пользователи, которые сталкиваются с риском дезинформации, могут быстро проверить сомнительный контент. Технология основана на искусственном интеллекте, который анализирует голосовые паттерны и определяет их подлинность с точностью до 99%.
По словам создателей, Deepfake Voice Detector хорошо работает с короткими аудиофрагментами — достаточно всего одной секунды звука. В результате пользователи получают так называемый «индекс подлинности» — от 0 до 100. Чем ближе показатель к нулю, тем выше вероятность, что перед вами дипфейк.
Расширение разработано специально для социальных сетей и новостных платформ, где проблема стоит особенно остро. Благодаря ему журналисты могут оперативно проверять видеоматериалы перед публикацией, а компании — защищать свои данные от утечек.
Особое внимание уделяется рискам, связанным с голосовыми дипфейками. Злоумышленники используют поддельные голоса для получения паролей к IT-системам или выманивания конфиденциальной информации. Ущерб от подобных атак может быть колоссальным, а выявление лжи — первым шагом к минимизации угрозы.
Нет ничего удивительного в том, что мошенники активно используют генеративный искусственный интеллект в своих схемах. Они всегда проявляли живой интерес к техническому прогрессу, значительно опережая в этом органы правопорядка. Основные виды мошенничества не меняются со временем, но аферисты очень быстро вооружаются новыми инструментами, адаптируя под них существующие схемы, и это позволяет им с легкостью находить жертв.
Не то что частные лица, но и финансовые организации и органы правопорядка обычно не в состоянии быстро разработать инструменты, позволяющие предотвратить мошенничество с использованием новых технологий. К примеру, в конце 80-х годов прошлого века Forbes USA раскрыл схему аферы: воры подделывали чеки с помощью обычных ПК и лазерных принтеров, причем бланки были настолько хорошего качества, что банки их принимали без лишних вопросов, ― никакой специальной процедуры по выявлению фальшивок в финансовых учреждениях на тот момент просто не было.
Сегодня подобное происходит с использованием мошенниками генеративного искусственного интеллекта. Согласно данным Федеральной торговой комиссии США, за прошлый год только американцы отдали мошенникам рекордные 8,8 миллиарда долларов, и это только с учетом случаев, о которых сообщили потерпевшие.
К примеру, если существующее с 1980-х годов мошенничество «нигерийские письма» было известно достаточно примитивным содержанием писем, зачастую написанных с ошибками, то теперь ИИ пишет безупречные профессиональные письма от имени банков и финансовых организаций.
Еще большей проблемой является голосовое мошенничество и видео с дипфейками. Социальные сети предоставляют мошенникам достаточно материала для клонирования голосов, а специальные программы позволяют им во время общения в Сети или на видео проецировать нужное лицо прямо на себя. Так мошенники могут разговаривать и двигать головой, скрываясь за чужим цифровым лицом и увеличивая при этом свои шансы на то, чтобы успешно обмануть пользователя.
Проблема заключается в том, что большинство людей пока не могут свыкнуться с мыслью, что нельзя доверять не то что электронной почте и текстовым сообщениям, но и знакомому голосу в трубке. Известно, что голос – уникальный идентифицирующий признак каждого человека. В телефонных звонках доверие между знакомыми собеседниками моментально устанавливается, если они слышат и узнают голос друг друга.
Чем мошенники успешно пользуются. Это могут быть звонки бабушкам и дедушкам якобы от внуков с просьбой срочно переслать деньги, могут быть звонки от якобы похищенных детей с требованием выкупа, могут быть корпоративные аферы. В 2020 году одна японская компания потеряла 35 миллионов долларов, когда аферисты клонировали голос руководителя высшего звена и провернули с его помощью хитрую мошенническую схему.
Сегодня попытки подобных афер происходят все чаще из-за повышенной точности, доступности и дешевизны инструментов ИИ для написания текстов, подражания голосу и манипуляций с видеороликами. При помощи инструментов на базе ИИ в общем доступе аферисты могут звонить сотрудникам компаний, используя клонированную версию голоса руководителя, и от его имени согласовывать транзакции либо просить работников раскрыть конфиденциальные сведения ― это называется «голосовым фишингом».
В марте прошлого года Федеральная торговая комиссия (FTC) разослала американским потребителям предупреждение о том, что мошенники теперь используют искусственный интеллект для улучшения своих схем. По данным FTC, все, что нужно мошенникам, – короткий образец голоса человека (от трех секунд), который можно получить, просто позвонив на номер потенциальной жертвы и обменявшись с ней несколькими фразами.
Мошенники используют ИИ для клонирования голоса и затем отправляют поддельные голосовые сообщения или звонят контактам жертвы, в реальном времени притворяясь, что им нужна помощь. При этом 70% респондентов, принявших участие в исследовании McAfee, не уверены, что они смогли бы отличить подделку от настоящего голоса, особенно если звонящий мошенник притворяется не самым близким знакомым жертвы.
45% опрошенных сказали, что ответили бы на сообщение от друга или родственника, нуждающегося в деньгах, особенно если бы они подумали, что это их вторая половинка (40%), родитель (31%) или ребенок (20%). А самые вероятные причины для запроса помощи, которые назвали респонденты, – авария (48%), ограбление (47%), потеря телефона или кошелька (43%), проблемы за границей (41%).
В Израиле на сегодняшний день телефонные мошенники не заходят дальше подмены номера телефона, представляясь сотрудниками банков или других организаций, но можно не сомневаться, что мошеннические схемы с использованием ИИ вскоре появятся и у нас. Представители Федеральной торговой комиссии отмечают, что с развитием интернета и ИИ-технологий практически никто не защищен от подобного рода атак, да и разумно мыслить в стрессовой ситуации сможет далеко не каждый.
Тем не менее специалисты советуют при поступлении подобного звонка не верить тому, что говорит мошенник, как бы убедительно это ни звучало. Лучше сбросить вызов и позвонить напрямую человеку, голос которого злоумышленники, предположительно, скопировали. Если такого варианта нет, стоит связаться с родственниками этого человека и разузнать, не пытаются ли вас обмануть.