С развитием технологий мошенники научились подделывать голоса и лица людей. «Открытый Нижний» составил подборку сервисов и советов, которые помогут распознать дипфейки.
Часто использование дипфейков мошенниками нацелено на сотрудников крупных компаний и государственных организаций, но из-за простоты использования технологии их применяют и против простых граждан. В частности, злоумышленники могут подделать голос человека и отправить голосовое сообщение от его имени с просьбой перевести деньги.
Именно поэтому в последнее время злоумышленники «охотятся» именно на Telegram-аккаунты — если человек когда-либо отправлял голосовые сообщения, то их могут использовать, чтобы натренировать нейромодель. Для качественного дипфейка достаточного всего нескольких минут аудио с голосом человека. Особо эффективны такие подделки в комплексе с видео.
РАСПОЗНАВАНИЕ ДИПФЕЙКОВ В ВИДЕО
Качественные дипфейки в видео невооруженным глазом достаточно сложно распознать. Как правило, исходный материал намеренно снижают в качестве, чтобы все выглядело более естественно. Однако даже в этом случае фальсификацию можно заметить: важно обращать внимание на крайние части лица — там могут быть артефакты, свидетельствующие об использовании дипфейка. Для их выявления уже есть специальные сервисы, делающие это в полуавтоматическом режиме:
Sensity — использует комбинацию методов машинного обучения для распознавания аномалий в движениях лиц, глаз, а также анализирует метаданные видео для выявления признаков подделки.
Deepware Scanner — использует нейросетевые модели, которые обучены на тысячах дипфейков. Он проверяет, есть ли в видео артефакты, связанные с синтезированными изображениями лиц, например, неестественные движения глаз, лица или рта. Результатом анализа является отчет с указанием уровня вероятности подделки.
DeepFake Detector — использует компьютерное зрение и глубокое обучение для анализа мельчайших изменений в видео, таких как изменения текстуры кожи или неправильные световые отражения. Инструмент анализирует не только лицо, но и фон, чтобы обнаружить несоответствия между различными слоями видео.
Hive Moderation — анализирует видео в режиме реального времени и находит признаки того, что изображение или видео были сгенерированы или изменены с помощью искусственного интеллекта. Сервис использует передовые алгоритмы компьютерного зрения и анализирует как качество видео, так и наличие характерных артефактов.
ВЫЯВЛЕНИЕ ДИПФЕЙКОВ В АУДИО
Распознать дипфейк в формате аудио достаточно сложно, если поддельный голос был наложен на речь реального человека. Поэтому тут приходится ориентироваться на слух, чтобы услышать неестественность . Для распознавания таких подделок тоже есть специальные сервисы:
ElevenLabs Speech Classifier — анализирует аудио на предмет искусственных изменений в речи, таких как неестественные интонации, странные паузы, повторяющиеся звуки, которые могут свидетельствовать о том, что голос был сгенерирован или изменен. Классификатор использует глубокие нейронные сети, обученные на огромных массивах данных для точного выявления синтетической речи.
AI Voice Detector — анализирует акустические параметры речи, такие как частота, тембр и интонация, чтобы распознать, было ли аудио создано с помощью алгоритмов синтеза речи. Модель обучена выявлять особенности речи, которые сложно имитировать ИИ, например, натуральную изменчивость интонации и динамику голоса.
AI or Not — проверяет аудиопоток на предмет несоответствий в ритме речи, а также на наличие типичных артефактов, таких как неестественные переходы между словами.
Hive Moderation — проверяет, были ли записаны голосовые сообщения или аудио сгенерированы ИИ, и может выявлять даже высококачественные дипфейки, которые сложно распознать на слух. Алгоритмы также анализируют метаданные аудио, чтобы выявить подозрительные изменения.
ОБНАРУЖЕНИЕ ДИПФЕЙКОВ В ОБЫЧНЫХ КАРТИНКАХ
С распознаванием дипфейков в изображениях тоже все не так просто. Если в случае с видео большое количество кадров создает проблемы для качественной фальсификации, то сделать качественный дипфейк с фото намного проще. Для их выявления тоже есть ряд специальных сервисов:
Fake Image Detector — использует алгоритмы компьютерного зрения для поиска признаков редактирования или синтеза изображения. Сервис анализирует текстуры, освещение, тени, а также проверяет, не были ли части изображения скопированы или сгенерированы с помощью ИИ.
AI or Not — этот инструмент применим для анализа не только аудио, но и простых изображений. Он ищет типичные артефакты, такие как странные размытые области или неестественные тени, которые могут свидетельствовать о том, что изображение было создано ИИ.
Nuanced — проверяет текстуры и геометрические аномалии, которые могут возникнуть в результате использования алгоритмов синтеза изображений. Этот сервис также может выявить манипуляции с изображениями, такие как замена лиц или добавление элементов, созданных ИИ.
Illuminarty — анализирует как эстетические, так и технические характеристики изображений, выявляя несоответствия в цветах, тенях, искажениям перспективы, которые могут указывать на использование дипфейков.
Content at Scale AI Image Detector — анализирует метаданные и технические характеристики изображения, чтобы выявить, было ли оно создано или изменено с помощью алгоритмов генерации.
Ранее «Открытый Нижний» рассказывал, как с помощью нейросети можно «оживить» любое фото человека, сымитировав мимику из видео.
Фото сгенерированы нейросетью по запросу «Открытого Нижнего»
Наша группа ВКонтакте: последние новости, конкурсы, живое общение. Подписывайтесь!