Дипфейк и киберпреступность: риски новой технологии
Deepfake – это потрясающая технология, которая, в зависимости от области применения, также чрезвычайно увлекательна. К сожалению, это также используется многими киберпреступниками, которые, почувствовав его потенциал, перехватили мяч, чтобы поразить ничего не подозревающих пользователей.
Иногда хакеры в черной шляпе используют видео и аудио, называемые дипфейками, чтобы обмануть людей, в результате чего они попадают в мошенничество, которое иначе сложно реализовать. Если до нескольких лет мы считали видео источником почти абсолютной правды, то сегодня хорошо быть очень осторожным, чтобы не попасться в ловушку какого-нибудь опытного преступника, владеющего искусственным интеллектом.
Дипфейки совсем не новы
Еще в конце 19 века некоторые творческие фотографы использовали простые приемы для создания фальшивых изображений. Поэтому в глазах современников было легко попасть в эти ловушки. Достаточно было перекрыть две фотографии, сделать разрезы между изображениями и другие небольшие изменения, чтобы получить впечатляющий результат для менее опытных в фотографии.
В настоящее время сделать все это очень просто, достаточно просто Photoshop или альтернативы этому программному обеспечению для создания чрезвычайно надежных фотомонтажей. После небольшой практики и правильных программ даже неопытный человек может создавать впечатляющие изображения.
Хотя программное обеспечение этого типа добилось большого прогресса, обращая внимание на такие детали, как тени, текстуры и фон, даже неопытные люди могут заметить изменения. Однако что произойдет, если выстрел окажется вполне правдоподобным? В этот момент становится трудно отличить реальность от фантазии: это отличная возможность для плохих парней, которые могут использовать все это в своих интересах.
От изображений до синтетических видео и аудио
Дипфейки можно сравнить с кинематографическими эффектами. Фактически, режиссеры-первопроходцы десятилетиями использовали спецэффекты и уловки для решения двух проблем, которые их преследовали:
- Съемки того, что действительно могло произойти, но было непрактично снимать, например взрыв здания.
- Снять что-то, что было просто невозможно, например, эпический Кинг-Конг, разрушающий небоскребы.
Решение этих двух проблем породило огромную индустрию спецэффектов, которую мы имеем сегодня.
Что касается звука, добавление звука и диалогов привело к концу немого кино и появлению фильмов с окружающим шумом и диалогами. Некоторые ранние кинозвезды не справились с переходом: их голоса не вписывались в контекст, или они не могли произносить реплики убедительно и вовремя, так как годами сосредотачивались на движениях своего тела. Пока дубляж не стал обычной практикой, не было другого выхода, кроме как выбрать кого-то другого.
Сегодня стало обычной практикой манипулировать голосами актеров даже на их родном языке. Подумайте только о фильмах или мюзиклах, где актеры должны петь: даже если они отличные профессионалы, они не всегда могут быть певцами, способными за несколько строф перейти от вольного стиля к фальцету.
Системы, которые могут выполнять этот тип обработки видео и звука, являются большими и дорогими, и для их обслуживания требуются специалисты.
Однако с годами убедительные конечные результаты могут быть достигнуты с использованием разнообразного легкого в получении и относительно простого программного обеспечения, которое работает на обычных домашних ПК и ноутбуках. Видео и аудио могут не соответствовать голливудскому качеству, но они, безусловно, достаточно хороши для киберпреступников, чтобы добавить поддельные изображения, видео и аудио в свои вредоносные стратегии.
Что означает Deepfake?
Термин Deepfake был придуман для описания цифровых материалов, которые манипулируют таким образом, что кто-то в видео буквально носит лицо другого человека. Термин Deep (буквально глубокий) названия происходит от глубокое обучение, ветвь искусственного интеллекта, из которой берутся модели, способные выполнять эти сложные операции. Как это возможно? Алгоритмы, которые пытаются имитировать связи наших синапсов, обучены генерировать видео и аудио как можно более реалистично: во время этой длительной процедуры модели видят несколько реальных видео / аудио / изображений, чтобы научиться создавать реалистичные. Вначале создаваемый мультимедийный контент будет совсем не хорошего качества, но при наличии достаточного терпения и источников данных, из которых можно черпать вдохновение, система будет все более и более реалистичной.
Например, если вы предоставите достаточно фотографий кого-то для системы прогнозирования, она настолько хорошо поймет лицо этого человека, что сможет понять, как он будет выглядеть, показывая любое выражение лица под любым углом. Затем он может создавать изображения лица этого человека, которые соответствуют всем распространенным выражениям, и в то же время наклонять голову в соответствии с положением остальной части тела в данном контексте.
Когда эти изображения вставляются в видео, новое лицо идеально соответствует действию видео. Поскольку искусственно созданные мимики, синхронизация губ и движения головы такие же, как и в исходном видео, результат может быть очень убедительной подделкой. Имейте в виду, что результаты будут улучшаться с каждым годом, учитывая прогресс исследований в мире машинного обучения, все более низкую стоимость графических процессоров при той же производительности, большую доступность и удобство использования данных, необходимых для обучения моделей.
Помимо безумных гибридных приложений и забавных видеомонтажей, эти методы находят функциональное применение в других местах. Описание – звуковой и видеоредактор, создающий текстовую расшифровку записи. Изменяя текстовый документ, они применяются одновременно с разноской. Если вам не нравится, как произносится предложение, вы можете просто отредактировать текст. Descript синтезирует любой отсутствующий звук с помощью выбранного голоса.
Среди множества потенциальных возможностей использования Deepfake есть тот, который был создан корейским телеканалом MBN. Фактически, в программе новостей была создана настоящая виртуальная копия ведущего Ким Чжу Ха, который может вести трансляцию, не находясь в студии. Положительное использование этой технологии, которая, однако, потенциально доступна каждому и, следовательно, может использоваться кем угодно и для любых целей.
Дипфейк и преступление
Киберпреступники всегда готовы найти новые решения, которые сделают свои стратегии более эффективными. Поддельный звук становится настолько совершенен, что вам нужен анализатор спектра и системы с искусственным интеллектом, которые могут независимо анализировать мультимедийный контент для определения его подлинности. Хотя звук уже может быть настолько убедительным (и его так трудно обнаружить), в сочетании с видео он становится еще более сложным, поскольку системы обнаружения дипфейка не так легко доступны для широкой публики.
Эволюция фишинга
Старомодная фишинговая атака заключается в отправке жертве электронного письма, в котором, например, утверждается, что у нее есть видео, на котором она находится в компрометирующем или затруднительном положении. Если платеж не будет получен в биткойнах или другой не отслеживаемой криптовалюте, отснятый материал будет отправлен друзьям и коллегам жертвы. Из страха, что такое видео действительно может существовать, некоторые люди платят выкуп, не обращаясь за помощью к полиции.
Вариант этой атаки deepfake включает в себя прикрепление к электронному письму некоторых изображений, чтобы продемонстрировать реальность угрозы с помощью увеличенных видеокадров. Лицо жертвы, занимающее большую часть кадра, было вставлено в изображения в цифровом виде в соответствии со стратегией, очень похожей на ту, которую мы объясняли ранее. Учитывая, что большинство из нас присутствует хотя бы в одной социальной сети с различными фотографиями, злоумышленнику не составит труда найти фотографии, которые можно передать моделям глубокого обучения.
Вишинговые атаки
В фишинговых атаках по электронной почте используются различные методы, чтобы вызвать ощущение срочности, чтобы заставить людей действовать быстро, не задумываясь и не прося помощи. Фишинговые атаки, проводимые по телефону, называются вишинговыми атаками. Они используют те же психологические приемы, что и фишинг, которые являются основой большинства мошенничества.
Примером вишинга может быть следующее:
Юристу из США позвонил его сын, который явно расстроился. Он сказал, что сбил беременную женщину в автокатастрофе и сейчас находится под стражей. Он сказал отцу, что ему позвонит государственный поверенный, который выступит посредником при выплате залога в размере 15 000 долларов.
Звонок исходил не от его сына, это были мошенники, использующие систему преобразования текста в речь, которую они обучили с помощью аудиоклипов его сына, взятых из социальных сетей, для создания звукового дипфейка. В ожидании звонка прокурора потерпевшему пришла в голову блестящая идея позвонить своей невестке и сыну на работу, чтобы сообщить им о случившемся. Сын, естественно, спокойно работал и подтвердил, что это все жульничество.
Генеральному директору Великобритании повезло меньше. Он получил письмо с адресным фишингом якобы от генерального директора немецкой материнской компании компании. Это потребовало выплаты примерно 335 000 долларов венгерскому поставщику в течение часа (опять же, было оказано давление, чтобы срочно доставить жертву). Сразу же за этим последовал телефонный звонок от генерального директора, который подтвердил, что платеж был срочным и должен быть произведен немедленно.
По словам жертвы, он узнал не только голос своего босса и легкий немецкий акцент, но также ритм и осторожное произношение. Так что он с радостью произвел оплату.
Как уберечься от дипфейков
Потенциальная угроза дипфейков признана правительством США. В англоязычном мире это уже конкретная реальность, но, как слишком часто бывает, заморские «моды» часто находят свое применение и на старом континенте, и, очевидно, также в Италии.
Следовательно, с этой точки зрения компании должны быть готовы взяться за решение этой проблемы, сочетая ее с принципами ИТ-безопасности (которая никогда не повредит). С этой точки зрения мы можем вспомнить некоторые практики, которые следует знать каждому, чтобы избежать неприятных событий:
- Никакие финансовые переводы не должны производиться исключительно по запросу по электронной почте. Всегда запрашивайте подтверждение, используя другой канал связи, например телефонный звонок, видеозвонок или личное собеседование;
- Используйте определенные фразы или ключевые слова для общения между коллегами или начальством: так будет легче понять, что с общением что-то не так. Чем больше вопросов вы зададите, тем больше вероятность, что вы получите ответы без смысла или с совершенно другими тонами голоса.
- Будьте очень осторожны, если кажется, что отправитель настаивает или торопится произвести платеж.
- Немедленно привлечь соответствующие правоохранительные органы (Почтовая полиция Италии), чтобы сообщить о происшествии.
Источник cloudsavvyit.com