Бухгалтеру звонит начальник и просит сделать срочный перевод крупной суммы |
А когда бухгалтер быстро это выполняет, выясняется, что это был НЕ начальник.
В интернете встречаются видео, где известный актер снимается в фильмах, где он никогда не был, или где политик говорит то, что в реальности и не думал говорить. Это и есть дипфейки.
Судя по опросам, каждый второй россиянин не знает, что такое дипфейк. Почти треть сотрудников крупных компаний уже сталкивалась с мошенническими атаками с использованием дипфейков.
Что это такое
Представьте себе талантливого пародиста, который может скопировать не только голос, но и каждую морщинку на лице оригинала.
А теперь представьте, что этого пародиста создал искусственный интеллект.
Это и есть дипфейк (от англ. deepfake: deep learning — глубинное обучение + fake — подделка).
Технологически — это синтезированный контент (чаще всего видео или аудио), созданный с помощью алгоритмов машинного обучения, в частности, генеративно-состязательных сетей (GAN).
Два ИИ (искусственных интеллекта) работают в паре:
- один (генератор) создает подделку,
- а второй (дискриминатор) пытается ее отличить от настоящей.
Они соревнуются друг с другом, пока генератор не начнет производить настолько убедительные фальшивки, что дискриминатор не сможет их распознать.
Это как бесконечный тренировочный бой, где оба бойца становятся все сильнее.
Кухня дипфейков: Как их делают
- Сбор данных. Нужно много изображений и видео человека, которого собираются «клонировать». Чем больше ракурсов, эмоций и освещения — тем лучше. Для голосовых дипфейков нужны часы аудиозаписей.
- Обучение модели. Эту кучу данных «скармливают» нейросети. Она дни и ночи напролет изучает, как движутся мышцы лица, как ложится свет, как звучит голос.
- Наложение (или генерация). Когда модель натренирована, ей «подсовывают» целевое видео или аудио. Алгоритм начинает кропотливо заменять оригинальное лицо на синтезированное или подстраивать голос под нужную речь.
-Постобработка. Сырую «сборку» часто дорабатывают вручную: подгоняют цвета, убирают артефакты, добавляют шумы, чтобы видео не выглядело слишком «стерильным».
Для создания дипфейков часто используются такие инструменты, как DeepFaceLab, FaceSwap и другие специализированные программы.
Зачем их используют: Светлая и темная сторона
Вот здесь начинается самое интересное. Дипфейк — это просто инструмент. Как молоток: им можно построить дом, а можно... ну, вы поняли. Рассмотрим два момента, связанных с дипфейками - это их светлая и темная стороны.
Светлая сторона
- Киноиндустрия. Технология позволяет «омолодить» актера для роли (как в «Мстителях»), доиграть сцены, если актер трагически погиб во время съемок, или даже дать вторую жизнь легендам вроде Брюса Ли для рекламы.
- Образование. Представьте, что Наполеон лично рассказывает вам о битве при Аустерлице, а Эйнштейн объясняет теорию относительности своим голосом. Это может перевернуть процесс обучения.
- Искусство и развлечения. Креативные мемы, музыкальные клипы, где умершие артисты поют дуэтом с современными звездами, пародии — поле для фантазии безгранично.
- Реклама и бренды. Можно локализовать рекламу для разных стран, заставив блогера «говорить» на языке целевой аудитории, не привозя его на съемки.
Темная сторона
- Мошенничество и фишинг. Это главная угроза. Представьте, что вам звонит ваш «начальник» (с его голосом) и просит срочно перевести деньги на «нужный счет». Или «родственник» в панике умоляет о финансовой помощи. Такие случаи уже были, и люди теряли много денег.
- Компромат и шантаж. Создание компрометирующих видео для оказания давления на человека. В этом большая опасность для женщин, для знаменитостей и не только.
- Фейковые новости и манипуляция общественным мнением. Фейковые обращения политиков, военных, высказывания, которых они не произносили, — все это может спровоцировать панику, социальные волнения или даже военные конфликты.
Можно ли защититься
Паниковать не стоит, но необходимо быть бдительным.
1. Критическое мышление — наш главный щит. Видите шокирующее видео? Задайте вопросы: Кто это опубликовал? Зачем? Откуда у них этот материал? Есть ли подтверждение из других, проверенных источников?
2. Внимание к деталям. Ранние дипфейки выдавали себя артефактами: размытые контуры лица, странное моргание (или его отсутствие), несинхронность губ и речи, «плывущие» зубы. Сейчас они становятся идеальнее, но мелкие ошибки еще есть.
3. Цифровая гигиена. Не выкладывайте в открытый доступ тонны своих фото и видео в высоком качестве. Вы просто помогаете тренировать модели для своих же дипфейков.
4. Технологии против технологий. Уже разрабатываются системы для детекции дипфейков. Крупные платформы (вроде Meta и Google) вкладывают в это миллионы. В будущем, возможно, появится цифровая «печать подлинности» для медиафайлов.
Итоги
Дипфейк — это мощнейшая технология, которая стирает грань между реальным и цифровым. Она дает невероятные творческие возможности, но и создает беспрецедентные угрозы.
«Видео-доказательство» уже перестанет быть неоспоримым аргументом. Это заставляет нас не доверять слепо картинке, а включать голову и быть умнее, внимательнее и ответственнее.
Технология не хороша и не плоха сама по себе. Все зависит от того, в чьих руках она окажется (так же, как и молоток). Наша задача — научиться жить в этом новом, стремительно меняющемся мире.
Дипфейки: искусство подделки реальности
Вступите в группу, и вы сможете просматривать изображения в полном размере
![]()
Это интересно
0
|
|||
Последние откомментированные темы: