Отправляет email-рассылки с помощью сервиса Sendsay
Открытая группа
17435 участников
Администратор Надежда(CompGramotnost)


Модератор Юрий Компас

Активные участники:


←  Предыдущая тема Все темы Следующая тема →

Дипфейки: искусство подделки реальности

Бухгалтеру звонит начальник и просит сделать срочный перевод крупной суммы  |   

А когда бухгалтер быстро это выполняет, выясняется, что это был НЕ начальник.

В интернете встречаются видео, где известный актер снимается в фильмах, где он никогда не был, или где политик говорит то, что в реальности и не думал говорить. Это и есть дипфейки.

Судя по опросам, каждый второй россиянин не знает, что такое дипфейк. Почти треть сотрудников крупных компаний уже сталкивалась с мошенническими атаками с использованием дипфейков.

Что это такое

Представьте себе талантливого пародиста, который может скопировать не только голос, но и каждую морщинку на лице оригинала.

А теперь представьте, что этого пародиста создал искусственный интеллект.

Это и есть дипфейк (от англ. deepfake: deep learning — глубинное обучение + fake — подделка).

Технологически — это синтезированный контент (чаще всего видео или аудио), созданный с помощью алгоритмов машинного обучения, в частности, генеративно-состязательных сетей (GAN).

Два ИИ (искусственных интеллекта) работают в паре:

- один (генератор) создает подделку,

- а второй (дискриминатор) пытается ее отличить от настоящей.

Они соревнуются друг с другом, пока генератор не начнет производить настолько убедительные фальшивки, что дискриминатор не сможет их распознать.

Это как бесконечный тренировочный бой, где оба бойца становятся все сильнее.

Кухня дипфейков: Как их делают

- Сбор данных. Нужно много изображений и видео человека, которого собираются «клонировать». Чем больше ракурсов, эмоций и освещения — тем лучше. Для голосовых дипфейков нужны часы аудиозаписей.

- Обучение модели. Эту кучу данных «скармливают» нейросети. Она дни и ночи напролет изучает, как движутся мышцы лица, как ложится свет, как звучит голос.

- Наложение (или генерация). Когда модель натренирована, ей «подсовывают» целевое видео или аудио. Алгоритм начинает кропотливо заменять оригинальное лицо на синтезированное или подстраивать голос под нужную речь.

-Постобработка. Сырую «сборку» часто дорабатывают вручную: подгоняют цвета, убирают артефакты, добавляют шумы, чтобы видео не выглядело слишком «стерильным».

Для создания дипфейков часто используются такие инструменты, как DeepFaceLab, FaceSwap и другие специализированные программы.

Зачем их используют: Светлая и темная сторона

Вот здесь начинается самое интересное. Дипфейк — это просто инструмент. Как молоток: им можно построить дом, а можно... ну, вы поняли. Рассмотрим два момента, связанных с дипфейками - это их светлая и темная стороны.

Светлая сторона

- Киноиндустрия. Технология позволяет «омолодить» актера для роли (как в «Мстителях»), доиграть сцены, если актер трагически погиб во время съемок, или даже дать вторую жизнь легендам вроде Брюса Ли для рекламы.

- Образование. Представьте, что Наполеон лично рассказывает вам о битве при Аустерлице, а Эйнштейн объясняет теорию относительности своим голосом. Это может перевернуть процесс обучения.

- Искусство и развлечения. Креативные мемы, музыкальные клипы, где умершие артисты поют дуэтом с современными звездами, пародии — поле для фантазии безгранично.

- Реклама и бренды. Можно локализовать рекламу для разных стран, заставив блогера «говорить» на языке целевой аудитории, не привозя его на съемки.

Темная сторона

- Мошенничество и фишинг. Это главная угроза. Представьте, что вам звонит ваш «начальник» (с его голосом) и просит срочно перевести деньги на «нужный счет». Или «родственник» в панике умоляет о финансовой помощи. Такие случаи уже были, и люди теряли много денег.

- Компромат и шантаж. Создание компрометирующих видео для оказания давления на человека. В этом большая опасность для женщин, для знаменитостей и не только.

- Фейковые новости и манипуляция общественным мнением. Фейковые обращения политиков, военных, высказывания, которых они не произносили, — все это может спровоцировать панику, социальные волнения или даже военные конфликты.

Можно ли защититься

Паниковать не стоит, но необходимо быть бдительным.

1. Критическое мышление — наш главный щит. Видите шокирующее видео? Задайте вопросы: Кто это опубликовал? Зачем? Откуда у них этот материал? Есть ли подтверждение из других, проверенных источников?

2. Внимание к деталям. Ранние дипфейки выдавали себя артефактами: размытые контуры лица, странное моргание (или его отсутствие), несинхронность губ и речи, «плывущие» зубы. Сейчас они становятся идеальнее, но мелкие ошибки еще есть.

3. Цифровая гигиена. Не выкладывайте в открытый доступ тонны своих фото и видео в высоком качестве. Вы просто помогаете тренировать модели для своих же дипфейков.

4. Технологии против технологий. Уже разрабатываются системы для детекции дипфейков. Крупные платформы (вроде Meta и Google) вкладывают в это миллионы. В будущем, возможно, появится цифровая «печать подлинности» для медиафайлов.

Итоги

Дипфейк — это мощнейшая технология, которая стирает грань между реальным и цифровым. Она дает невероятные творческие возможности, но и создает беспрецедентные угрозы.

«Видео-доказательство» уже перестанет быть неоспоримым аргументом. Это заставляет нас не доверять слепо картинке, а включать голову и быть умнее, внимательнее и ответственнее.

Технология не хороша и не плоха сама по себе. Все зависит от того, в чьих руках она окажется (так же, как и молоток). Наша задача — научиться жить в этом новом, стремительно меняющемся мире.

Дипфейки: искусство подделки реальности

 

Вступите в группу, и вы сможете просматривать изображения в полном размере

Это интересно
0

3 дня назад
Пожаловаться Просмотров: 41  
←  Предыдущая тема Все темы Следующая тема →


Комментарии временно отключены