МБХ медиа
Сейчас читаете:
Deepfake: порно и пропаганда. Видеорепортаж «МБХ медиа»

Современные технологии позволяют приделать лицо Трампа к Путину и создать видео, которое от настоящего не отличить. Возможно, именно эта технология станет главным двигателем фейковых новостей.

«Представьте себе кошмар: появляется видео президента Трампа, который говорит: «Я применил ядерное оружие против Северной Кореи». И кто-то взламывает его аккаунт в Твиттере, видео становится вирусным, и через 30 секунд у нас глобальный ядерный апокалипсис.

Считаю ли я, что это вероятный сценарий? Нет. Но его шанс не нулевой, и это уже должно напугать вас до смерти, верно? Потому что тот факт, что это не невозможно, уже должен вызывать беспокойство".

Это цитата из интервью Хани Фарида, профессора Калифорнийского университета Беркли, специалиста по определению поддельных электронных изображений.

Карьера Фарида началась со спортивной неудачи. В 2001 году он никак не мог победить своего партнера по теннису и в итоге решил обернуть ситуацию в шутку: приделал голову друга к телу теннисиста-чемпиона Андре Агасси в «Фотошопе». Пока Фарид водил курсором по вырезанному с фотографии лицу приятеля, он думал о том, как распознать следы «Фотошопа» на фото, и можно ли научить такому распознаванию компьютер.

Недавно его специализация обрела новое значение — нейросети научились делать поддельные видео с заменой лиц. Их называют DeepFake.

Пока что у этой технологии узкая ниша: порно с лицами знаменитостей (и мемы с заменой лиц актеров в фильмах). Это довольно кустарные работы, которые все еще можно определить на глаз, но уже совсем скоро нейросети будут менять лица идеально — это просто вопрос времени. И проделать такую операцию сможет любой — даже на стареньком рабочем ноутбуке: доступные программы с открытым исходным кодом вроде DeepFaceLab уже позволяют делать DeepFake без знаний программирования.

По ссылке ниже можно посмотреть наше видео об этой технологии. В нем мы говорим со специалистами по безопасности, разработчиками и даже — создателем нейро-порно.

И (а это спойлер!) на скорую руку делаем DeepFake с голосом оппозиционерки Любови Соболь. Против нее уже работает фабрика фейковых новостей «повара Путина» Евгения Пригожина. Соболь привела нам примеры политической заказухи против нее — в основном они касались манипуляций с фото. Но рано или поздно «Фабрики троллей» возьмутся и за DeepFake — это только вопрос времени.

А еще посмотрите репортаж «МБХ медиа», в котором Андрей Каганских «пробивает» себя по системе распознавания лиц чтобы доказать, как персональные данные утекают из полицейских видеокамер на черный рынок. Или — наш репортаж про ядерный могильник в самом центре Москвы.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Введите поисковый запрос и нажмите Enter.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: