Нейросети способны подделывать голос и видео — отличить оригинал от дипфейка становится все сложнее

Оцените материал
(0 голосов)

23/11/2023

Танцующая королева разорвала интернет в 2020 году. Альтернативное поздравление от монаршей особы собрало в совокупности более 100 млн просмотров. Вау-эффект от увиденного вызывал у пользователей непреодолимое желание поделиться увиденным с родственниками и друзьями. При этом создатели дипфейка сделали работу достаточно небрежно, все понимали, что перед ними подделка. В этом и заключалась задумка авторов — продемонстрировать возможность современных технологий в создании дипфейков.

Впервые о дипфейках заговорили еще в 2017 году. Любители контента с пометкой 18+ использовали нейросеть для изменения внешности актеров в порнороликах на лица голливудских звезд.

Развитие технологий позволило минимизировать участие человека в этом процессе. Теперь любой пользователь, даже с одной свободной рукой, может создавать подобный контент. Пока специфическое творчество было направлено на удовлетворение индивидуальных потребностей, оно не несло никаких проблем, кроме кровавых мозолей.

Сегодня ІТ-аналитики уверены: технология дипфейк может стать самой опасной в цифровой сфере за последние десятилетия. Фактически с ее помощью можно полностью уничтожить имидж любого политика, формируя абсурдные заявления, которые в реальности он не делал.

Дипфейки уже активно используют в российско-украинском конфликте. Недавно интернет облетело фейковое обращение президента РФ Владимира Путина.

С каждым разом отличить оригинал от дипфейка становится все сложнее. Только всматриваясь в качественную подделку, можно невербально заподозрить вмешательство по отдельным фрагментам мимики. Вот только уделить время этому процессу, как правило, не позволяет тот самый вау-эффект.

Переполняющие эмоции требуют незамедлительно поделиться увиденным. Так произошло и с фейковым обращением Залужного, которое завирусилось на просторах украинского интернета.

Нейросети способны подделывать не только визуальный контент. Машинное обучение позволило достичь практически идентичных голосовых интонаций. Отличить услышанную подделку порой не способны даже близкие люди. Технология активно используется телефонными мошенниками для выманивания денег у родственников под предлогом экстренной ситуации, на которую необходимы непредвиденные траты.



Представители CNN провели эксперимент, в ходе которого мать журналиста отвечала на сгенерированные фразы, звучащие голосом сына.

«Мама, тебе не кажется, что мой голос звучит немного по-другому?» — в итоге был задан вопрос женщине. Она ответила, что заметила, что голос звучит как-то по-американски.
«На самом деле это не я, — сказал голос сына, — Это голос, созданный компьютером».
«Боже мой, ты серьезно?!» — воскликнула удивленнная женщина.

Нейросети с массовым публичным доступом способны на гораздо более технологичные дипфейки. При создании подделки можно переводить голос на иностранные языки с сохранением оригинального произношения.

Объектом для своеобразной атаки стал и президент Беларуси Александр Лукашенко, о чем он рассказал на встрече с молодежью.

Эпоха постправды стала частью пространства, где каждый из нас порой проводит внушительный отрезок своего дня. Важно помнить, что если публикация вызывает у вас вау-эффект, а эмоции начинают переполнять, скорее всего, вами манипулируют.



Источник: tvr.by
Фото: WWW

Состоялась встреча топографических групп правительственных делегаций Кыргызстана и Таджикистана
04/03/2024 В соответствии с достигнутой договоренностью в период с 25…
Центральную Азию хотят сделать стороной конфликта на Украине?
03/03/2024 Спустя два года после начала российской Специальной военной операции…
Взаимодействие в интеграционных объединениях обсудили главы МИД Кыргызстана и РФ
03/03/2024 Главы МИД Кыргызстана и России обсудили взаимодействие в интеграционных…
Ветряные мельницы вместо АЭС: вечный холод готова принести Южная Корея в страны Центральной Азии
03/03/2024 Президент Кыргызстана подписал закон о ратификации соглашения между правительством…