Поиск

Select theme:

Дипфейки: когда видео и голос перестают быть правдой

Технология синтетических медиа на основе искусственного интеллекта превратилась в одну из главных угроз информационной безопасности. Дипфейки — поддельные видео, аудио и изображения, позволяют изображать людей говорящими или делающими то, чего никогда не происходило.

В основе технологии лежат генеративно-состязательные нейронные сети (GAN), которые анализируют огромные массивы данных и на их основе воссоздают новые визуальные и звуковые сцены, правдоподобно имитируя реальность. Доступность специализированного программного обеспечения, рост вычислительных мощностей и появление онлайн-генераторов сделали инструмент доступным не только крупным студиям, но и рядовым пользователям интернета. Сегодня даже специалисты не всегда способны отличить подделку от оригинала.

Технология находит применение в кино и рекламе для замены актёров, воссоздания сцен с участием умерших или недоступных артистов и создания спецэффектов. В образовании и культуре дипфейки используются для реконструкции исторических событий, демонстрации речи известных личностей в учебных материалах, а также в художественных проектах с соответствующей пометкой о генерации ИИ.

В развлекательной сфере технология применяется при создании мемов, развлекательных видео и игровых эффектов. В подобных случаях контент прозрачен для аудитории: указывается, что он сгенерирован искусственным интеллектом, и не создаётся ложного впечатления о событиях или действиях конкретных людей.

Однако параллельно технология активно используется в преступных и деструктивных целях. Поддельные видео с участием политиков способны менять общественное мнение и влиять на избирательные процессы. Среди задокументированных примеров дипфейк-ролики с президентом Венесуэлы Николасом Мадуро и другими мировыми лидерами, где те якобы произносят заявления или участвуют в событиях, которых не было.

Подобные материалы распространяются через социальные сети и мессенджеры, создавая иллюзию достоверности. Зафиксированы также случаи финансового мошенничества: сотрудники компаний переводили миллионы евро злоумышленникам, подделавшим голос руководителей.

Поддельные рекламные кампании с участием знаменитостей вводят потребителей в заблуждение, вынуждая платить за несуществующие продукты или услуги. Широкую огласку получили случаи дипфейк-порнографии без согласия жертв, в частности, с участием актрис Галь Гадот и Коллиен Фернандес. Компрометирующие видео также создаются с целью шантажа, угроз и психологического давления.

Поддельный контент с участием публичных людей стал одним из наиболее заметных инструментов дезинформации. Всемирно известные артисты появлялись в сфабрикованных роликах, рекламирующих несуществующие продукты или якобы содержащих скандальные высказывания.

Видео с Николасом Мадуро и рядом других лидеров показывали их в ложных сценах, вызывая международный резонанс. Многие публичные женщины сталкивались с дипфейк-порнографией, что привлекло широкое внимание СМИ и общества. Подобные видео наносят ущерб не только репутации самих знаменитостей, но и широкой аудитории, которая рискует принять подделку за реальность. Ложные видео создают неверное впечатление о высказываниях и поступках людей, нередко приводят к разрыву контрактов и финансовым потерям, а в более широком контексте усиливают поляризацию общества и подрывают доверие к медиа в целом. Правовые системы разных стран начали реагировать на угрозу, однако регулирование пока развивается медленно.

Высокий суд Дели (Индия) обязал «Google», «Meta» и «Amazon» удалить дипфейк-контент с участием крикетиста Гаутама Гамбхира, распространявшийся без его согласия. Бомбейский суд вынес решение об удалении роликов, где актёр Акшай Кумар был изображён в провокационных сценах, особо указав на угрозу общественному порядку.В Германии дело Коллиен Фернандес стало катализатором ужесточения законодательства против дипфейк-порнографии. В США отдельные штаты принимают законы, ограничивающие применение технологии в ходе избирательных кампаний, и вводят санкции против платформ, не удаляющих опасный контент.

Юристы между тем указывают на сложность установления авторства и отслеживания распространения дипфейков: интернет-анонимность и различие юрисдикций создают правовую «серую зону», которую законодатели лишь постепенно начинают закрывать.

Эксперты рекомендуют доверять только проверенным медиа и официальным источникам, обращать внимание на визуальные несоответствия в видео такие как движения губ, тени, цвет глаз, и не распространять сенсационный контент без предварительной проверки.

Важно также ограничивать публикацию личных фотографий и видео в открытом доступе и использовать двухфакторную аутентификацию для защиты аккаунтов. При столкновении с дипфейком необходимо сохранять доказательства и обращаться в правоохранительные органы.

По оценкам экспертов, ежегодный ущерб от дипфейк-мошенничества исчисляется миллиардами долларов. Способность людей выявлять подделки лишь незначительно превышает уровень случайного угадывания, а современные генераторы нередко обманывают и автоматические системы детектирования.

 

Новости по теме: