ИИ может солгать: откуда взялись дипфейки и как с ними можно бороться

Ulysmedia
коллаж Ulysmedia

В марте этого года в социальных сетях появились дипфейки, на которых экс-глава «Казатомпрома» Мухтар Джакишев якобы предлагает то купить акции, то поучаствовать в новом проекте и получить миллионную прибыль, практически ничего не делая. В одном из роликов он даже «дает интервью» известному журналисту Вадиму Борейко. И он не единственный казахстанец, кто уже пострадал от дипфейков. Жертвами новых технологий уже стали бизнесмен Маргулан Сейсембай, юрист Тимур Назханов и телеведущая Динара Саду, передает Ulysmedia.kz.

Как все начиналось

Считается, что дипфейки (от англ. «deepfake», сочетание «deep learning» — глубокое обучение и «fake» — подделка) впервые появились в конце 2017 года на платформе Reddit. Пользователь под псевдонимом «deepfakes» создал сообщество, где делился видеороликами, в которых лица знаменитостей были наложены на тела актеров в порнографических фильмах с использованием технологии замены лиц. Эти видео быстро привлекли внимание и вызвали громкие дискуссии об этике и потенциальных угрозах подобных технологий. 

А на самом деле все началось задолго до Reddit. В 1997 году группа исследователей разработала программу Video Rewrite, которая позволяла синтезировать новые движения губ в видеозаписях, заставляя человека на видео произносить слова из другой аудиодорожки. Это было одним из первых примеров автоматизированной анимации лиц на основе аудио.  

В 2014 году Иэн Гудфеллоу и его коллеги представили генеративно-состязательные сети (GANs), которые стали основой для многих современных технологий создания дипфейков. GANs состоят из двух нейронных сетей — генератора и дискриминатора, которые обучаются в процессе соперничества: генератор создает изображения, а дискриминатор пытается отличить подделки от реальных данных. Это значительно улучшило качество синтезированных изображений и видео.  

Пранк - дедушка дипфейка

А пока технологии искусственного интеллекта еще не были так развиты, обманывать известных людей, выдавая себя за знаменитостей и политиков приходилось «вручную» - имитируя голос и накладывая грим. Особенно преуспели в этом российские пранкеры Вован (Владимир Кузнецов) и Лексус (Алексей Столяров). 

Их розыгрыши на высшем политическом уровне, не раз приводили к международным скандалам. 

В одном из случаев они представились экс-президентом Украины Петром Порошенко и смогли выйти на связь с бывшим госсекретарём США Хиллари Клинтон. В ходе разговора обсуждались весьма деликатные вопросы — от будущих выборов до её отношения к Дональду Трампу (леди назвала его «плохим парнем»). Сам звонок был построен так, чтобы вызвать доверие собеседницы, и, судя по всему, это удалось. 

В другой истории в апреле 2019 года, Вован и Лексус сыграли роль Владимира Зеленского — новоизбранного президента Украины. Их разговор с Эммануэлем Макроном длился около пятнадцати минут. Президент Франции в этот момент пребывал в уверенности, что говорит с реальным коллегой, и потому делился своими взглядами на украинские выборы и ситуацию в регионе. Но, как оказалось позже, всё происходившее было искусной инсценировкой. 

В Казахстане эти пранкеры тоже отметились: они связались с оппозиционным политиком Мухтаром Аблязовым, представившись российскими оппозиционерами. Они расспрашивали о планах, политической стратегии и действиях в ближайшем будущем. По словам Лексуса, технологию «дипфейк» они не использовали, это был обычный грим. Развитие искусственного интеллекта избавило и пранкеров, и просто обманщиков от необходимости обладать незаурядным актерским талантом. 

Новые технологии 

В начале 2024 года имя певицы Тейлор Свифт оказалось в эпицентре международного скандала, но не из-за нового альбома или гастрольного тура, а из-за волны фейковых изображений, сгенерированных искусственным интеллектом. В сети начали стремительно распространяться дипфейки с её участием — порно-изображения, созданные без её согласия и не имеющие отношения к реальности. Особенно активно они циркулировали в соцсетях X (бывший Twitter), Facebook и Reddit. Один из постов на X собрал более 45 миллионов просмотров, прежде чем был удалён. Реакция не заставила себя ждать: фанаты Свифт, известные как «свифти», запустили стихийную онлайн-кампанию. Они массово отправляли жалобы на контент, а также начали публиковать положительные и реальные изображения певицы, чтобы вытеснить дипфейки из поисковых систем. Платформа X была вынуждена временно заблокировать поиск по имени Тейлор Свифт. Ситуация вышла на уровень государственных обсуждений — пресс-секретарь Белого дома Карин Жан-Пьер охарактеризовала происходящее как тревожный сигнал и отметила необходимость разработки чётких законодательных мер, способных защитить граждан от подобных инцидентов. 

Примерно в это же время в политическом поле разразился другой дипфейковый инцидент, на этот раз связанный с сенатором США Беном Кардином. В сентябре 2024 года злоумышленники, используя технологии генерации видео и аудио, организовали видеозвонок с сенатором от имени министра иностранных дел Украины Дмитрия Кулебы. Во время беседы фальшивый Кулеба задал ряд чувствительных вопросов, которые вызвали у Кардина подозрение. Как только сенатор понял, что его собеседник не тот, за кого себя выдаёт, он прекратил разговор и немедленно уведомил соответствующие службы. Расследованием инцидента занялось ФБР.

2024 год вообще оказался очень урожайным на скандалы с дипфейками. В мае британская инженерная компания Arup стала жертвой мошенничества с использованием дипфейков. Злоумышленники, используя технологии искусственного интеллекта, создали поддельный видеозвонок, в котором генеральный директор компании якобы поручил перевести $25 миллионов на определенный счет. Сотрудники, не заподозрив подвоха, выполнили перевод. Когда обман вскрылся, было уже поздно. 

Казахстан тоже оказался, что называется, в тренде. В мае прошлого года предприниматель и общественный деятель Маргулан Сейсембаев стал жертвой такой схемы: мошенники использовали его реальное видео, наложив фальшивый звук, чтобы убедить людей оставить личные данные на фейковом сайте.  

В августе того же года телеведущая телеканала «24KZ» Динара Саду столкнулась с ситуацией, когда мошенники сгенерировали ее голос с помощью нейросети и использовали его в фальшивой рекламе финансового проекта. Ведущая подчеркнула, что никогда не участвовала в подобных инициативах, и выразила обеспокоенность тем, что люди могут поверить в такие подделки. 

Примерно в то же время казахстанский адвокат Таир Назханов столкнулся с ситуацией, когда его голос был подделан в одном из видео, где он якобы предлагал юридические услуги по возврату денег, а мошенники указали свои реквизиты для оплаты. Юрист сообщил об этом в полицию, однако правоохранительные органы посчитали, что в данном случае усматриваются гражданско-правовые отношения и нет оснований для вмешательства.  

Закон есть закон?

Технологии развиваются так быстро, что законодательство за ними просто не успевает. Но попытки объявить дипфейки вне закона уже предпринимаются. 

В США на федеральном уровне всё ещё нет единого закона, регулирующего дипфейковые технологии. Тем не менее, в сентябре 2023 года в Конгресс был внесён законопроект под названием DEEPFAKES Accountability Act, направленный на защиту национальной безопасности и предоставление юридических инструментов жертвам, пострадавшим от дипфейков. Законопроект предусматривает маркировку синтетического контента и вводит ответственность за его злонамеренное использование. Параллельно на уровне штатов уже начали действовать свои законы. Так, в марте Нью-Джерси стал первым штатом, установившим уголовную ответственность за создание и распространение вводящих в заблуждение медиафайлов. Нарушителям грозит до пяти лет лишения свободы.

В Европейском союзе борьба с дипфейками ведется в рамках более широкой инициативы по регулированию искусственного интеллекта. С августа 2024 года вступил в силу «Акт об искусственном интеллекте» (AI Act) — первый в мире закон, системно регулирующий ИИ. Он требует, чтобы контент, созданный или изменённый при помощи ИИ, был чётко маркирован как синтетический. Провайдеры обязаны информировать пользователей об использовании ИИ и предпринимать меры против его использования в манипулятивных целях.

Великобритания также приняла серьёзные меры. В январе 2025 года вступил в силу «Акт о безопасности в интернете» (Online Safety Act), который напрямую касается сексуальных дипфейков. За создание и распространение такого контента без согласия пострадавшего теперь грозит до двух лет тюремного заключения.

В Китае ещё в январе 2023 года вступили в силу «Положения об управлении услугами глубокой синтезии в интернете». Они обязывают всех поставщиков цифровых платформ, работающих с дипфейками и другим синтетическим контентом, маркировать материалы и не допускать их использования в целях дезинформации или обмана. 

Южная Корея тоже усилила своё законодательство в сфере дипфейков осенью 2024 года. Новый закон предусматривает до трёх лет тюремного заключения или штраф до 30 миллионов вон за владение и просмотр дипфейк-порнографии. А за создание и распространение такого контента — до пяти лет лишения свободы. 

В Казахстане разработан проект закона «Об искусственном интеллекте». При обсуждении законопроекта депутат мажилиса Екатерина Смышляева предлагала ввести уголовную ответственность за дипфейки. Но в текст вошел лишь запрет на «использование подсознательных, манипулятивных или иных методов, существенно искажающих поведение физического лица и ограничивающие способность принимать осознанные решения или вынуждающих принимать решение, которые могут причинить лицу вред или создавать угрозу причинения вреда жизни, здоровью и имуществу и иного вреда лицу». 

Так что для борьбы с новыми технологиями пока придется пользоваться старыми законодательными нормами административного и уголовного кодекса – оскорбление чести и достоинства и мошенничество. 

А тем временем дипфейки с Мухтаром Джакишевым продолжают регулярно появляться в социальных сетях…