Так получилось, что в течение нескольких лет изучаю политические риски и методы управления массовым сознанием. Моя особая «любовь» в этом вопросе связана с потенциальными рисками эмоциональных, а не рациональных решений, к которым могут подтолкнуть дипфейки в любой точке мира, в том числе и в Казахстане.
Дипфейки (deepfake) – это манипуляция при помощи аудио и видеоматериалов, создающая впечатление реалистичности видео. Слово «дипфейк» произошло от английского термина «deep learning» — глубокое обучение и «fake» — фальшивый и подразумевает использование искусственного интеллекта, благодаря которому создается видео, в котором человек говорит или делает то, что он никогда на самом деле не говорил и не делал.
В основе дипфейков лежат алгоритмы на базе машинного обучения, способные генерировать новый контент из набора определенных данных. Поэтому для качественного выполнения задачи, ИИ необходимо иметь как можно больше исходного материала, которым в основном являются фото и видео объекта.
Как правило, отличить дипфейк от реального человека обывателю сложно. Ранние дипфейки было возможно распознать по частоте морганий глаз, например. Сейчас этот инструмент развивается так быстро, что для обычного человека различить правду и ложь становится все труднее. Современные алгоритмы способны генерировать изображения, видео, голосовые комбинации слов, встраивать и дорабатывать изображения – причем, эти инструменты развиваются группами исследователей по отдельности, но в совокупности могут создать практически абсолютную по качеству виртуальную реальность.
По данным некоторых исследований, 96% всех дипфейков в интернете – это порноролики. Стоит отметить, что сам алгоритм был создан в Стэнфорде для вполне пристойных целей, но стал известен после того, как один из пользователей развлекательного сервиса Reddit использовал его в качестве развлечения – чтобы прикреплять лица знаменитостей к телам порноактеров. В сериале «Силиконовая долина» о команде программистов порноиндустрия была названа двигателем прогресса и для дипфейков это оказалось именно так.
Дипфейки признаны угрозой еще с 2018 года. Не только правительства развитых стран, но и корпорации, например, Facebook, инвестируют миллионы долларов в разработку алгоритмов, распознающих дипфейки.
Безусловно, в дипфейках, как и во множестве других технологий есть политические угрозы.
На моих занятиях по критическому восприятию новостей предлагаю рассмотреть конкретные кейсы – например, распространенную в 2019 году фейковую новость о смерти президента Туркменистана Гурбангулы Бердымухамедова. По этому поводу шума было достаточно. Конечно, распространению фейка немало способствовала информационная закрытость Туркменистана.
Но на какие подвиги потянуло бы туркменскую политическую элиту, если бы по интернету распространялся не пространный текст, а видео с подобным сюжетом? Когда виртуальный образ, который выглядит и говорит как президент, падает замертво от пули или сердечного приступа?
Если взять текущую сложную ситуацию в Нагорном Карабахе, которая каждый день уносит человеческие жизни, что было бы, если бы люди увидели дипфейковое видео, в котором президент одной страны стреляет в безоружных пленных? Учитывая, как накалена обстановка.
И что было бы, если бы в интернете появилось видео, в котором человек, который выглядит и говорит как президент Беларуси Лукашенко, отдает приказ расстреливать гражданских? А ведь появление подобного фейкового видео вполне возможно, учитывая, что в протестной массе много специалистов в сфере ИТ.
В Казахстане, как и во многих других странах, источниками фейковых новостей и домыслов являются интернет, анонимные телеграм-каналы и вотсап. К большому сожалению, население больше верит анонимным источникам, нежели официальным заявлениям. Недоверие к государственным СМИ способствует внешним манипулятивным воздействиям.
Поэтому в нашей стране реализация информационных атак с использованием дипфейков приведет к более серьезным последствиям, чем в странах, в которых у СМИ больше независимости, значит, сильнее и позиции в обществе. Население просто не знает о том, что такая угроза существует.
Не стоит полагать, что риски беспорядков, (в том числе спровоцированных дипфейками) высоки только в электоральный период. Например, для межэтнических конфликтов актуально любое время и место. Поэтому данный вид рисков необходимо учитывать и формировать общие алгоритмы реагирования со стороны государственных органов и силовых ведомств.
«Запрещать и не пущать» в случае фейков и дипфейков – абсолютно проигрышная стратегия. Хотя в ряде развитых стран уже прорабатывается законодательная база по борьбе с потенциальным вредом дипфейков.
К сожалению, в Казахстане ясных путей реагирования, кроме как отключения интернета, в ближайшем будущем не предвидится. Но при таком решении нарастающая цифровизация работы госорганов приведет к коллапсу системы и не меньшему кризису в итоге. Если полностью оцифровать медицинские услуги, то в случае перебоев работы интернета, устаревшее решение «дернуть рубильник» может стоить человеческих жизней. Поэтому так важно адекватно воспринимать риски и пользу технологий.
Современные технологии необходимо рассматривать как объективную реальность или обстоятельства непреодолимой силы. Необходимо учиться жить и работать в условиях виртуальной реальности, ровно так же, как мы постепенно привыкаем жить в условиях пандемии.
Сами по себе технологии, и дипфейки в том числе, не несут в себе негатива – одни и те же алгоритмы в руках ученых помогают восполнять пробелы изучения космоса, а в руках кибертерористов могут посеять хаос и развязать войну.
Именно поэтому работа по совершенствованию технологии генерации контента (дипфейков) не прекращается, а, наоборот, поощряется правительствами разных стран при одновременной борьбе с ними же.
Общество креативно и будет использовать подобные инструменты не только для развлечения.
Например, прямо сейчас доступно видео, в котором Владимир Путин и Ким Чен Ын предупреждают американцев о хрупкости демократии в противовес нападкам президента США Дональда Трампа на голосование по почте.
Эти видео – результат политической кампании сторонников демократов. Ролики планировали к трансляции по телевизионным каналам, но, в последний момент станции отозвали их из эфира. По причине того, что американцы еще не готовы к такому вызову. Хотя у политической рекламы с использованием дипфейковых образов политиков – огромные перспективы.
На мой взгляд, в дипфейках, вернее, самих алгоритмах генерации контента – будущее мировой политики.
И реализации этого будущего, как ни странно, способствует китайская модель общественного управления через систему социальных кредитов. Эта модель управления обществом высокоэффективна, поэтому она будет реализовываться во все большем количестве стран, не смотря на сопротивление определенной части общества.
Исследования показали, что подавляющее большинство (86%) респондентов из числа обычных людей в разных точках Земли готовы смириться с потерей части прав взамен на усиление общественного порядка в противодействии эпидемии.
Коронавирус подтолкнул землян к готовности жертвовать правами человека и к правлению алгоритмов.
Поэтому мне хочется изложить гипотезу о формировании политического тренда будущего – виртуальных политиках.
Мое предположение основано на нескольких фактах:В мировой политике уже есть прецеденты, когда мэром выбирали кота и осла. Поэтому электоральная кампания за сгенерированного виртуального мэра – вполне реализуемая затея.
Уже сейчас активно развивается индустрия виртуальных артистов – например, японская поп-звезда Мику Хатсуне (Hatsune Miku) – продукт техноиндустрии. Ее относят к «вокалоидам» – по названию программы синтеза пения, разработанной компанией Yamaha. Разработки шли с 2000 года, но успех пришел в 2007 году с появлением вокалоида Мику Хатсуне, покорившей сердца миллионов людей не только в Японии, но и по всему миру. Гипер-реалити шоу, на котором люди пели и танцевали вместе с голограммой проходили в разных уголках планеты, собирая десятки тысяч фанатов неживой певицы.
Алгоритмы, на которых основаны успехи вокалоидов в качестве артистов (изучение запросов на образ и репертуар), могут быть использованы и для виртуальных политиков. Достаточно популярный социологический опрос на любимого киногероя в качестве президента страны может эволюционировать в виртуального политика.
Растущий запрос на «гламуризацию» политики – фактор Зеленского. Эмоциональный, а не рациональный выбор во время голосования создаст аванс доверия популярным виртуальным образам во время электоральной кампании.
Тот самый случай, когда уверена в том, что партия, которой управляют «Мстители», получит поддержку со стороны молодежи во время выборов. Уверена, что виртуальный Аблай-хан в 2019 году в Казахстане получил бы больше голосов, чем некоторые кандидаты в президенты вместе взятые. Достаточно было бы пояснить, что это «тот самый». Для мобилизации населения нам нужны виртуальный Аблай-хан, виртуальный Абай, которые бы обращались к людям наподобие возрожденного Сальвадора Дали в его собственном музее.
Виртуальный политик не подвержен коррупции, а формирование политической повестки на основе социологических опросов – это тот же самый инструмент, которым пользуются политики в любой стране мира. Та самая демократия, о которой все так говорят.
Для виртуального политика микротаргетинг будет еще более эффективным, нежели для политика живого. Потому что живой человек ограничен состоянием здоровья, плотностью графика и физическими потребностями в отдыхе, а виртуальный политик будет работать 24/7.
Из очевидных минусов – возможность взлома и некорректного формирования базовых алгоритмов – расовых, гендерных и других предрассудков вследствие человеческого фактора на уровне закладки данных.
Но все же перечисленных преимуществ гораздо больше, чем недостатков, поэтому виртуальные политики, на мой взгляд – это будущее нашего мира.