Глубокие фейки и политическая манипуляция
Практически каждый день американские СМИ пишут о «российском вмешательстве в американские выборы через Интернет». Крупные международные и специализированные издания со штаб-квартирами в США методично повторяют легенды о «русских троллях» и «хакерах из ГРУ», хотя помимо голословных обвинений не было представлено ни одного доказательства. Правда, доказательства появились от частной компании. И они свидетельствовали об обратном. Так, один проект Google убедительно показывает, как за 100 долларов США можно создать иллюзию того, что некая российская компания пыталась повлиять на общественное мнение внутри США. Для этого был куплен мобильный телефон и несколько сим карт в Панаме, выбраны типичные русские имя и фамилия, от чьего лица был зарегистрирован аккаунт на Yandex, с помощью программы NordVPN указан айпи в Санкт-Петербурге, далее проведена регистрация в AdWords, при указании определенной юридической фирмы сделана оплата рекламы и затем в Интернет заброшен определенный политический контент, который может быть квалифицирован как провокационный. И все это делали граждане США из компании Google, о чем они не стесняясь отчитались. И что же мешает сделать практически то же самое сотрудникам АНБ, ЦРУ или фанатикам-русофобам, знакомым с хакерскими методиками, независимо от того, принадлежат они к какой-либо политической партии? Чувство здравого смысла подсказывает, что для создания видимости вмешательства России, именно так все и было сделано. Но предоставить реальные доказательства, конечно же, никто не может.
Другой пример, как США могут повлиять на общественное мнение – это создание фейковой пропаганды. Эту технологию американские военные с помощью подрядчиков отработали в начале 2000-х в Ираке.
Британская неправительственная организация "Бюро журналистских расследований" утверждает, что Пентагон заплатил более 500 млн. долл. британской пиар компании Bell Pottinger за создание поддельных видео сюжетов, на которых запечатлены различные действия боевиков и террористов. Группа сотрудников этой компании была размещена вместе с американскими военными в лагере Victory в Багдаде практически сразу же после начала оккупации в 2003 г. Также ряд контрактов был заключен между 2007 и 2011 гг. Бывший председатель данной компании лорд Тим Белл подтвердил журналистам, что компания действительно выполняла некий тайный подряд для американцев, детали которого не разглашаются по причине секретности.
Следует напомнить, что ранее Bell Pottinger занималась продвижением имиджа Маргарет Тетчер и помогла Консервативной партии выиграть на трех выборах.
Редактор по видео (уже бывший) Мартин Уэллс, признался, что пребывание в "Кэмп Виктори" открыло ему глаза и изменило жизнь. А со стороны США этот проект курировал генерал Дэвид Петрэус. Если же он не мог принять решения по какому-либо вопросу, то согласование проводилось в более высоких инстанциях в Вашингтоне.
Наиболее скандальным эпизодом в этой истории является создание пропаганистских роликов, сделанные британской компанией от лица террористической группировки Аль-Каида. Когда материал был готов и оцифрован в нужном формате, эти ролики были записаны на диски и переданы морским пехотинцам, которые во время облав и рейдов подбрасывали диски в дома иракцев. На дисках был записан код, по которому можно было отслеживать местоположение компьютера, на котором ставили этот диск. Впоследствии было обнаружено, что поддельные клипы Аль-Каиды смотрели не только в Ираке, но также в Иране, Сирии и даже Соединенных Штатах! Возможно, трекинг и помог американским силовикам отследить распространение фейковых пропагандистских клипов. Но сколько людей стали приверженцами экстремистской идеологии благодаря этому секретному проекту Пентагона?
А поскольку за последние годы технологии значительно шагнули вперед, то теперь стали говорить и о возможности применения искусственного интеллекта для подобных проектов – будь то политическая манипуляция на выборах или дезинформационные вбросы.
Недавно технологии на основе искусственного интеллекта уже были связаны с несколькими скандалами. Один из них - использование данных из профилей Facebook, которые компания Cambridge Analytica использовала для таргетирования избирателей во время выборов президента США.
Издание "Вашингтон пост" в этом отношении отмечало, что "будущие кампании будут выбирать не только проблемы и лозунги, которые может поддержать потенциальный кандидат, но и самого кандидата, который должен быть не равнодушен к этим проблемам... Приложения по базам данных с информацией по образованию, родословной и профессиональным навыкам охватывают конкретные сегменты голосования по целому ряду демографических областей и регионов. А в будущем временные тенденции для различных блоков избирателей можно сравнить с родословными, генетическими и медицинскими данными, чтобы понять изменения в политических тенденциях по региональному и поколенческому признаку, тем самым освещая методы отбора и оценки аудитории в пользу или против определенной повестки дня".
Искусственный интеллект также может использоваться как бот, заменяя человека и даже имитируя беседу. Такие алгоритмы как Quill, Wordsmith и Heliograf используются для преобразования таблиц с данными в текстовый документ и даже написания новостей на различную тематику. Издание "Вашингтон пост" использует Heliograf в своей работе. А боты могут применяться как с хорошими, так и плохими намерениями.
По мнению американских военных инструменты информационных операций на основе искусственного интеллекта могут сопереживать аудитории, что-то высказывать по мере необходимости, изменять восприятие, которое управляет этим физическим оружием. Будущие системы информационных операций смогут индивидуально контролировать и влиять на десятки тысяч людей одновременно.
Летом 2018 года агентство DARPA запустила проект, который попытается определить, можно ли в ближайшее время будет отличить поддельное видео и аудио от реального, которое 1) выглядит как настоящее; 2) создано при помощи искусственного интеллекта. При этом анализ таких файлов также должен проводиться при помощи искусственного интеллекта.
Видео, традиционно, оказывает большее влияние на аудиторию, так как считается, что его труднее подделать, чем фото. И оно выглядит более убедительно, чем текст, представленный от лица политика. Однако современные технологии могут легко справиться и с этим. В апреле 2018 г. было обнародовано видео, получившее название ObamaPeele – согласно именам исполнителей. Дело в том, что на видео Барак Обама произнес довольно странную речь, но в действительности говорил этот текст актер, который не показан. А специальная программа обработала игру актера так, что мимика Обамы полностью соответствует сказанному тексту. В Вашингтонском университете специалисты по компьютерным технологиям проделали подобный эксперимент с выступлением Барака Обамы в 2017 г. и выложили результаты в открытый доступ с подробным описанием как это работает.
В проекте DARPA применялись так называемые «глубокие фейки», - видеоизображения, где лицо одного человека «пришивалось» к телу другого человека. Специалисты отметили, что подобная технология уже использовалась для создания нескольких фальсифицированных порно видео со знаменитостями. Но этот метод также может быть использован для создания клипа политика, говорящего или делающего что-то возмутительное и неприемлемое.
Технологи в DARPA особенно обеспокоены относительно новой технологии искусственного интеллекта, которая может сделать фейки, созданные с помощью искусственного интеллекта практически невозможным для определения автоматическим методом. Используя так называемые генеративные состязательные сети или GAN (generative adversarial networks), можно создавать потрясающе реалистичные искусственные образы. Обеспокоенность, видимо, связана с возможностью применения этой технологии кем-то другим. Так как если США потеряют монополию в создании, верификации и распространении фейков, они сами столкнутся с тем проблемами, которые готовили для других стран и народов.
И пока ученые в военных мундирах ломают голову, как опередить другие государства в такой специфической гонке информационных вооружений, их гражданские коллеги уже прозвали данную тенденцию не иначе как информационным апокалипсисом и дезинформацией на стероидах.