Сучасні екстремістські та терористичні угруповання все частіше звертаються до можливостей генеративного штучного інтелекту, щоб розширити свої пропагандистські кампанії. За допомогою ШІ вони клонують голоси, здійснюють автоматичний переклад та синтез мовлення, адаптуючи ідеологічні матеріали для різних мовних аудиторій. Фахівці попереджають, що такі технології значно збільшують охоплення та ефективність радикальних послань.
Дослідники підкреслюють, що інструменти для генерації та перекладу голосу стали цінним ресурсом для екстремістських рухів, охоплюючи як неонацистські, так і ісламістські організації. Це дає змогу відтворювати промови впливових ідеологів і поширювати їх у різноманітних мультимедійних форматах. Старший аналітик Лукас Веббер з Tech Against Terrorism називає впровадження ШІ-перекладу екстремістами “масштабною еволюцією” у стратегіях цифрової пропаганди.
Веббер уточнює, що нові інструменти дозволяють зберігати оригінальний тон, емоційне забарвлення та ідеологічну насиченість контенту, адаптуючи його для багатьох мов. Раніше радикальні мережі змушені були використовувати людських перекладачів або задовольнятися примітивним машинним перекладом. Тепер же, завдяки передовим генеративним ШІ-інструментам, ці угруповання створюють “безшовні та контекстуально точні переклади”, що значно покращує якість їхніх матеріалів.
Неонацистські ультраправі рухи активно використовують клонування голосу для поширення промов Адольфа Гітлера англійською мовою. Відео з таким контентом, що публікуються на платформах X, Instagram та TikTok, вже набирають десятки мільйонів переглядів. Аналітики Глобальної мережі з питань екстремізму та технологій (GNet) виявили, що екстремісти використовують комерційні сервіси, як-от ElevenLabs. Вони завантажують архівні записи промов часів Третього рейху, створюючи англомовні аудіоверсії з імітацією голосу Гітлера.
Окремі неонацистські акселераціоністські угруповання також застосовують ШІ для актуалізації своїх матеріалів, що пропагують гіпернасильство. Приміром, наприкінці минулого листопада була створена аудіокнига за посібником з повстанської боротьби “Облога” американського неонациста Джеймса Менсона. Один з неонацистських інфлюенсерів, що поширює контент у X та Telegram, повідомив про свою участь у створенні цієї аудіокниги. Він зазначив, що для відтворення матеріалів використовувалася власна голосова модель Менсона.
Джошуа Фішер-Берч, аналітик Проєкту боротьби з екстремізмом, попереджає про надзвичайну небезпеку “Облоги” через її культовий статус. За його словами, цей посібник активно пропагує насильство, вчинене “самотними вовками”. Крім того, “Облога” вважається обов’язковою літературою для багатьох неонацистських груп, що відкрито підтримують тероризм.
Проісламські медіа в зашифрованих мережах також активно інтегрують штучний інтелект для конвертації текстових матеріалів в аудіоформат. Лукас Веббер пояснює, що це дозволяє швидко перетворювати пропаганду на “захопливі мультимедійні наративи”. Джихадистські угруповання використовують ШІ-переклад для адаптації арабських ідеологічних матеріалів для глобальної аудиторії. Раніше подібну функцію виконував Анвар аль-Авлакі, чий голос, за даними ЦРУ та ФБР, відігравав ключову роль у впливі “Аль-Каїди”.
Наприклад, у жовтні на платформі Rocket.Chat, яку активно використовує “Ісламська держава”, було виявлено відео з японськими субтитрами, створеними штучним інтелектом. Один з проісламських користувачів зазначив, що “японську мову було б надзвичайно важко перекласти, зберігаючи при цьому її красномовство”. Він також додав, що ШІ використовується ним з “деякими винятками щодо аудіо”.
Наразі не тільки “Ісламська держава”, але й низка інших радикальних угруповань активно застосовують безкоштовні інструменти штучного інтелекту, наприклад, ChatGPT. Зокрема, організація The Base та її дочірні групи вже з 2023 року використовують ШІ. Це стосується як створення візуального контенту, так і оптимізації планування та розвідувальних операцій.
Цей тренд доповнюють попередні висновки дослідників про те, що популярні чат-боти нерідко посилаються на російські пропагандистські ресурси щодо війни в Україні. Приблизно 20% відповідей від ШІ, включаючи ChatGPT та Grok, містили посилання на медіа, пов’язані з Кремлем. Це підкреслює ширшу проблему поширення дезінформації за допомогою штучного інтелекту.