Генеративный ИИ и терроризм: почему влияние пока ограничено, но риски сохраняются

Несмотря на многочисленные предупреждения со стороны правительств и международных организаций, фактическое использование генеративного ИИ террористами и насильственными экстремистами остаётся фрагментарным. Большинство зафиксированных случаев сводится к экспериментам с пропагандой или вспомогательными задачами, не приводя к качественному росту возможностей.

За последние три года региональные, национальные и международные правительства неоднократно выражали обеспокоенность тем, что неправомерное использование генеративного искусственного интеллекта (Gen AI) может существенно повлиять на возможности террористов и насильственных экстремистов (TVE). Эти предупреждения не были беспочвенными. Ряд групп и отдельных акторов TVE экспериментировали с технологиями Gen AI, преимущественно с целью оптимизации или усиления уже существующих видов деятельности и процессов.

Однако, несмотря на эти опасения и широкое освещение подобных экспериментов, внедрение Gen AI в среде TVE до настоящего времени носит в основном фрагментарный и экспериментальный характер. В результате, если совокупное влияние Gen AI на террористический ландшафт по-прежнему трудно поддаётся чёткому определению, ещё сложнее утверждать, что оно носит трансформирующий характер.

В данном аналитическом обзоре рассматривается медленное и поэтапное внедрение Gen AI акторами TVE, а также предпринимается попытка охарактеризовать относительно ограниченное воздействие этого процесса. Далее анализируются факторы, влияющие на темпы внедрения, включая сравнение с использованием Gen AI со стороны серьёзной и организованной преступности (SOC), а также более общие условия, определяющие освоение террористами новых технологий. В заключение формулируются краткие рекомендации для государственных органов и частного сектора.

Примеры использования Gen AI террористами и насильственными экстремистами

Существует ряд однозначных примеров использования Gen AI акторами TVE. В первую очередь это касается пропагандистской деятельности. Особенно примечательным является использование Исламским государством – провинцией Хорасан (ISKP) новостных бюллетеней, созданных с помощью ИИ, для заявления о резонансных атаках в марте и мае 2024 года. Другие акторы TVE применяли Gen AI для создания изображений и видеоматериалов, включая переработку или перевод контента из еженедельной газеты ИГИЛ al-Naba. При этом большая часть подобной активности исходила от сторонников ИГИЛ, а не от его официальных аккаунтов. Аналогично, хотя проалькаидовские аккаунты обсуждали и продвигали использование Gen AI, зафиксированы лишь единичные случаи создания контента, непосредственно связанного с «Аль-Каидой».

В то же время в ультраправой среде насильственного экстремизма ИИ-пропаганда получила более широкое распространение. Сгенерированные ИИ изображения и видео использовались для поддержки антимиграционных нарративов в Италии, Германии, Франции и Ирландии. Однако недавний анализ использования Grok британскими ультраправыми показал, что в период с января по май 2025 года контент, созданный с применением Gen AI, составлял лишь около 2% публикаций на платформе X среди ряда ультраправых групп и персоналий.

Наконец, появляются и примеры использования Gen AI для поддержки офлайн-насилия. К ним относятся роль ИИ в планировании инцидента в Лас-Вегасе в январе 2025 года, закончившегося самоубийством и взрывом; использование Gen AI 16-летним подростком, ответственным за нападение с ножом в школе в Пирккала (Финляндия) в мае 2025 года, для написания манифеста и подготовки атаки; а также инцидент в Нью-Йорке в июне 2025 года, когда задержанный за попытку бросить самодельное взрывное устройство на рельсы метро заявил, что «использовал ИИ» при его создании.

Оценка текущего воздействия Gen AI

Определить конкретный вклад Gen AI в каждом из перечисленных случаев, а также его общее влияние на террористическую среду, крайне затруднительно. Исследователи неоднократно подчёркивали потенциал Gen AI по значительному увеличению объёма пропаганды TVE и более точному таргетированию вербовки, в том числе за счёт перевода материалов на множество языков. Однако на практике отсутствуют убедительные доказательства резкого роста экстремистского контента в сети, более эффективного охвата новых аудиторий или большей резонансности ИИ-сгенерированных материалов.

Пожалуй, наиболее наглядным индикатором ограниченного воздействия ИИ является нелинейный характер его внедрения в пропагандистскую деятельность TVE. Громкие примеры — такие как ИИ-новостной ведущий ISKP в начале и середине 2024 года — не стали устойчивой практикой. Традиционные инструменты создания аудио-, видео- и визуального контента по-прежнему остаются основным способом производства и распространения материалов TVE.

Аналогичным образом, несмотря на опасения, что Gen AI повысит эффективность планирования и операций, ни один из публично известных случаев не демонстрирует, что ИИ обеспечил доступ к уникальным возможностям или существенно изменил уровень оперативных способностей. Следует также учитывать, что террористический характер по меньшей мере двух из трёх упомянутых случаев остаётся дискуссионным.

Факторы, сдерживающие внедрение Gen AI

Существует несколько объяснений относительно медленного освоения Gen AI террористическими и насильственно-экстремистскими акторами. Во-первых, реальная практическая отдача от использования Gen AI для них пока ограничена. Во-вторых, исследователи указывают на идеологические барьеры, которые могут сдерживать применение ИИ как со стороны исламистских, так и ультраправых групп. Дополнительную роль играют факторы, ранее уже влиявшие на освоение террористами новых технологий: организационная структура, стратегические приоритеты, ресурсы, связи и эффективность контртеррористических мер.

В контексте Gen AI к потенциальным сдерживающим факторам относятся:

  1. дефицит навыков или ресурсов;

  2. эффективность контрмер;

  3. неспособность иерархичных или «стареющих» организаций распознать возможности ИИ.

Для более точной оценки полезно сравнить внедрение Gen AI в среде TVE с его освоением серьёзной и организованной преступностью (SOC). На первый взгляд, SOC внедряют Gen AI значительно быстрее и с более отчётливыми результатами. Gen AI уже существенно упростил мошеннические схемы, социальную инженерию, создание дипфейков, производство CSAM-материалов и фейковой порнографии, а также развитие рынков «тёмных» LLM без защитных ограничений.

Кроме того, Gen AI снизил технический порог для ряда киберпреступлений и открыл новые векторы атак, включая «vibe-hacking», атаки на цепочки поставок и внедрение вредоносных промптов. В совокупности это свидетельствует о том, что Gen AI уже создал для SOC новые реальные возможности, тогда как аналогичного эффекта в террористической среде пока не наблюдается.

Заключение

Сравнение внедрения Gen AI террористами и организованной преступностью, несмотря на его условность, позволяет сделать важный вывод: вопреки ожиданиям, террористические и насильственно-экстремистские группы осваивают ИИ медленнее, чем прогнозировалось, и медленнее, чем сопоставимые по враждебности акторы SOC.

Тем не менее риск неправомерного использования Gen AI со стороны TVE сохраняется. Технологии продолжают развиваться, а аудитория пользователей Gen AI стремительно растёт — во многом за счёт молодёжи, являющейся ключевой демографической группой риска. По мере того как Gen AI становится частью повседневной жизни, террористы будут лучше понимать его возможности и ограничения.

Даже без резких изменений в текущих трендах можно ожидать, что Gen AI будет всё чаще фигурировать в контртеррористических расследованиях — особенно в сфере операционного поиска информации. В этом контексте важно избегать панических реакций на отдельные инциденты и вместо этого выстраивать системный мониторинг, основанный на актуальной разведывательной, исследовательской и гражданской экспертизе.

Параллельно государствам и технологическим платформам следует готовиться к возможному росту объёма и разнообразия ИИ-сгенерированного контента, усиливая взаимодействие с компаниями-разработчиками Gen AI и интегрируя опыт многолетнего противодействия онлайн-терроризму в новый технологический контекст. Наконец, обсуждение регулирования ИИ должно учитывать не только потенциальные террористические риски, но и всё более очевидный вред, который Gen AI может наносить своим пользователям.

Автор: Дэвид Уэллс
глобальный консультант по вопросам безопасности
консультант UNOCT, Совета Европы, ОБСЕ; почётный научный сотрудник Центра исследований киберугроз Университета Суонси; аффилированный исследователь Middle East Institute; ранее — руководитель исследований и анализа UNCTED (Нью-Йорк)
Примечание: статья написана в личном качестве
Редакторская адаптация: Adaspa.kz