Гибридная война: невидимые враги и угроза национальной безопасности

Симона Шернаускене

Аналитики Департамента стратегических коммуникаций вооруженных сил Литвы внимательно следят за информационным пространством, выявляя и анализируя случаи враждебных действий по отношению к Литве.

У каждой войны есть политические цели. Гибридная война не исключение. Правда, в такой войне чаще используются нетрадиционные средства, которые дешевле и эффективнее: средства массовой информации используются для распространения пропаганды, проводятся кибератаки на гражданскую инфраструктуру, похищается и публикуется конфиденциальная личная информация. Но как ускоряющийся технологический прогресс и развитие искусственного интеллекта могут повлиять на современное общество? С какими новыми угрозами сталкивается государственная безопасность?

Уроки Украины

По словам Айнюса Лашаса, политолога из Каунасского технологического университета (КТУ), типичным примером гибридной войны является агрессия России против Украины с использованием вредоносного программного обеспечения (англ. malware) для нанесения ущерба экономике Украины и демонстрации украинцам, что их правительство не может управлять ситуацией в стране. страна.

«В разгар военных действий все подконтрольные Кремлю СМИ были вовлечены в создание информационного очернения Украины различного характера. Таким образом предпринимались попытки ослабить позиции Украины и уменьшить число ее международных сторонников, а с другой стороны, усилить поддержку самой России, вовлекая Кремль в конфликт. Конечно, Украина предпринимает ответные гибридные действия, но ее возможности гораздо скромнее», говорит А. Лашас, декан факультета социальных и гуманитарных наук, и искусств КТУ.

Он убежден, что литовскому обществу доступно довольно много информации об используемых формах и средствах гибридной войны, только достаточно этим поинтересоваться.

Конфликт на Украине дал возможность следить за ходом конфликта и используемым арсеналом инструментов с достаточно близкого расстояния. Только не все люди обращают на это внимание или интересуются такими вещами: «Пока конфликт не затрагивает их напрямую, они его игнорируют и мало думают об угрозах, исходящих от той или иной стороны, и о потенциальном ущербе, который эти враждебные действия могут причинить».

Политолог КТУ добавляет, что в таких ситуациях ответственность как правительства, так и средств массовой информации за информирование и просвещение чрезвычайно важна.

«Пример Украины нам близок и понятен. Давайте покажем общественности, почему мы должны инвестировать в кибербезопасность, и как Украина конкретно пострадала от российской гибридной войны. Вместе мы более четко объясним общественности необходимость инвестиций нашей страны в безопасность», говорит А. Лашас.

Оружие будущего

Ингрида Норкуте, аналитик Департамента стратегических коммуникаций вооруженных сил Литвы, отмечает, что концепция искусственного интеллекта (ИИ) часто ассоциируется с научно-фантастическими изображениями, в которых роботы и компьютеры захватывают своих создателей, но реальность несколько скромнее.

По словам аналитика, суть этой области состоит в том, чтобы понять механизмы познания и мышления и сымитировать их с помощью аппаратного и программного обеспечения, чтобы помочь или изменить человеческую деятельность. Эти технологии помогают открыть новые возможности, например, искусственному интеллекту передается выполнение слишком опасных или трудоемких задач.

«Кроме того, ИИ может использоваться как в физическом, так и в электронном пространстве, обеспечивая его место в качестве одной из ключевых технологий в гибридной войне. Эти технологии чаще всего используются для обработки информации – изображений или записей, а также при возникновении проблем кибербезопасности и в стремлении повышения оперативной эффективности армии, участвующей в боевых действиях», – говорит И. Норкуте.

ИИ станет незаменимым в будущем – Департамент безопасности США планирует инвестировать 874 млн долларов в следующем году в эту технологию, чтобы сдержать Китай и не уступить ему лидерские позиции в этой области.

Вооруженные силы Литвы также неизменно заинтересованы в применении инноваций и передовых технологий для усиления обороноспособности государства и в использовании искусственного интеллекта для противодействия вызовам гибридной войны. 12-14 ноября этого года вооруженные силы Литвы (ВСЛ) вместе с Каунасским технологическим университетом (КТУ) и Министерством национальной обороны (МНО) организовали хакатон по кибербезопасности «DELTA 1», чтобы укрепить оборонный потенциал Литвы.

«ИИ играет решающую роль на информационном фронте гибридной войны, а борьба с дезинформацией становится похожей на игру в кошки-мышки между теми, кто борется с информационными угрозами, и теми, кто их создает. Интернет, социальные сети, ранее нейтральные арбитры с позитивными сообщениями , стали одновременно средством достижения целей пропаганды и полем битвы для сердец и умов», – говорит военный аналитик.

Тролли подрывают доверие

Интернет-тролли неизбежно участвуют в гибридной войне – люди, которые присоединяются к различным группам и публикуют подстрекательские, оскорбительные сообщения. По словам И. Норкуте, помимо троллей – реальных людей, занимающихся созданием и распространением враждебной информации, – используются также боты, которые автоматически выполняют задачи, поставленные перед ними людьми, работающими с компьютерной программой.

Пользователи, управляемые программным обеспечением, создают и распространяют сообщения и пишут комментарии. Хотя они достаточно широко использовались еще в 2011 г. во время Арабской весны, деятельность ботов привлекла внимание ученых и политиков только после 2016 г. во время президентских выборов в США, когда социальная сеть «Twitter» удалила более 50 тыс. фейковых аккаунтов российского происхождения, в которых массово распространялись сообщения в поддержку Дональда Трампа.

По словам военного аналитика, хотя в 2016 г. выборы привлекли широкое внимание общественности к проблеме ботов, в странах Балтии их огромное количество. Только в этом году, согласно последним данным Центра компетенции стратегических коммуникаций НАТО, страны Балтии испытали и столкнулись с интенсивной, хотя и значительно уменьшившейся, активностью ботов, в основном в «Twitter» и «Vkontakte».

«Самый большой скачок активности ботов на русском языке был связан с учениями «Steel Shield»в странах Балтии, а боты, делящиеся английским контентом, начали работать после того, как госсекретарь США Майк Помпео подписал соглашение об усилении сотрудничества в сфере обороны с Польшей», – говорит И. Норкуте.

Более того, актуалии Литвы попадали в центр внимания ботов чаще, чем соседей; наблюдается заметная активность в распространении сообщений об учениях «Geležinis Vilkas 2020» как об очаге COVID-19. Также в январе 2021 г. циркулировали сообщения об обвинениях Правительства в приоритезации расходов на национальную оборону в разгар пандемии.

В таких сообщениях была сделана попытка показать организацию НАТО в искаженном виде, как представляющую угрозу для населения государств-членов и монополизирующую их бюджеты, что способствовало общественной конфронтации. Такая общественная конфронтация является одной из основных угроз. Эксперты по дезинформации сходятся во мнении, что самой большой угрозой, исходящей от ботов, является не столько прямая, т. е. сообщения, которые транслируются, но создаваемый информационный шум, не позволяющий разобраться, что является действительным», – говорит военный аналитик.

По словам И. Норкуте, такое затопление информационного поля имеет большой потенциал для нарушения демократических процессов – оно вызывает хаос, который является ответом на снижение доверия к институтам и любой информации в публичном пространстве.

Искусственная реальность

С ростом интереса к деятельности ботов и c увеличением «охотников» на них, сложность ботов также возросла. По словам И. Норкуте, довольно примитивные аккаунты с легко узнаваемыми фотографиями в сети были заменены фотографиями, тщательно созданными ИИ. Также стали более совершенными сообщения и комментарии.

Однако эксперты по дезинформации с беспокойством ждут того, чего можно ожидать от быстро развивающейся технологии deepfake, которая позволяет генерировать убедительные видео- или аудиосообщения, в которых показанные деятели «пересказывают» созданный для них текст.

Еще в 2018 г. просторы интернета облетела запись, на которой бывший президент США Барак Обама ругал Дональда Трампа нецензурными словами. Позже выяснилось, что это была всего лишь работа комика Джордана Пила и искусственного интеллекта.

«Убедительность этого фальшивого сообщения вызвала тревогу. Влияние фейковых новостей (англ. fake news) может ослабнуть на фоне угроз, создаваемых deepfake. Тем не менее, хотя содержание этой технологии выглядит чрезвычайно устрашающе, эксперты осторожно оценивают ее реальное воздействие», – сказала военный аналитик.

По словам эксперта по искусственному интеллекту Тима Хванга, технология deepfake вряд ли будет использоваться так широко и часто, как опасались, но в критические моменты можно ожидать притока сообщений, генерируемых этой технологией, вместо того, чтобы использовать ее потенциал.

Однако И.Норкуте отмечает, что у экспертов по дезинформации нет единого мнения о будущем ИИ и угрозах, которые он несет.

«С одной стороны, искусственный интеллект будет продолжать развиваться, его разоблачение будет становиться все труднее, и, по словам эксперта по онлайн-пропаганде Сэмюэля Вулли, те, кто занимается анализом и разоблачением информационных угроз, так и будут пытаться догнать агрессоров, которые находят более изощренные способы остаться незамеченным. С другой стороны, все чаще говорят о включении искусственного интеллекта в борьбу с дезинформацией, особенно для быстрого обнаружения и нейтрализации действий фейковых новостей и ботов», – говорит аналитик Департамента стратегических коммуникаций вооруженных сил Литвы И. Норкуте.

guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии

Партнеры

Закладки

0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
()
x