Руслан Трад: Русия е първенец в хибридните операции, но Китай елегантно пренаписва истината - и ChatGPT помага Снимка: © Руслан Трад, Подкаст "5 стотинки"

Докато светът се възхищава на възможностите на изкуствения интелект, някои държави го използват не само за иновации, а и като инструмент за информационно влияние и дезинформация. Една от тях е Китай. Според журналиста и анализатор Руслан Трад Пекин активно използва езикови модели като ChatGPT, за да манипулира публични наративи в своя полза.

„Можем спокойно да го наричаме пропагандни действия, защото това е крайната цел“, казва Трад в интервю за “Булевард България”.

Най-тревожният аспект е, че големи езикови модели, създадени с цел да помагат на хората, се използват за разпространяване на манипулации.

„Когато ChatGPT или друг AI бот отговаря на въпрос на базата на вече инфектирани източници – например Wikipedia или сайт-гъба – той де факто става ретранслатор на пропаганда“, подчертава Трад. И проблемът не е само в отговора, а в доверието – повечето потребители вярват на изкуствения интелект като на неутрален източник.

Накъде е насочена китайската пропаганда?

Опитите за пропаганда не са само на английски или китайски език. Има кампании и на урду, виетнамски, келтски и на балкански езици, включително и на български. Според Трад България попада все по-често в обхвата на китайски и руски кампании – както заради геополитическото си положение, така и заради нарастващата ѝ роля в големи инфраструктурни обекти.

„Тайван, Австралия, Нова Зеландия, Централна Европа и Балканите са все по-често таргетирани като публики за оформяне на обществено мнение. Причината не е само геополитическа, а и геоикономическа“, уточнява Руслан Трад.

След разпадането на формата „17+1“ (дипломатическа инициатива на Китай със страни от ЕС и Балканите - б.р.), където Източна Европа бе възприемана като важен плацдарм за китайски инвестиции, и след дистанцирането на Литва, Германия, Чехия и Италия, Пекин се стреми да възстанови влиянието си чрез „мека сила“ и по нови канали. Пропагандата чрез изкуствен интелект е един от тях.

Нови инструменти, стара тактика

Русия отдавна е първа в списъка, когато говорим за хибридни операции, но Китай действа по-тихо – и често по-успешно. Според Трад Пекин не само взаимства тактики от Москва, но и ги усъвършенства. Например, китайски кампании се маскират като руски, за да скрият произхода си. Или използват руски тролове като фасада за свои наративи.

Основната разлика е, че Русия играе по-агресивно, често с очевидни фалшификации.

Китай предпочита елегантното пренаписване на истината, така че потребителят да не усети, че е манипулиран.

„В същността си това не се различава от традиционните тролски мрежи, които познаваме от руските операции, само че тук инструментът е друг – езиков модел, базиран на AI,“ обяснява Руслан Трад.

Пример за такава операция е кампанията Spamouflage (разкрита през 2024 г. преди американските избори за президент - б.р.) при която китайски групи са „имплантирали“ конкретни резултати при търсене в Google и продуктите на Meta. Основната идея е търсачките и социалните мрежи да се залеят с „приятелски“ резултати, особено по теми като Тайван, войната в Украйна или отношенията с Америка. Китай се представя като миротворец, а критиките към Пекин – като резултат от „западна дезинформация“.

Къде се „влива“ дезинформацията?

Китайците, а и руснаците, не просто разпространяват фалшива информация – те я внедряват в свободни платформи като Wikipedia, която е сред най-таргетираните.

Причината е проста – тя е свободен ресурс, хората ѝ вярват, и освен това храни алгоритмите. Китайски и руски екипи систематично редактират статии и в препратките поставят "инфектирани" линкове, които водят към сайтове и данни от дезинформационната мрежа "Правда" - клъстър от над 180 сайта на различни езици, включително български, които разпространяват пропаганда и фалшиви новини и чиито следи водят до Русия.. Така пространството се пренасища с манипулирана информация, която AI технологиите включват в ресурсите си.

При търсене на историческа информация за Тайван или войната в Украйна, част от резултатите в ChatGPT или Wikipedia вече отразяват „филтрирани“ версии на събитията, оформени така, че да създадат усещане за легитимност на гледната точка на Пекин и Москва.

„Фондацията на Wikipedia реагира бързо, но реално стотици хиляди статии вече са инфектирани", обяснява Трад и допълва, че "това е крайната цел – когато търсиш информация, да получиш онова, което Китай иска да видиш“.

Освен Wikipedia, подобни кампании таргетират Reddit, TikTok и дори търсачките Google и Bing. Резултатите при търсене по определени теми се манипулират чрез т.нар. „сайтове-гъби“. Хиляди копи-пейст платформи с привидно автентично съдържание, които служат като източници на информация за AI или за директна дистрибуция на пропагандни линкове.

Едновременно с това се правят и опити за манипулиране на самия алгоритъм на AI езиковите модели от типа на ChatGPT.

Защо това работи?

„Повечето хора имат доверие в изкуствения интелект и смятат, че той е вездесъщ и не допуска грешки. Това обаче не е вярно,“ казва Руслан Трад. „Той зависи от информация, която вече съществува, а тя може да бъде манипулирана.“

AI не e неутрален инструмент, а усилвател на вече съществуващи наративи. Ефектът е лавинообразен. Ако източниците са подменени, и отговорите, които моделите дават, са изкривени.

Новите канали: TikTok, Reddit и „когнитивният домейн“

Социалните мрежи отдавна не са просто поле за споделяне на мнения. Те са удобен и мощен инструмент. Китай използва TikTok не само като приложение за забавление, но и като основен източник на информация за потребителско поведение.

На тази база се изграждат т.нар. „когнитивни операции“ – методи, чрез които се въздейства не просто върху мнението на хората, а върху самия процес на вземане на решения и формиране на мнения на подсъзнателно ниво.

„Това е форма на психологическа война, която е предназначена да манипулира поведението на целеви аудитории, за да се намали съпротивата срещу действия на Китай и да се подобри глобалния имидж на страната“, казва Трад.

Обикновеният потребител обаче не усеща влиянието върху себе си. Когато човек търси информация, той попада на предварително подбрани резултати, но не си дава сметка за това. В крайна сметка, без да го осъзнае, потребителят започва да възприема определени послания и твърдения като автентични.

Тази тактика се използва в X, Reddit, Instagram.

Може ли дезинформацията да бъде спряна?

Технически – да, но на практика – много трудно. Централизирани системи като OpenAI могат да въвеждат защити и филтри и да блокират злонамерени действия, както е станало през последните месеци с поне 10 инфилтрации от Китай, Северна Корея, Филипините и Камбоджа.

Отворените модели обаче остават извън контрол, а "дезинформацията се разпространява много по-бързо, отколкото става проверката ѝ“, добавя Трад.

На фона на всичко това потребителите трябва да останат критични, дори когато използват инструменти, които изглеждат „неутрални“, като ChatGPT.

Задължителни умения в новата епоха се оказват проверката на източниците, вниманието към метаинформацията, скептицизъм към „прекалено удобни“ отговори.

„Обикновеният потребител не разпознава влиянието на тези фактори, но то е навсякъде. И когато се информираш само чрез автоматизирани отговори, може да станеш част от мрежа, която има конкретна цел“, обяснява Руслан Трад.

„Голямата идея на повечето от тези кампании е да се създаде усещането за нещо или илюзията за нещо. Те не целят категорично да обърнат мнението на даден потребител, а създават чувство за нестабилност, за кражба на пари, за това, че елитът лъже. Когато се създаде това усещане, влиза чистата политическа пропаганда с политическите съюзници на терен, с каквито и Русия, и Китай разполагат", каза още Трад и за илюстрация даде пример с приемането на еврото. Тема, която е във фокуса на пропагандата и дезинформацията.

Заради създадените нагласи обаче хората невинаги могат да разберат кое е истина. Това превръща борбата с дезинформацията в нещо повече от просто битка за данни.

Това е битка за възприятия. А голямата заплаха е да се окажем не само дезинформирани, а напълно убедени в нещо, което никога не се е случвало. Дори да си мислим, че сме го "проверили".


Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук:

Важно днес

Ловят черния леопард в Шумен с капан за мечки

Експерти с дронове и капани продължават търсенето на екзотичния хищник, засечен край Дивдядово

09:14 - 21.06.2025
Важно днес

Астрономическото лято идва с леки превалявания

Днес е лятното слънцестоене и най-дългият ден в годината

08:45 - 21.06.2025
Важно днес

Георг Георгиев се извини за "нескопосания" гаф с гласуването с лична карта от телефон

Външният министър искал да плати глобите на наказаните членове на СИК

21:26 - 20.06.2025
Спорт

Златен медал за Валентина Георгиева на Световната купа по спортна гимнастика

Огромен успех за българската състезателка в Ташкент

18:39 - 20.06.2025
Важно днес

Радев: Инфлацията на Борисов е толкова истинска, колкото са истински магистралите и дузпите

Радев рекламира статия в Politico, която оспорва готовността на България за еврото

18:15 - 20.06.2025
Важно днес

Никола Николов стана и.д. шеф на кабинета на Росен Желязков

Деница Желева е напуснала поста на 19 юни

17:46 - 20.06.2025
Бизнес

Създателят на PISA: Ниските образователни резултати може да струват на България над 400 млрд. долара

Над 40% от учениците в България не овладяват дори базовите нива на умения

16:43 - 20.06.2025
Важно днес

Шуменската пантера - новата кралица на социалните мрежи

Пантера, забелязана край Шуменското плато, вдигна на крак полицията, активира BG-Alert и отприщи лавина от шеги

16:22 - 20.06.2025
Технологии

Медиите имат нов проблем: Push нотификациите превръщат новините в досада

Хората се интересуват от новини - но не искат да ги заливат 24/7

16:22 - 20.06.2025