Руслан Трад: Русия е първенец в хибридните операции, но Китай елегантно пренаписва истината - и ChatGPT помага Снимка: © Руслан Трад, Подкаст "5 стотинки"

Докато светът се възхищава на възможностите на изкуствения интелект, някои държави го използват не само за иновации, а и като инструмент за информационно влияние и дезинформация. Една от тях е Китай. Според журналиста и анализатор Руслан Трад Пекин активно използва езикови модели като ChatGPT, за да манипулира публични наративи в своя полза.

„Можем спокойно да го наричаме пропагандни действия, защото това е крайната цел“, казва Трад в интервю за “Булевард България”.

Най-тревожният аспект е, че големи езикови модели, създадени с цел да помагат на хората, се използват за разпространяване на манипулации.

„Когато ChatGPT или друг AI бот отговаря на въпрос на базата на вече инфектирани източници – например Wikipedia или сайт-гъба – той де факто става ретранслатор на пропаганда“, подчертава Трад. И проблемът не е само в отговора, а в доверието – повечето потребители вярват на изкуствения интелект като на неутрален източник.

Накъде е насочена китайската пропаганда?

Опитите за пропаганда не са само на английски или китайски език. Има кампании и на урду, виетнамски, келтски и на балкански езици, включително и на български. Според Трад България попада все по-често в обхвата на китайски и руски кампании – както заради геополитическото си положение, така и заради нарастващата ѝ роля в големи инфраструктурни обекти.

„Тайван, Австралия, Нова Зеландия, Централна Европа и Балканите са все по-често таргетирани като публики за оформяне на обществено мнение. Причината не е само геополитическа, а и геоикономическа“, уточнява Руслан Трад.

След разпадането на формата „17+1“ (дипломатическа инициатива на Китай със страни от ЕС и Балканите - б.р.), където Източна Европа бе възприемана като важен плацдарм за китайски инвестиции, и след дистанцирането на Литва, Германия, Чехия и Италия, Пекин се стреми да възстанови влиянието си чрез „мека сила“ и по нови канали. Пропагандата чрез изкуствен интелект е един от тях.

Нови инструменти, стара тактика

Русия отдавна е първа в списъка, когато говорим за хибридни операции, но Китай действа по-тихо – и често по-успешно. Според Трад Пекин не само взаимства тактики от Москва, но и ги усъвършенства. Например, китайски кампании се маскират като руски, за да скрият произхода си. Или използват руски тролове като фасада за свои наративи.

Основната разлика е, че Русия играе по-агресивно, често с очевидни фалшификации.

Китай предпочита елегантното пренаписване на истината, така че потребителят да не усети, че е манипулиран.

„В същността си това не се различава от традиционните тролски мрежи, които познаваме от руските операции, само че тук инструментът е друг – езиков модел, базиран на AI,“ обяснява Руслан Трад.

Пример за такава операция е кампанията Spamouflage (разкрита през 2024 г. преди американските избори за президент - б.р.) при която китайски групи са „имплантирали“ конкретни резултати при търсене в Google и продуктите на Meta. Основната идея е търсачките и социалните мрежи да се залеят с „приятелски“ резултати, особено по теми като Тайван, войната в Украйна или отношенията с Америка. Китай се представя като миротворец, а критиките към Пекин – като резултат от „западна дезинформация“.

Къде се „влива“ дезинформацията?

Китайците, а и руснаците, не просто разпространяват фалшива информация – те я внедряват в свободни платформи като Wikipedia, която е сред най-таргетираните.

Причината е проста – тя е свободен ресурс, хората ѝ вярват, и освен това храни алгоритмите. Китайски и руски екипи систематично редактират статии и в препратките поставят "инфектирани" линкове, които водят към сайтове и данни от дезинформационната мрежа "Правда" - клъстър от над 180 сайта на различни езици, включително български, които разпространяват пропаганда и фалшиви новини и чиито следи водят до Русия.. Така пространството се пренасища с манипулирана информация, която AI технологиите включват в ресурсите си.

При търсене на историческа информация за Тайван или войната в Украйна, част от резултатите в ChatGPT или Wikipedia вече отразяват „филтрирани“ версии на събитията, оформени така, че да създадат усещане за легитимност на гледната точка на Пекин и Москва.

„Фондацията на Wikipedia реагира бързо, но реално стотици хиляди статии вече са инфектирани", обяснява Трад и допълва, че "това е крайната цел – когато търсиш информация, да получиш онова, което Китай иска да видиш“.

Освен Wikipedia, подобни кампании таргетират Reddit, TikTok и дори търсачките Google и Bing. Резултатите при търсене по определени теми се манипулират чрез т.нар. „сайтове-гъби“. Хиляди копи-пейст платформи с привидно автентично съдържание, които служат като източници на информация за AI или за директна дистрибуция на пропагандни линкове.

Едновременно с това се правят и опити за манипулиране на самия алгоритъм на AI езиковите модели от типа на ChatGPT.

Защо това работи?

„Повечето хора имат доверие в изкуствения интелект и смятат, че той е вездесъщ и не допуска грешки. Това обаче не е вярно,“ казва Руслан Трад. „Той зависи от информация, която вече съществува, а тя може да бъде манипулирана.“

AI не e неутрален инструмент, а усилвател на вече съществуващи наративи. Ефектът е лавинообразен. Ако източниците са подменени, и отговорите, които моделите дават, са изкривени.

Новите канали: TikTok, Reddit и „когнитивният домейн“

Социалните мрежи отдавна не са просто поле за споделяне на мнения. Те са удобен и мощен инструмент. Китай използва TikTok не само като приложение за забавление, но и като основен източник на информация за потребителско поведение.

На тази база се изграждат т.нар. „когнитивни операции“ – методи, чрез които се въздейства не просто върху мнението на хората, а върху самия процес на вземане на решения и формиране на мнения на подсъзнателно ниво.

„Това е форма на психологическа война, която е предназначена да манипулира поведението на целеви аудитории, за да се намали съпротивата срещу действия на Китай и да се подобри глобалния имидж на страната“, казва Трад.

Обикновеният потребител обаче не усеща влиянието върху себе си. Когато човек търси информация, той попада на предварително подбрани резултати, но не си дава сметка за това. В крайна сметка, без да го осъзнае, потребителят започва да възприема определени послания и твърдения като автентични.

Тази тактика се използва в X, Reddit, Instagram.

Може ли дезинформацията да бъде спряна?

Технически – да, но на практика – много трудно. Централизирани системи като OpenAI могат да въвеждат защити и филтри и да блокират злонамерени действия, както е станало през последните месеци с поне 10 инфилтрации от Китай, Северна Корея, Филипините и Камбоджа.

Отворените модели обаче остават извън контрол, а "дезинформацията се разпространява много по-бързо, отколкото става проверката ѝ“, добавя Трад.

На фона на всичко това потребителите трябва да останат критични, дори когато използват инструменти, които изглеждат „неутрални“, като ChatGPT.

Задължителни умения в новата епоха се оказват проверката на източниците, вниманието към метаинформацията, скептицизъм към „прекалено удобни“ отговори.

„Обикновеният потребител не разпознава влиянието на тези фактори, но то е навсякъде. И когато се информираш само чрез автоматизирани отговори, може да станеш част от мрежа, която има конкретна цел“, обяснява Руслан Трад.

„Голямата идея на повечето от тези кампании е да се създаде усещането за нещо или илюзията за нещо. Те не целят категорично да обърнат мнението на даден потребител, а създават чувство за нестабилност, за кражба на пари, за това, че елитът лъже. Когато се създаде това усещане, влиза чистата политическа пропаганда с политическите съюзници на терен, с каквито и Русия, и Китай разполагат", каза още Трад и за илюстрация даде пример с приемането на еврото. Тема, която е във фокуса на пропагандата и дезинформацията.

Заради създадените нагласи обаче хората невинаги могат да разберат кое е истина. Това превръща борбата с дезинформацията в нещо повече от просто битка за данни.

Това е битка за възприятия. А голямата заплаха е да се окажем не само дезинформирани, а напълно убедени в нещо, което никога не се е случвало. Дори да си мислим, че сме го "проверили".


Ако нашият сайт ви харесва, можете да се абонирате за седмичния ни нюзлетър тук:

Бизнес

Бившият собственик на Pornhub с интерес към "Лукойл"

Срокът за евентуална сделка за международните активи на "Лукойл" изтича на 13 декември

18:06 - 03.12.2025
Важно днес

Повече от 38 хиляди са се включили в петиция за оставка на правителството (обновена)

Събраните подписи ще бъдат публично обявени от парламентарната трибуна заедно с вота на недоверие

17:09 - 03.12.2025
Технологии

Yettel представи новото си приложение – онлайн магазин, услуги и развлечение в едно

Новото приложение Yettel отразява визията на телекома – да бъде не просто доставчик на свързаност, а партньор в дигиталното ежедневие.

15:45 - 03.12.2025
Коледен булевард

Петото издание на „Коледа на „Малките 5“ оживява емблематичното кръстовище с квартален фестивал и украса с екологично послание на 7 декември

Петте улици се превръщат в пешеходна зона с отличителна коледна тема, музика на живо, благотворителни инициативи, битпазар и специални предложения от над 50 местни локации и бизнеси

15:42 - 03.12.2025
Важно днес

18 години затвор получи мъжът, причинил смъртта на френски гражданин при катастрофа

Защитата на Димитър Любенов ще обжалва съдебното решение

15:21 - 03.12.2025
Важно днес

Парламентът отхвърли искането на Радев за референдум за еврото

"Възраждане" разпънаха транспарант с грешки в надписа

15:11 - 03.12.2025
Важно днес

До края на декември можем да заявим връщане на до 600 лева от данъците си за отглеждане на дете

От НАП препоръчват преди това да проверим за задължения в системата им

14:51 - 03.12.2025
Важно днес

"Единственият възможен бюджет" официално отиде в историята

С 201 гласа "за" депутатите одобриха изтеглянето на проекта

13:49 - 03.12.2025
Кино и сериали

Тимъти Шаламе води най-амбициозната филмова кампания на годината

"Marty Supreme" е филмът, който Gen Z очаква още преди да е излязъл

12:56 - 03.12.2025