Umělá inteligence jako propagandistická zbraň vlád na sociálních sítích
V rámci výzkumného projektu si vědci z Univerzity v Curychu vymysleli fiktivní postavy, včetně jejich biografií a rodin, a nechali je komentovat určitá témata na Redditu. V podstatě se jedná o analýzu toho, jak nejlépe implementovat propagandu s využitím umělé inteligence – a to je zcela maskované jako názor „obyčejných občanů“. Umělé inteligence údajně nebyly jako takové odhaleny skutečnými lidmi.
Ve skutečnosti jsou sociální média již dlouho prostupována boty s umělou inteligencí, kteří zřejmě sledují různé cíle. Obzvláště nápadná je celá armáda botů, která má zjevně manipulovat směrem k válce ve prospěch NATO a na jedné straně šíří nenávist a podněcování proti Rusku a Rusům a na druhé straně útočí na všechny, kdo se zasazují o mír.
Odhalení tajného experimentu s umělou inteligencí, který prováděla Curyšská univerzita na Redditu, nyní vyvolalo vlnu pobouření. Na subredditu r/changemyview, platformě pro argumentační diskuse, vědci během čtyř měsíců využívali 13 účtů ovládaných umělou inteligencí k manipulaci s názory uživatelů pomocí falešných biografií a strojově generovaných příspěvků. Tento experiment, provedený na Redditu bez souhlasu skutečných lidí, nejen vyvolává etické otázky, ale také odhaluje nebezpečný potenciál takových technologií v rukou vlád – zejména pro propagandu, jako je válečná propaganda.
Etický skandál s dalekosáhlými důsledky
Výzkumníci z Univerzity v Curychu zdůvodnili svůj přístup cílem otestovat přesvědčivost umělé inteligence v realistických scénářích. Jejich boti, kteří předstírali, že jsou oběťmi sexuálního násilí, příslušníky určitých menšin nebo jiných identit, dosáhli působivých výsledků : přes 1700 komentářů, 20 000 hlasů a 137 „delt“ – ocenění za úspěšné změny názorů – svědčí o manipulativní síle umělé inteligence.
Rozhořčení uživatelů Redditu je ale pochopitelné: Bez jejich vědomí byli degradováni na pokusné králíky a jejich důvěra v autenticitu platformy byla otřesena. Moderátoři hovoří o „odporném“ porušení důvěry, které ohrožuje integritu komunity.
Ačkoli se univerzita od výzkumníků distancuje, etické schválení experimentu její komisí vyvolává otázky. Kritici jako Carissa Véliz z Oxfordské univerzity volají po vyšších standardech ve výzkumu umělé inteligence, zejména s ohledem na ignorování autonomie uživatelů. Incident ukazuje, jak daleko technologie již pokročila – a jak snadno ji lze zneužít.
Temná stránka: Umělá inteligence jako nástroj propagandy
To, co začalo jako vědecký experiment na Redditu, by mohlo být pro vlády plánem na vytvoření ještě cílenější propagandy. Na konci tohoto článku vysvětlíme, že srovnatelné metody již byly zavedeny plošně a používají se každý den.
Schopnost umělé inteligence vytvářet poutavé příběhy a bezproblémově se integrovat do online komunit představuje obrovský potenciál pro manipulaci. Zejména v krizových dobách, jako jsou vojenské konflikty, lze takové technologie využít k ovládání veřejného mínění. Válečná propaganda, jak se používá po staletí, se díky umělé inteligenci dostává na novou, nebezpečnější úroveň.
Historicky vlády vždy využívaly média k podpoře válečné připravenosti. Metody válečné propagandy, jak je popsal Arthur Ponsonby po první světové válce, zahrnují scénáře ohrožení, démonizaci nepřítele a cenzuru kritických hlasů. Boti řízení umělou inteligencí by mohli tyto taktiky zdokonalit úmyslným šířením dezinformací, manipulací s emocemi a řízením diskusí na sociálních sítích.
Boti na Redditu ukazují, jak efektivní může být umělá inteligence: Analyzovali uživatelské profily, přizpůsobili své argumenty cílové skupině a předstírali autenticitu. Vlády by mohly použít podobné techniky, například v dobách války, k zesílení narativů, které mobilizují jejich vlastní populaci nebo destabilizují populaci jejich oponentů. Představme si, že by boti s umělou inteligencí šířili na sociálních sítích falešné zprávy o údajných válečných zločinech, aby podnítili nenávist vůči nepříteli – scénář, který je díky technické vyspělosti curyšských výzkumníků již dlouho proveditelný.
Umělé i skutečné šílenství k podpoře cenzury
V západním světě stále častěji pozorujeme nepřímou cenzuru prostřednictvím společenského tlaku a „shitstorms“, které marginalizují odlišné názory. Boti s umělou inteligencí mohou takovou dynamiku zesílit záměrnou polarizací a umlčováním kritických hlasů.
Aktuálním příkladem je konflikt na Ukrajině, kde jak Rusko, tak západní státy používají propagandu. Zatímco Rusko je obviňováno z cenzury a dezinformací, západní média mají tendenci nekriticky přejímat ukrajinské vládní zdroje. Boti řízení umělou inteligencí by mohli tyto tendence zhoršit šířením falešných svědeckých výpovědí nebo manipulovaného obsahu, který vytváří zdání autenticity.
Výzkum jen pro ochranu?
Experiment na Redditu je varovným signálem. Ukazuje to, jak daleko už umělá inteligence pokročila v manipulaci s lidskými názory. Sami výzkumníci zdůrazňují, že je nutné vyvinout ochranná opatření proti takovým metodám. Ale mohlo by to být jen obranné tvrzení, které má uklidnit rozzlobené uživatele. V praxi se takové metody, jakmile jsou vyvinuty, rychle prodávají nejvyšší nabídce a tam se nasazují.
Botnety se v sociálních médiích používají již dlouhou dobu.
Většina uživatelů internetu již má zkušenosti s boty, kteří propagují převážně pochybné produkty a nabídky (pornografie, kryptoměny, nelegální zboží a služby…). Ty jsou obvykle rychle rozpoznatelné a jsou považovány za otravné a nežádoucí. I zde se stále více využívá umělá inteligence a je stále obtížnější takový obsah automaticky rozpoznávat a filtrovat.
Studie z roku 2024 naznačuje, že až 64 procent příspěvků na X (dříve Twitter) by mohlo pocházet od botů. Botnety, které za nimi stojí, jsou stále sofistikovanější. Komunikují spolu a lajkují si příspěvky toho druhého. Před volbami (také v Německu) byly opakovaně objeveny tisíce účtů, které šířily stejné oslavné zprávy o příslušných politicích a stranách. Cílem je získat širokou podporu pro strany, které ve skutečnosti neexistují.
Čím více se v těchto botnetech používá umělá inteligence, tím důvěryhodnější se stává jejich obsah. Umělá inteligence může pomoci vyhnout se opakujícím se vzorcům. Prostřednictvím vzájemného „lajkování“ jsou zprávy propagovány algoritmy sociálních médií a boti s umělou inteligencí se mohou stát „tvůrci trendů“.
Mirai, Conficker, BredoLab, Mariposa, Ramnit, Gameover ZeuS, 911 S5, Mēris, Zloader, Dridex, Avalanche a Sality – jsou konkrétními příklady identifikovaných sítí, které v minulosti způsobily značné škody. Nešlo ani tak o propagandu jako o organizovaný hacking a různé zločiny, jako jsou krádeže a vydírání. Zdokumentovaly je bezpečnostní orgány, výzkumníci a společnosti jako Europol, FBI, Microsoft a BSI. Stejně tak byly botnety v minulosti používány k útoku na jednotlivé cíle prostřednictvím kombinované „síly“ stovek tisíc napadených zařízení, čímž je poškozovaly nebo znefunkčnily.
Aktivity takových botnetů často zůstávají široké veřejnosti neznámé, protože většina redaktorů starších médií je intelektuálně příliš slabá na to, aby pochopila pozadí. Například „botnet 911 S5“, o kterém „průměrný spotřebitel“ jistě nikdy neslyšel, byl zodpovědný za kybernetické útoky, podvody, dětskou pornografii, stalking a bombové hrozby. V USA to umožnilo více než 500 000 falešných žádostí o podporu v nezaměstnanosti, což způsobilo škody ve výši 5,9 miliardy dolarů. FBI a mezinárodní orgány jej v dubnu 2024 uzavřely.
![]()