Umělá inteligence v rámci právního státu: Povolení umělé inteligence v politické správě by mohlo podkopat důvěru veřejnosti ve stát.
Technokracie přebírá kontrolu nad vládami po celém světě a umělá inteligence nahrazuje právní stát – dokonce i v Rusku. V Americe byl Washington, D.C. „zaplaven“ arcitechnokraty, kteří chaoticky integrují umělou inteligenci do vládních procesů:
„Rozhodování založené na technologiích („hypertechnokracie“) věnuje malou pozornost hodnotám a přesvědčení lidí. Všechny formy lidské zkušenosti jsou redukovány na pouhá „behaviorální data“, která se převádějí na produkty pro analýzu, predikci a řízení.“
– Patrick Wood, editor.
V loňském roce se zvýšil počet příkladů využití umělé inteligence ve veřejné správě. Americká vláda začala využívat specializované služby, jako je ChatGPT Gov a xAI for Government; ruská vláda oznámila svůj záměr upřednostnit implementaci umělé inteligence ve svých operacích. Tento trend se již jeví jako nezvratný. Technologie však nemohou nahradit samotnou správu, protože ta je zásadně založena na hodnotách a okolnostech, které nejsou pro „stroje“ zřejmé. Důsledky slepé důvěry v umělou inteligenci by mohly být chybná rozhodnutí a ztráta důvěry veřejnosti ve administrativu, která nezohledňuje zájmy svých občanů.
Charakteristickým znakem politické správy věcí veřejných je, že řeší sociální konflikty a rozpory na základě hodnot: spravedlnosti, rovnosti, vlastenectví, demokracie. Například v situacích s omezenými zdroji si osoba s rozhodovací pravomocí vybírá mezi ziskem a ochranou životního prostředí, mezi investicemi a sociálním zabezpečením, mezi bezpečností a svobodou. V historických projevech politiků – ať už ruských, čínských nebo amerických – vidíme také odvolání se na důležité hodnoty, které spojují určité národy.
Volba hodnot nevyhnutelně vede k různým rozhodnutím. Například orgány činné v trestním řízení považují tzv. „problémovou mládež“ za děti, které by se mohly stát zločinci, a proto by měly být „sledovány“, zatímco sociální služby se snaží tyto mladé lidi socializovat prostřednictvím mentoringových programů, nových sociálních kontaktů a smysluplných volnočasových aktivit.
Dalším příkladem je rozvoj městských prostor. Průmyslová oblast poblíž centra města, která má být přestavěna, by se mohla jednoduše přeměnit na nové obytné budovy – nebo se stát rekreační oblastí na mapě města. V prvním případě generuje příjmy městský rozpočet; ve druhém se zvyšuje komfort obyvatel. Volič tak není pouze „parametrem v modelu“, ale plnohodnotným účastníkem politického procesu s vlastními hodnotami a cíli, které se mohou lišit od hodnot a cílů státního aparátu.
Podle údajů VCIOM (Virtuální centrum pro informace a komunikaci) 52 % ruských občanů obecně důvěřuje umělé inteligenci, zatímco 38 % ne. Jedná se však pouze o obecné hodnocení; při diskusi o konkrétním využití umělé inteligence ve veřejné správě jsou čísla opačná: 53 % ji vnímá negativně a pouze 37 % pozitivně. Mezi obavy patří následující rizika: nesprávná rozhodnutí (58 %) a nedostatek odpovědnosti za učiněná rozhodnutí (57 %). Celkově jsou lidé ochotni přijmout umělou inteligenci jako „asistenta“, ale ne jako konečného činitele rozhodnutí.
Umělá inteligence a státní správa: Problémy
V diskusích se objevují čtyři hlavní problémy s technologiemi umělé inteligence:
- Transparentnost používání.
Proces politického rozhodování není pro „průměrného voliče“ transparentní – a to jak kvůli jeho složitosti, tak kvůli nedostatku transparentnosti. Tento problém se zhoršuje, když se rozhoduje pomocí umělé inteligence, protože její motivy je téměř nemožné vysvětlit. Ani vývojáři neuronových sítí ne vždy vědí, proč a na jakém základě algoritmus dospěl k určitému výsledku. Proto se o umělé inteligenci často mluví jako o „černé skříňce“: pozorovatel vidí pouze vstup a výstup. - Posilování předsudků.
Umělá inteligence je trénována s využitím obsahu generovaného člověkem a nevyhnutelně „dědí“ stávající společenské stereotypy. To je obzvláště patrné při porovnávání modelů z různých zemí a kulturních kontextů. Předsudky a nevyslovené předpoklady, které jsou vlastní každé kultuře, mohou prostřednictvím umělé inteligence zesilovat existující nerovnosti a diskriminaci. Dalo by se navrhnout „přeškolení“ algoritmů, ale pokud je politika založena na hodnotách, může být tento problém v rámci algoritmických rámců zásadně neřešitelný. - Problém odpovědnosti a ručení.
Využití umělé inteligence může sloužit k přesunutí odpovědnosti z osob s rozhodovací pravomocí na „stroj“. Pozitivní účinky implementace umělé inteligence se objevují ve zprávách o efektivitě, zatímco selhání a chyby jsou připisovány nedokonalostem modelů umělé inteligence. - Technické nedostatky umělé inteligence , například:
- „Halucinace“ neuronových sítí, tj. faktické chyby;
- Problém reprodukovatelnosti – stejná otázka může v různých časech vést k různým odpovědím;
- omezený rozsah trénovacích dat, protože algoritmy vyžadují obrovské množství dat.
V současné fázi vývoje umělé inteligence nelze předpokládat transparentní a nestranná rozhodnutí, protože chování algoritmu není zřejmé. Ačkoli umělá inteligence nese název „inteligence“, její povaha se zásadně liší od lidské inteligence. Proto by měla být používána pouze v jasně definovaných a dobře ověřených mezích.
Meze důvěry
Rozhodování založené na technologiích („hypertechnokracie“) věnuje malou pozornost hodnotám a přesvědčením lidí. Všechny formy lidské zkušenosti jsou redukovány na pouhá „behaviorální data“, která jsou transformována do produktů pro analýzu, prognózování a řízení.
Rozhodnutí o využití umělé inteligence ve veřejné správě je samo o sobě politickým rozhodnutím, i když je ospravedlňováno argumenty technokratické efektivity. Každá forma vlády, včetně byrokracie, je ze své podstaty zpolitizovaná – na což již před více než stoletím upozornili klasici společenských věd, jako je Max Weber.
Nicméně umělá inteligence bude pravděpodobně zavedena do vládních struktur bez ohledu na souhlas voličů. Složitost technologie a malý počet zúčastněných aktérů – konkrétně státu a IT gigantů, kteří vlastní patenty a technologie – přispívají k tomu, že implementace bude probíhat výhradně „shora dolů“, i když ne bez obtíží.
V USA již bylo používání umělé inteligence k detekci potenciálních hrozeb na sociálních sítích kritizováno. Tato kampaň vyvolala obavy ohledně ochrany osobních údajů, zejména mezi migranty.
Již v roce 2012 byl v Polsku vyvinut a implementován algoritmus pro profilování nezaměstnaných na základě různých charakteristik. Zařazení do jedné ze tří kategorií určovalo, zda daná osoba obdržela státní podporu a jaký program jí byl nabídnut: zaměstnání, rekvalifikace nebo vůbec nic. Mnoho nezaměstnaných podalo žaloby ke správním soudům s argumentem, že kategorizace je nespravedlivá a neprůhledná. Výsledek: Mechanismus byl prohlášen za protiústavní.
V USA a Španělsku mají soudy praxi využívat umělou inteligenci k rozhodování o předčasném propuštění z vězení na základě posouzení pravděpodobnosti recidivy. Studie ukázaly, že používání umělé inteligence ve skutečnosti zhoršilo předsudky a diskriminaci, které existovaly již před zavedením této technologie.
Nekritické používání umělé inteligence nejenže nezlepšilo efektivitu státu, ale také snížilo důvěru veřejnosti v umělou inteligenci a v důsledku toho i ve všechna vládní opatření k její implementaci. Důvěra veřejnosti je proto nezbytným předpokladem pro integraci umělé inteligence do veřejné správy. Bez této důvěry by občané mohli reagovat zvýšeným pasivním odporem, aktivními protesty a rostoucí popularitou populistických politiků, kteří slibují, že je před umělou inteligencí „zachrání“.
Ruská zkušenost
V Rusku je zavádění umělé inteligence součástí programu digitalizace, který provádí každá vládní agentura. Na podporu státních orgánů vláda oznámila zřízení projektové kanceláře pro implementaci umělé inteligence a vznikají expertní pracovní skupiny pro vývoj právních rámců pro umělou inteligenci.
V Rusku dosud neexistuje jednotná regulace pro umělou inteligenci; místo toho existují zákony a předpisy pro různá odvětví. „Zákon o algoritmech doporučení“, přijatý v roce 2023, je považován za dostatečný právní rámec pro úspěšné využití umělé inteligence. Odborná komunita však během přípravy zákona poukázala na to, že scénáře použití umělé inteligence jsou velmi rozmanité a že tento dokument nepokrývá všechny. Úředníci navíc jednají podle přísných předpisů a pokynů, které nenechávají prostor pro nejednoznačnost. V důsledku toho se ve velkém měřítku zavádějí jednoduchá řešení, jako jsou chatboti. Tato nejistota sice brání plnému využití potenciálu umělé inteligence, ale v současné době také přispívá k minimalizaci rizik. Aby tyto překážky překonal, vydal prezident Putin začátkem roku 2026 příkaz k intenzivnějšímu zavádění umělé inteligence ve veřejné správě.
S intenzifikací implementace umělé inteligence však otázka ochrany digitálních práv občanů před známými riziky vypadla z popředí pozornosti. V důsledku toho zůstává otázka veřejného zájmu na zavedení umělé inteligence do veřejné správy na okraji odborné debaty a zúčastněné strany se jí zabývají jen příležitostně – a to nejen v Rusku.