29. 4. 2026

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Írán, plnohodnotná laboratoř pro válku svěřená Silicon Valley a jeho algoritmům

Na letecké základně Al Udeid poblíž Dauhá, americké vojenské základny, existuje softwarové rozhraní, které umožňuje operátorovi identifikovat nepřátelský tank čtyřmi kliknutími, geolokovat ho, přiřadit ho k F-22 umístěnému 130 kilometrů daleko a obdržet potvrzení: „ Cíl neutralizován .“ Tento systém se nazývá  Maven Smart System . Vyvíjí ho společnost Palantir, jejíž tržní kapitalizace dosáhla v prvním čtvrtletí roku 2026 360 miliard dolarů, částečně poháněná konflikty, které USA v současnosti vedou (operace  Epic Fury  proti Íránu, vojenská podpora Ukrajiny a zajetí Nicoláse Madura ve Venezuele). Donedávna běžel částečně na modelech umělé inteligence (AI) od společnosti Anthropic.

Dne 9. března 2026 podepsal náměstek ministra obrany USA Steve Feinberg   dopis vysokým vojenským představitelům, v němž povýšil Maven na status „ oficiálního programu “ Pentagonu s vyhrazenými rozpočtovými položkami a víceletými závazky, čímž se Palantir proměnil v výchozího integrátora americké vojenské umělé inteligence, nikoli v pouhého dodavatele. O týden později tentýž Pentagon zakázal společnost Anthropic, dodavatele, který poháněl kritickou část systému, s odůvodněním, že společnost odmítla akceptovat jeho neomezené používání.

Je březen 2026. Spojené státy jsou ve válce a tato válka má akcionáře. Smlouvy, ceny akcií, tiskové konference, kde generální ředitelé v sakách komentují stávky z předchozího dne, stejně jako by jiní komentovali čtvrtletní výsledky. Poprvé v tomto bezprecedentním systému jedna ze společností, které jej udržují v chodu, řekla ne a ocitla se ostrakizována vládou, které sloužila.

Vibe patriotismus  : když si Silicon Valley hraje na válku

Abychom tomuto posunu porozuměli, musíme se vrátit o několik let zpět: na technologické konference, fundraising a mluvit o „ narušení “ národní obrany.

Silicon Valley si po léta udržovalo jakýsi morální odstup od vojensko-průmyslového komplexu. Inženýři nechtěli, aby byl jejich kód použit k zabíjení.  V roce 2018 podepsalo více než 3 000 zaměstnanců Googlu petici, v níž vyzývali společnost k odstoupení od Projektu Maven: programu Pentagonu, který využíval počítačové vidění k analýze snímků z vojenských dronů a identifikaci cílů. Jejich obava byla jednoduchá a přesná: že umělá inteligence bude nakonec integrována do systémů smrtících úderů. Měli pravdu. Google podlehl tlaku a program opustil. Samotný Maven však nezmizel. Pokračoval, rostl a Palantir převzal kontrakt s mnohem menšími výhradami k této záležitosti.

To, co se stalo potom, připomíná lekci válečného kapitalismu. Odchod Googlu program nezpomalil, ale otevřel trh. Prázdnotu zaplnily Palantir, Anduril a plejáda startupů, částečně financovaných společností Andreessen Horowitz, která nedávno uzavřela  kolo financování ve výši 15 miliard dolarů , včetně 1,2 miliardy dolarů určených na obranu prostřednictvím svého fondu American Dynamism. Poselství bylo jasné: tam, kde velké technologické společnosti váhaly, postupoval rizikový kapitál. Stačilo jen najít správné argumenty pro nábor inženýrů, kteří stále měli výhrady. Tyto společnosti našly řešení v jednom slově: „ služba “.

Toto je ústřední argument  Bena Buchheima-Jurissona , veterána americké armády, který se stal investorem do obrany. V článku publikovaném v březnu 2026 nazývá tento fenomén „ vibe patriotismus “ – patriotismus atmosféry, držení těla a samolibosti. Příkladů je spousta. Zakladatelé startupů a partneři fondů rizikového kapitálu pochodují napříč kampusem Stanfordu se závažími na batohy na znamení solidarity s vojáky v první linii. V americké armádě se toto cvičení nazývá „ ruck march “, což je test vytrvalosti uvalený na rekruty. Zde je dobrovolný a můžete přestat, kdykoli chcete. To je přesně problém, na který Buchheim-Jurisson upozorňuje. Ve stejném duchu si firmy osvojily vojenskou terminologii: Palantir  zveřejnil  manifest s názvem  „Proč sloužíme “ a Anduril  hovoří  o „ inovaci jako národní službě “. V angličtině se „ služba “ konkrétně vztahuje na službu v armádě. Nikdo v těchto společnostech v armádě neslouží.

Buchheim-Jurisson netvrdí, že tito lidé jednají ve zlé víře. Jeho argument jde hlouběji. Voják se vzdává své autonomie ve prospěch státu: jde, kam se mu řekne, podstupuje rizika, která si nevybral, a je placen podle stupnice stanovené zákonem – často mnohem méně, než by trh nabízel za stejné technické dovednosti. Zakladatel startupu, partner rizikového kapitálu nebo inženýr ve společnosti Palantir může zítra ráno rezignovat. Pokud tak učiní, může přijít o akciové opce, reputaci nebo konexie. To jsou skutečné náklady, ale jsou to tržní náklady, nikoli právní závazky. Nikdo ho neposílá do vězení. Nikdo ho neposílá na frontu. Právě tuto základní asymetrii slovo „ služba “ pečlivě maže.

Slova nikdy nejsou neutrální, zvláště v dobách války. Historik Andrew Bacevich o tom psal dlouho předtím, než Silicon Valley objevilo národní obranu: v knize *  Breach of Trust * formuloval myšlenku, která se ukázala jako prorocká. Válka se stává snazší, přijatelnější a pravděpodobnější, když se s ní elity mohou morálně ztotožnit, aniž by trpěly fyzickými následky. Rétorika „ služby “ toho dosahuje. Umožňuje zakladatelům a investorům, kteří staví autonomní zbraňové systémy, smrtící drony a platformy pro cílení s podporou umělé inteligence, vidět se a být vnímáni jako aktéři národní obrany na stejné úrovni jako armáda, kterou vybavují. Problém je v tom, že ti samí lidé stále více utvářejí americkou politiku: prostřednictvím lobbingu, financování think tanků, poradních rolí v Pentagonu a neustálého rotujícího systému mezi rizikovým kapitálem a vojenským establishmentem. Definují, které hrozby jsou naléhavé, které technologie jsou potřebné a jaká úroveň rizika je přijatelná. Z kanceláře v Palo Alto.

Válka čtyřmi kliknutími

To, co tyto technologie skutečně umožňují, je revoluční. A právě to činí otázky správy a řízení tak naléhavými.

Příběh Mavenu začal v roce 2017 skromnou formou: automatická identifikace a klasifikace snímků z vojenských dronů pro ulehčení práce lidským analytikům. O devět let později se systém vyvinul daleko za hranice jednoduchého nástroje pro třídění snímků. Je to platforma velení a řízení (C2), která v reálném čase slučuje data ze satelitů, dronů, radarů, pozemních senzorů a zpravodajských zpráv, aby automaticky extrahovala potenciální cíle: obrněný konvoj, muniční sklad, místo odpalování raket. Co dříve týmu lidských analytiků trvalo hodiny, nyní trvá jen několik sekund.

 

Čísla  mluví sama za sebe. Na začátku programu dokázal Maven zpracovat méně než sto cílů denně. Toto číslo  se zvýšilo na tisíc a poté na pět tisíc. Jedna cílová buňka nyní dokáže od detekce cíle k jeho zasažení přejít během několika minut, zatímco dříve to trvalo několik hodin. Během prvního týdne války proti Íránu bylo zasaženo více než 2 000 cílů, z nichž mnohé vybral Maven.

Tyto abstraktní čísla nabývají jiného rozměru, když se převedou do konkrétních operačních rytmů. První den operace Epic Fury Claude vygeneroval  přibližně  1 000 doporučení k cílům – jeden cíl každých 86 sekund. Během prvních 12 hodin bylo provedeno 900 úderů: jeden každých 48 sekund. Operátoři „ v smyčce “ měli v průměru méně než minutu a půl na to, aby si každé doporučení k cílení prohlédli, než se objevilo další. To, co armáda nazývá „ lidským úsudkem “, se tímto tempem redukuje na jedno kliknutí na schválení. Předchozí cvičení zdokumentovala přesnost Mavenu 60 % (ve srovnání s 84 % u lidských analytiků), přičemž systém si někdy spletl nákladní automobily se stromy. V této souvislosti byly provedeny údery na Minab, město v jižním Íránu, kde byla zasažena dívčí škola. V dnech předcházejících úderu nebyla v oblasti detekována žádná vojenská vozidla. Bylo zabito přibližně 150 studentů. Ani Pentagon, ani Palantir, ani Anthropic nepotvrdily, zda si Maven vybral budovu jako cíl.

V březnu 2026  Cameron Stanley , vedoucí kanceláře pro umělou inteligenci v Pentagonu, předvedl na akci Palantir veřejnou demonstraci, kde ukázal živé tepelné mapy cílení na Blízkém východě. „ Když jsme začínali, trvalo nám hodiny, než jsme dokázali to, co jste právě viděli ,“ řekl.

Maven Smart System není jen software pro vojenské mapování. V praxi systém integruje algoritmy počítačového vidění, které jsou schopny automaticky detekovat cíle, navrhovat plány pozemních a leteckých úderů a doporučovat, jakou munici a nosiče přidělit ke každému cíli, a to prostřednictvím nástroje  s názvem  „ AI Asset Tasking Recommender “. Claude, model umělé inteligence společnosti Anthropic, hrál ústřední roli: roli kognitivní vrstvy schopné transformovat surové datové toky na informace přímo použitelné operátorem. Interní demonstrace publikovaná společností Palantir ilustruje mechaniku s jednoznačnou přesností. Operátor požádá asistenta umělé inteligence, aby „ vygeneroval tři akční plány k zacílení na toto nepřátelské vybavení “. Během několika sekund se na obrazovce objeví tři možnosti: letecký úder, dělostřelectvo dlouhého doletu nebo taktický pozemní tým. Operátor si vybere. Umělá inteligence vygeneruje trasu přiblížení, přiřadí nepřátelské rušičky komunikace a vyšle rozkaz. Mise je zahájena.

Kromě tohoto systému existuje platforma Lattice od společnosti Anduril. Před několika dny  podepsala americká armáda  s tímto startupem desetiletou rámcovou smlouvu v potenciální hodnotě až 20 miliard dolarů, která nahrazuje více než 120 samostatných procesů zadávání veřejných zakázek. Lattice není jen sledovací software. Je to architektura schopná propojit tisíce senzorů, radarů, dronů a zbraňových systémů v jednom rozhraní velení a řízení, od vojáka v poli až po velitelství. První operační smlouva v hodnotě 87 milionů dolarů se zaměřuje na operace proti dronům. Účel systému je však explicitně širší: má se rozšířit na všechny federální agentury, včetně FBI, aby pokryl to, co armáda nazývá „ šedou zónou “, tedy nejednoznačný prostor, kde se trestná činnost a vojenské operace nakonec stávají nerozlišitelnými. Stručně řečeno, válčení a vymáhání práva se slévají do jediného rozhraní, které spravuje veřejně obchodovaná společnost. Silicon Valley už nevybavuje jen armádu. Je to celý donucovací aparát amerického státu.

Zakázáno kvůli svým zásadám

A pak, uprostřed toho všeho, jedna společnost řekla ne. Ne nějaký malý startup bez smluv a ambicí. Anthropic, oficiální dodavatel Pentagonu, certifikovaný pro utajované vojenské sítě, integrovaný do jádra Mavenu. Odmítl americké vládě poskytnout bezpodmínečný přístup ke svým modelům Claude.

Neshoda se soustředí na dva body. Společnost Anthropic  odmítá  povolit použití svých modelů pro rozsáhlý dohled nad americkými občany. Společnost se také domnívá, že její modely jednoduše nejsou připraveny pohánět autonomní zbraňové systémy schopné rozhodovat o smrtících úderech a provádět je bez jakéhokoli lidského zásahu. Postoje, které takto formulované zdánlivě vypadají jako zdravý rozum. Přesto právě za vyjádření těchto postojů byla společnost Anthropic Pentagonem oficiálně označena za „ riziko dodavatelského řetězce “.

Za zmínku stojí paradox. Anthropic nebyl zakázán kvůli technickým nedostatkům. Společnost byla první, jejíž modely byly certifikovány pro použití v utajovaných vojenských sítích. Držela autorizaci FedRAMP High, což je nejvyšší úroveň certifikace pro citlivé federální systémy. Nikdy neobdržela od vlády jediné bezpečnostní upozornění. Na černou listinu se dostala kvůli svému principiálnímu přístupu.

Společnost Anthropic se odvetila podáním dvou žalob proti Pentagonu za nezákonnou odvetu a porušení ústavy. Donald Trump však zvolil jiný přístup. „ Vyhodil jsem Anthropic ,“  řekl  Politicu. „  Vyhodil jsem je jako psy, protože to neměli dělat. “ Mezitím 37 zaměstnanců společností OpenAI a Google DeepMind, včetně Jeffa Deana, hlavního vědce Googlu, podepsalo  dopis  na podporu Anthropicu. Tito zaměstnanci veřejně obhajovali přímého konkurenta. Tato skutečnost sama o sobě do značné míry shrnuje podstatu debaty.

Jedna epizoda lépe než kterákoli jiná vystihuje stav závislosti, do kterého se americká armáda dostala. Po operaci  , která vedla k zajetí venezuelského prezidenta Nicoláse Madura, zavolali představitelé společnosti Anthropic společnosti Palantir, aby se zeptali, zda byly jejich modely při operaci použity. Sami to nevěděli. Tato otázka vyvolala to, co náměstek ministra pro výzkum Pentagonu Emil Michael  popsal  jako „ chvíli ohromeného ticha pro celé vedení Pentagonu “. Americká armáda si právě uvědomila, že se mohla stát závislou na soukromém dodavateli softwaru pro bojové operace, aniž by tomu plně rozuměla a bez jakékoli alternativy, která by byla připravena převzít kontrolu.

Odpojení Clauda: snadněji se řekne, než udělá

Zařazení  Anthropicu na černou listinu  vytvořilo situaci, kterou i inženýři z Pentagonu popisují jako kafkovskou. Claude nebyl periferním nástrojem v architektuře Maven; byl to základní vrstva. Celé sekce systému byly vytvořeny pomocí Claude Code, nástroje pro vývoj softwaru Anthropicu: pracovní postupy, kritické sekvence instrukcí, provozní automatizace. Nahrazení toho všeho není jen otázkou zapojení jiného modelu. Znamená to přestavbu podstatné části systému od nuly .

IT specialisté Pentagonu v terénu zuří. Strávili měsíce seznamováním operátorů s těmito nástroji. Claude považují za nejlepší dostupný model pro své potřeby. A na nově vznikající alternativu se dívají s malým nadšením: Grok, model Elona Muska, který podepsal s Pentagonem smlouvu s menšími omezeními než jeho konkurenti, často dává protichůdné odpovědi na stejnou otázku. Vládní dodavatelé zase hovoří hlavně o ztrátě času a zbytečných nákladech. Kvalifikace bude trvat 12 až 18 měsíců, což bude podle obecného názoru horší než to, co již existuje.

Agentura Reuters informovala o poněkud bizarní situaci:  zatímco  Pentagon oficiálně zakazoval systém Anthropic, jeho operátoři nadále používali systém Claude k analýze cílů v Íránu. Systém byl příliš integrovaný na to, aby se dal ze dne na den vypnout. Politické rozhodnutí bylo učiněno. Technická realita však tomuto kroku nenásledovala.

Společnost Palantir zase zdůrazňuje svou takzvanou „ agnostickou “ architekturu: platforma může teoreticky běžet na jakémkoli modelu, ať už pochází z OpenAI, Meta nebo odjinud. V praxi bude přestavba  pracovních postupů Mavenu  na jiném modelu než Claude trvat měsíce. Kromě technické výzvy je však důležitý signál vyslaný celému odvětví. Snaha omezit vojenské využití umělé inteligence by mohla vést k zařazení na černou listinu federální vládou. Kvalita produktu je irelevantní. Získané certifikace jsou irelevantní.

“ Nikdo nechce být tím, kdo sestřelil íránské letadlo

Toto napětí není pouze politické. Je také hluboce technické a kritika vychází zevnitř samotného systému. Generál John Cogbill, ředitel operací v CENTCOM,  veřejně  udělil systému Maven Smart System známku „ C+ “ na konferenci v srpnu 2024. Zmínil halucinace umělé inteligence, algoritmické zkreslení a riziko, že by systém mohl vést operátory k cílení na nesprávné lidi na nesprávném místě. Alex Miller, hlavní technologický důstojník americké armády,  poukazuje na  další konkrétní problém: systém je příliš náročný na šířku pásma, aby se dal používat pod divizní úrovní, což ho činí nepoužitelným pro drtivou většinu bojových jednotek v poli.

Emelia Probasco, bývalá poručíčka amerického námořnictva,  vrací  debatu k jejímu skutečnému významu: k otázce odpovědnosti. V roce 2006, když měla na starosti dělostřeleckou operaci na torpédoborci, jí kapitán dal dopis, který ji opravňoval k používání systému AEGIS. Stejný systém  v roce 1988 sestřelil  íránské letadlo (let Iran Air 655), při kterém zahynulo 290 civilistů poté, co si jej spletli s nepřátelským stíhacím letounem. Než toto oprávnění získala, strávila měsíc na obranné škole, kde se učila, jak AEGIS funguje, za jakých okolností může udělat chybu a jak reagovat. Uživatelé systému Maven, pět let po jeho širokém nasazení, takové školení nedostávají. „ Nikdo nechce být tím, kdo sestřelil íránské letadlo ,“ říká.

Jiní specialisté poukazují na ještě zásadnější problém. Hlavní jazykové modely jako Claude, Gemini a ChatGPT byly navrženy tak, aby uspokojily své uživatele. Jejich architektura je přirozeně vede k potvrzení toho, co si uživatel již myslí, k ověření jeho předpokladů, spíše než k jejich zpochybňování. Pete Walker, bývalý velitel amerického námořnictva a doktor kognitivních věd, je  v tomto bodě kategorický  . V civilním kontextu je tato tendence drobnou vadou. Ve vojenském kontextu, kde se analytik snaží potvrdit identitu cíle nebo ověřit plán úderu, je to jiný příběh. Model, který operátorovi říká, co chce slyšet, může přispět k vyslání raket na špatné místo.

Existuje také čistě logistické omezení. Rozsáhlé modely umělé inteligence vyžadují pro své fungování neustálé připojení ke  cloudu  . Přitom právě na bojišti je toto spojení nejkřehčí. Írán se  zaměřil na  několik datových center Amazon Web Services (AWS) v Bahrajnu a Spojených arabských emirátech.  Elektronický boj  narušuje komunikaci. Systém, který musí kontaktovat vzdálený server, aby zpracoval požadavek na cílení, je nejen nespolehlivý v provozu, ale také poskytuje protivníkovi prostor pro útok.

Právě v tomto kontextu se snaží etablovat nová generace startupů. Založené a vedené bývalými vojenskými pracovníky slibují modely umělé inteligence navržené speciálně pro válčení: schopné provozu bez  cloudového připojení , trénované na bojových datech, nikoli na veřejném internetu. Prodejní argument   stručně shrnuje specializovaný investor: „ Model s 85 % schopností, ale běžící na degradované síti na taktické hranici, překonává GPT-5 v nepřístupném datovém centru. “ Logika je nezvratná. A odhaluje dělbu práce, která se pevně etabluje: velké technologické společnosti poskytují surovou energii, vojenské startupy zajišťují adaptaci na terén. Řetězec se prodlužuje. A s každým dalším článkem se otázka odpovědnosti stává o něco obtížnější k řešení.

Nasazeno bez instrukcí

Skutečným problémem ale není spolehlivost současných modelů. Jde o směr, kterým se celý systém ubírá. V prosinci 2024 provedla 13. brigáda ukrajinské Národní gardy poblíž Charkova  to, co  je považováno za první útočnou operaci provedenou výhradně bezpilotními systémy. Dálkově ovládaná pozemní vozidla postupovala k kladení a neutralizaci min, zatímco sledovací a útočné drony poskytovaly leteckou podporu. Během počátečního útoku nebyl odhalen ani jeden voják. Ruské obranné pozice byly zničeny a ukrajinská pěchota byla schopna postoupit a udržet si pozemní postavení. Tato operace však zůstala pod lidskou kontrolou, lidé monitorovali videozáznamy v reálném čase a ručně řadili akce. To, co přijde potom, je něco úplně jiného. Specialisté hovoří o „ autonomii od spuštění “: systémy, které plní svou misi od začátku do konce bez lidského zásahu, přizpůsobují se nepředvídaným událostem a vybírají z předem schválených akcí, i když ztratily veškerý kontakt se svou základnou.


Tato změna zásadně mění význam velení. Velitel již nekontroluje provádění operací v reálném čase. Jeho úlohou je nyní je předem programovat. Už neschvaluje každý úder: definuje pravidla hry před zahájením mise, specifikuje, které akce jsou povoleny, které jsou zakázány a jak by měl systém reagovat na nepředvídanou situaci. Je to radikálně nová forma delegování. A odvíjí se rychlostí, se kterou lidské schvalovací procesy prostě nestačí.

Generál Christopher Donahue (americká armáda) nenechává  žádné pochybnosti  o zvoleném směru: „ Nakonec se to všechno automatizuje. “  Feinbergovo memorandum  , které oficiálně spustilo Maven, tento názor odráží a uvádí, že je „ nezbytné “ učinit z „ rozhodování s pomocí umělé inteligence základní kámen “ americké vojenské strategie. Pokud jde o oficiální politiku Pentagonu ohledně autonomie zbraňových systémů, vyžaduje pouze „ přiměřenou úroveň lidského úsudku ohledně použití síly “. Tato formulace je dostatečně vágní, aby nikoho nezavazovala, postrádá právní definici a lze ji upravit jednoduchým prezidentským dekretem.

Systémy jsou nasazeny. Doktrína pro jejich použití však dosud neexistuje. Doposud  žádné  společné velení USA nebylo pověřeno definováním toho, jak by měly autonomní formace bojovat, koordinovat své síly nebo být řízeny. Nejmocnější armáda světa vede válku s nástroji, pro které dosud nenapsala návod k použití.

Ochranná opatření jsou volitelná, nikoli povinná

Spor mezi společností Anthropic a Pentagonem měl přinejmenším tu výhodu, že vynutil otevřenou debatu, debatu, která se až doposud odehrávala v temnotě utajovaných smluv a firemních dohod.

Zaměstnanci společností OpenAI a Google DeepMind, kteří podepsali dopis na podporu Anthropic, vyjádřili velmi přesnými slovy to, co každý cítí, ale neodvažuje se vyjádřit. „ Z naší pozice v hraničních laboratořích umělé inteligence ,“ napsali, „  chápeme, že systém umělé inteligence používaný pro hromadný dohled by mohl rozpustit izolovaná prostředí a korelovat data rozpoznávání obličejů s historií polohy, záznamy o transakcích, sociálními grafy a vzorci chování stovek milionů lidí současně. “ Toto není alarmistická hypotéza. Je to popis toho, co je dnes technicky možné.

Pentagon tvrdí, že nemá v úmyslu používat umělou inteligenci k hromadnému sledování Američanů, což je výslovně uvedeno v jeho smlouvě s OpenAI. Jde však o tytéž právní texty, které v minulosti umožňovaly sledování Američanů pomocí stávajících technologií. Mezitím  Elon Muskova společnost xAI  podepsala  s Pentagonem smlouvu, která zahrnuje ještě méně přísná omezení. Americká veřejnost nakonec nemá jinou možnost, než věřit Petu Hegsethovi, Elonu Muskovi a Samu Altmanovi, že nepřekročí hranici. To není veřejná politika. Je to sázka na ctnost tří mužů, kteří navíc dostatečně prokázali, že jejich osobní zájmy mají přednost před vším ostatním.

V  rozhovoru pro  časopis Time řekl Dario Amodei, generální ředitel společnosti Anthropic, to, co si jen málokdo troufne říct. Obvykle včetně něj samotného. „ Nechceme , aby firmy byly mocnější než vlády. Ale také nechceme, aby vlády byly tak mocné, aby je nebylo možné zastavit. Máme oba problémy zároveň. “ A tak to je. A zdá se, že nikdo nemá odpověď. Ani firmy zabývající se umělou inteligencí, které samy přiznávají, že se „ vyhýbají přílišnému preskriptivnímu přístupu “. Ani americký Kongres, který ani čtyři roky po vzniku ChatGPT stále nevypracoval žádnou legislativu o generativní umělé inteligenci. Ani armáda, jejíž doktrinální cykly trvají 15 až 20 měsíců v oblasti, kde k aktualizacím softwaru dochází během několika týdnů. Všichni se dívají. Nikdo nepřebírá odpovědnost.

Vyloučení Anthropic vysílá jasné znamení celému odvětví: pokus o regulaci vojenského využití umělé inteligence představuje komerční riziko. Etické záruky jsou možností, nikoli požadavkem. Expertní skupiny OSN varovaly, že cílení umělé inteligence bez lidského dohledu s sebou nese značná etická a právní rizika. Tato varování však zůstávají neúčinná. A označení Mavenu za oficiální program Pentagonu sahá i za hranice Spojených států. Spojenci NATO, kteří se snaží harmonizovat své systémy s americkou vojenskou infrastrukturou, sledují, co se děje ve Washingtonu. Maven je již nasazen v několika členských zemích. Zda se tento model s jeho nedostatky a nedostatečnou správou stane standardem, se teprve uvidí. Směr je však jasný.

Poslední článek řetězu nosí uniformu

Otázka, kterou to všechno vyvolává, není technická. Je demokratická a stará jako válka sama: kdo rozhoduje o posílání mužů na smrt a kdo nese následky?

Válka se nyní vede i na finančních trzích. Před operací Epic Fury se na Polymarketu , přední online sázkové platformě pro geopolitické události, obchodovaly miliardy dolarů  , což umožňovalo komukoli sázet na pravděpodobnost a načasování amerického úderu proti Íránu. Teoreticky tyto trhy shromažďují rozptýlené informace a vytvářejí kolektivní pravděpodobnost. V praxi může státní aktér s několika miliony dolarů anonymně nakupovat smlouvy, zvýšit vnímanou pravděpodobnost úderu z 25 % na 60 % a vytvořit zdání úniku utajovaných informací. Spojenci i protivníci se dívají na stejná čísla. Podle toho upravují svá rozhodnutí. Trhy určené k předpovídání války tak mohou přispět k jejímu zahájení.

V této situaci se vojáci, kteří nesou největší riziko, ti, kteří nemohou rezignovat, když se podmínky změní, ocitají jako koncoví uživatelé softwaru navrženého v Palo Alto, testovaného na demonstracích pro investory a nasazeného ještě předtím, než kdokoli vůbec napíše návod k použití. Jsou to oni, kdo budou mít velení, když algoritmus mine svůj cíl. Jsou to oni, kdo budou žít s důsledky rozhodnutí lidí, kteří na rozdíl od nich mají vždy možnost vstát a odejít.

Alex Karp, generální ředitel společnosti Palantir, na konferenci AIPCon 9 řekl: „ Někdy to znamená, že se lidé na druhé straně domů nevrátí. “ Tato poznámka přišla několik dní po útoku na školu Minab. Palantir odmítl sdělit, zda jeho systémy sehrály v útoku roli.

Ať už Maven splní své sliby, nebo vygeneruje první vážné nehody v reálných podmínkách, jedno je jisté: vojenská umělá inteligence již není experimentálním projektem. Je zahrnuta ve federálním rozpočtu, integrována do probíhajících operací a ověřována na nejvyšších úrovních Pentagonu. A myšlenka, že by technologická společnost mohla zavést etická omezení svého vojenského využití, právě utrpěla vážnou ránu. Co se stává pevně zavedenou, je smrtící rozhodovací architektura budovaná soukromými společnostmi, financovaná trhy, provozovaná algoritmy a prozatím nikým neřízená.

Silicon Valley se naučilo mluvit jazykem oběti. Ještě ne nést jeho břemeno. Mezitím systémy běží dál. 5 000 cílů denně. A nikdo, právně, eticky ani demokraticky, není skutečně zodpovědný za to, co se stane, když udělá chybu.

od Pierra Sauvetona

 

Sdílet: