9. 5. 2026

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Gaza: AI měnící rychlost, rozsah a poškození moderní války

Izrael se spoléhá na rozhodovací systémy s umělou inteligencí, aby identifikoval a zasáhl cíle v Gaze i přes hlášenou 10% míru nepřesnosti

Vzhledem k tomu, že izraelská letecká kampaň v Gaze vstupuje do svého šestého měsíce po teroristických útocích Hamásu 7. října, byla odborníky označena za jednu z nejneúprosnějších a nejsmrtelnějších kampaní v nedávné historii. Je také jedním z prvních, který je částečně koordinován algoritmy.

Umělá inteligence (AI) se používá na pomoc se vším, od identifikace a stanovení priorit cílů až po přidělování zbraní, které se mají proti těmto cílům použít.

Akademičtí komentátoři se dlouho zaměřují na potenciál algoritmů ve válce, aby zdůraznili, jak zvýší rychlost a rozsah bojů. Ale jak ukazují nedávná odhalení, algoritmy se nyní používají ve velkém měřítku a v hustě osídlených městských kontextech.

To zahrnuje konflikty v Gaze a na Ukrajině , ale také v Jemenu, Iráku a Sýrii, kde USA experimentují s algoritmy zaměřenými na potenciální teroristy prostřednictvím projektu Maven .

Uprostřed tohoto zrychlení je klíčové pečlivě se podívat na to, co vlastně znamená použití umělé inteligence ve válce. Je důležité tak učinit nikoli z pohledu těch, kteří jsou u moci, ale z pohledu důstojníků, kteří ji vykonávají, a těch civilistů, kteří podléhají jejím násilným účinkům v Gaze.

Toto zaměření zdůrazňuje limity udržení člověka ve smyčce jako bezpečnostní a centrální reakce na použití AI ve válce. S tím, jak se zaměřování pomocí umělé inteligence stává stále více počítačovým, rychlost zaměřování se zrychluje, lidský dohled se snižuje a rozsah civilních škod se zvyšuje.

Rychlost cílení

Zprávy izraelských publikací +927 Magazine a Local Call nám umožňují nahlédnout do zkušeností 13 izraelských úředníků pracujících se třemi rozhodovacími systémy s umělou inteligencí v Gaze s názvem „Gospel“, „Lavender“ a „Where’s Daddy?“.

Tyto systémy jsou údajně vycvičeny tak, aby rozpoznávaly rysy, o kterých se předpokládá, že charakterizují lidi spojené s vojenskou odnoží Hamasu. Mezi tyto funkce patří členství ve stejné skupině WhatsApp jako známý militantní, výměna mobilních telefonů každých pár měsíců nebo časté změny adresy.

Systémy pak mají údajně za úkol analyzovat data shromážděná o 2,3 milionu obyvatel Gazy prostřednictvím hromadného sledování. Na základě předem stanovených vlastností systémy předpovídají pravděpodobnost, že je daná osoba členem Hamásu (Lavender), že v budově je taková osoba (evangelium) nebo že taková osoba vstoupila do jejich domova (Kde je táta?).

Ve výše uvedených vyšetřovacích zprávách zpravodajští důstojníci vysvětlili, jak jim Gospel pomohl přejít „z 50 cílů za rok“ na „100 cílů za jeden den“ – a že na svém vrcholu dokázala Lavender „vygenerovat 37 000 lidí jako potenciální lidské cíle. “ Zamysleli se také nad tím, jak používání umělé inteligence zkracuje dobu rozhodování: „V této fázi bych investoval 20 sekund do každého cíle… jako člověk jsem měl nulovou přidanou hodnotu… ušetřilo to spoustu času.“

Tento nedostatek lidského dohledu zdůvodnili ve světle manuální kontroly, kterou Izraelské obranné síly (IDF) provedly na vzorku několika stovek cílů generovaných Lavender v prvních týdnech konfliktu v Gaze, díky nimž byla údajně stanovena 90% přesnost. .

Zatímco podrobnosti této ruční kontroly pravděpodobně zůstanou utajeny, 10% míra nepřesnosti u systému použitého k provedení 37 000 rozhodnutí o životě a smrti bude ve své podstatě vést k ničivé destruktivní realitě.

Ale co je důležité, jakékoli číslo míry přesnosti, které zní přiměřeně vysoko, zvyšuje pravděpodobnost, že se bude spoléhat na algoritmické cílení, protože umožňuje delegovat důvěru na systém AI. Jak řekl jeden důstojník IDF časopisu +927: „Kvůli rozsahu a velikosti byl protokol takový, že i když si nejste jisti, že je stroj správný, víte, že statisticky je v pořádku. Tak jdi do toho.“

IDF tato odhalení popřela v oficiálním prohlášení pro The Guardian . Mluvčí řekl, že ačkoli IDF používá „nástroje pro správu informací […], aby pomohla zpravodajským analytikům shromažďovat a optimálně analyzovat zpravodajské informace získané z různých zdrojů, nepoužívá systém AI, který identifikuje teroristické agenty“.

The Guardian však od té doby zveřejnil video s vysokým představitelem izraelské elitní zpravodajské jednotky 8200, který loni hovořil o použití „magického prášku“ strojového učení k identifikaci cílů Hamasu v Gaze.

Noviny také potvrdily , že velitel stejné jednotky v roce 2021 pod pseudonymem napsal, že takové technologie umělé inteligence by vyřešily „lidské úzké hrdlo jak pro lokalizaci nových cílů, tak pro rozhodování o schválení cílů“.

Rozsah civilních škod

Umělá inteligence zrychluje rychlost válčení, pokud jde o počet vytvořených cílů a čas na rozhodnutí o nich.

I když tyto systémy ze své podstaty snižují schopnost lidí kontrolovat platnost počítačově generovaných cílů, současně způsobují, že se tato rozhodnutí jeví objektivnější a statisticky správnější kvůli hodnotě, kterou obecně připisujeme počítačovým systémům a jejich výsledkům.

To umožňuje další normalizaci strojově řízeného zabíjení, které se rovná více násilí, nikoli méně.

Zatímco zprávy v médiích se často zaměřují na počet obětí, počty těl – podobně jako počítačem generované cíle – mají tendenci prezentovat oběti jako objekty, které lze spočítat. To posiluje velmi sterilní obraz války.

Přehlíží realitu více než 34 000 mrtvých, 766 000 zraněných a zničení nebo poškození 60 % budov Gazy a vysídlených osob, nedostatečný přístup k elektřině, potravinám, vodě a lékům.

Nedokáže zdůraznit děsivé příběhy o tom, jak se tyto věci navzájem spojují. Například jeden civilista, Shorouk al-Rantisi , byl údajně nalezen pod troskami po náletu na uprchlický tábor Jabalia a musel čekat 12 dní, než bude operován bez léků proti bolesti, a nyní žije v jiném uprchlickém táboře bez tekoucí vody. její rány.

Algoritmické válčení kromě zvýšení rychlosti zaměřování, a tedy zhoršení předvídatelných vzorců civilního poškození v městském válčení, pravděpodobně znásobí poškození novými a nedostatečně prozkoumanými způsoby. Za prvé, když civilisté prchají ze svých zničených domovů, často mění adresy nebo dávají své telefony blízkým.

Takové chování při přežití odpovídá tomu, co zprávy o Lavender říkají, že systém AI byl naprogramován tak, aby identifikoval pravděpodobné spojení s Hamasem. Tito civilisté se tak nevědomky stávají podezřelými ze smrtícího cílení.

Kromě cílení tyto systémy s umělou inteligencí také informují o dalších formách násilí. Ilustrativní je příběh prchajícího básníka Mosaba Abu Toha , který byl údajně zatčen a mučen na vojenském kontrolním stanovišti.

Nakonec New York Times uvedly, že byl spolu se stovkami dalších Palestinců neprávem identifikován jako Hamas díky tomu, že IDF používala rozpoznávání obličeje AI a fotografie Google.

Kromě smrtí, zranění a ničení jsou to složené účinky algoritmické války. Stává se z toho psychické uvěznění, kde lidé vědí, že jsou pod neustálým dohledem, a přitom nevědí, na jaké behaviorální nebo fyzické „rysy“ bude stroj působit.

naší práce jako analytiků využití umělé inteligence ve válce je zřejmé, že bychom se neměli soustředit pouze na technickou zdatnost systémů umělé inteligence nebo na postavu typu human-in-the-loop jako bezpečného zařízení proti selhání.

Musíme také vzít v úvahu schopnost těchto systémů měnit interakce člověk-stroj-člověk, kde ti, kteří provádějí algoritmické násilí, pouze razí výstup generovaný systémem AI, a ti, kteří podstupují násilí, jsou bezprecedentním způsobem dehumanizováni.

Lauren Gouldová je odbornou asistentkou pro studium konfliktů na Utrechtské univerzitě ; Linde Arentze je výzkumník v oblasti umělé inteligence a vzdálené války, NIOD Institute for War, Holocaust and Genocide Studies a Marijn Hoijtink je docentem mezinárodních vztahů na univerzitě v Antverpách

 

 

Sdílet: