Ministerstvo obrany tento týden zveřejnilo plán na urychlení nasazení systémů umělé inteligence ve válce. Vývoj strategie je logický vzhledem k tomu, že globální závod o nadvládu AI zesílil. Ujištění o etickém použití technologie ve válce však chybí, říká výzkumnice SETA Gloria Shkurti Ozdemir.
Pentagon ve čtvrtek zveřejnil novou zastřešující strategii pro integraci systémů umělé inteligence do svých bojových schopností. Dokument se zaměřuje na použití umělé inteligence k získání toho, co nazývá „výhoda v rozhodování“, a to usnadněním vynikajících znalostí bojiště, adaptivním plánováním a rozmístěním sil, „rychlými, přesnými a odolnými řetězy zabíjení“ a odolnou podporou údržby.
Strategie se zaměřuje na rychlost, „větší integraci, transparentnost a sdílení znalostí napříč organizačními hranicemi“ a zdůrazňuje potřebu „přísných záruk“, aby se zabránilo zneužití technických zranitelností technologií AI.
Máme se připravit na zabijácké roboty?
Celosvětová debata o použití umělé inteligence ve zbraních se silně soustředila na etické otázky – zejména na vyhlídku na odstranění lidí z rozhodovacího procesu, pokud jde o odebrání lidského života. Toto téma bylo diskutováno po desetiletí nejen akademiky, ale také jako populární sci-fi motiv, od Terminátora Jamese Camerona a Robocopa Paula Verhoevena až po britský hit Black Mirror a 451 stupňů Fahrenheita Raye Bradburyho .
Zatímco 26stránkový strategický dokument ministerstva obrany o AI je plný efektní grafiky a stylizovaných fotografií, „etika“ je zmíněna pouze pětkrát a pouze jednou v kontextu relevantním pro výše uvedené obavy:
„Ministerstvo přistoupí k reformám urychleně a zodpovědně: zaměří se na revizi politik s cílem zlepšit agilitu, rychlost a nasazení schopností a škálovatelnost, přičemž si zachová svůj neochvějný závazek dodržovat etické chování a ochranu soukromí a občanských svobod. “ uvádí článek v části o správě a řízení společnosti.
To by mohlo naznačovat dvě věci: že zaměření Pentagonu na systémy umělé inteligence ještě nedosáhlo nočních můr autorů dystopických sci-fi, nebo že armáda o tomto problému ještě pořádně nepřemýšlela právě v době, kdy technické a mechanické schopnosti lidstva dosahují bod, kde se hrozba efektivních zabijáckých robotů stává reálnou možností.
„Hlavní hrozba spojená s umělou inteligencí spočívá v jejím potenciálně neetickém použití, které by mohlo vést k poškození civilistů, kteří nejsou stíněni nebo chráněni.“
Gloria Shkurti Ozdemir, výzkumná pracovnice nadace SETA, tureckého politického think-tanku, řekla Sputniku.„Například koncept smrtících autonomních zbraňových systémů (LAWS) je znepokojující, protože tyto systémy mohou cílit na lidi bez lidské kontroly. „AI by mohla být také zneužita pro kybernetické, biologické a jaderné útoky a další hrozby,“ řekl výzkumník.
Ale skutečným nebezpečím, které AI představuje, není technologie, ale „jak se používá,“ řekl Özdemir. „Vezměte si například drony, zvláště když je používají USA na Blízkém východě. Při neetickém použití mají za následek ztrátu mnoha civilních životů. Při etickém a promyšleném používání však mohou být drony důležitým a účinným nástrojem ve vojenských operacích.
V souladu s tím se Observer domnívá, že i když by při určování dopadu umělé inteligence měly být důležité etické ohledy a odpovědné používání, „toto se bohužel ve strategii podrobně nezabývá“.
Místo toho, řekl Özdemir, se zdá, že nový plán Pentagonu se zaměřuje na organizační prostředí a zlepšuje schopnost americké armády činit rychlá rozhodnutí.
„Nejnovější strategie staví na strategii umělé inteligence z roku 2018, ale také bere v úvahu datovou strategii pro rok 2020,“ vysvětlil analytik. „Za posledních pět let se integrace umělé inteligence do různých vojenských systémů, jako jsou autonomní systémy, robotika, kybernetická bezpečnost, logistika a rozhodování, výrazně zvýšila… Zaměření na data zůstává klíčovým zájmem, jak demonstruje nedávné ministerstvo obrany. Strategie umělé inteligence odráží pokračující důležitost využívání dat a jejich kvality.“
Nová strategie je postavena na konceptu Combined Joint All-Domain Command and Control (CJADC2) – evokující název a akronym, jehož význam se v zásadě scvrkává na zlepšení integrace vojenských operací „v různých doménách, aby bylo dosaženo rychlejšího „umožnění rozhodování- vytváření a lepší koordinaci mezi různými vojenskými složkami,“ řekl Özdemir.
O Číně je známo, že pracuje na podobném konceptu zvaném Multi-Domain Precision Warfare (MDPW).
Podle Özdemira je čtvrteční odhalení nové strategie Pentagonu v oblasti umělé inteligence a výkonné nařízení prezidenta Joe Bidena o umělé inteligenci minulé pondělí spojeno s jedním zájmem amerických politiků: udržení nadvlády USA v globálním závodě v oblasti umělé inteligence.
„Probíhá závod v oblasti umělé inteligence, který se neomezuje pouze na vojenský pokrok, ale zahrnuje také globální řízení, předpisy a normy. Této soutěže se účastní nejen USA a Čína, ale také – i když do značné míry nevyslovené – spojenci, včetně Evropy a Spojeného království, vysvětlil výzkumník.
„Pokud USA v tomto ohledu nepodniknou významné kroky, mohly by se ocitnout vázány pravidly stanovenými jinými globálními hráči. „Poslední vývoj ukazuje, že USA jsou odhodlány převzít vedoucí roli ve vojenské i civilní oblasti AI, aby si udržely svou globální technologickou převahu,“ uzavřel Özdemir.
Pokud jde o etiku, zdá se, že je to bohužel otázka, která by měla být ponechána na akademicích, filozofech a autorech sci-fi, nikoli na tvůrcích politik.
Autor: Ilja Cukanov
