30. 11. 2025

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Měli bychom dbát varování odborníků na AI a přestat HNED?

99 % populace nemá ponětí, co AI vlastně je nebo jakou hrozbu pro lidstvo představuje. Když skuteční odborníci v oboru vydávají důrazná varování, aby zastavili vývoj AI, zbytek světa stále neví, proč by jim měl někdo naslouchat, a tak vývoj pokračuje v nezmenšené míře a bez kontroly. ⁃ Editor TN

Přední odborník na AI vydal důrazné varování před potenciálem superinteligentní technologie AI vyhladit svět.

Eliezer Yudkowsky je předním výzkumníkem AI a tvrdí, že „všichni na Zemi zemřou“, pokud nezastavíme vývoj nadlidských inteligenčních systémů.

Tento 43letý muž je spoluzakladatelem Machine Intelligence Research Institute (MIRI) a tvrdí, že velmi dobře ví, jak „strašně nebezpečná tato technologie je“.

Obává se, že pokud dojde na bitvu mezi lidmi a nadlidmi, výsledkem bude „totální ztráta“, píše v TIME.

Jako metafora říká, že by to bylo jako „11. století ve snaze bojovat proti 21. století“.

Člověk by zkrátka dramaticky prohrál.

Dne 29. března předložili přední experti OpenAI otevřený dopis s názvem „Pozastavte experimenty s obří AI“, v němž vyzývali k okamžitému šestiměsíčnímu zákazu výcviku výkonných systémů AI.

Dopis podepsali mimo jiné spoluzakladatel Applu Steve Wozniak a Elon Musk.

Americký teoretik však tuto petici odmítá podepsat, protože „požaduje příliš málo na vyřešení problému“.

Hrozba je tak velká, že tvrdí, že vyhlazení AI by mělo být považováno za „prioritu před zabráněním úplné jaderné náhrady“.

Varuje, že nejpravděpodobnějším výsledkem robotické vědy je, že vytvoříme „AI, která nedělá to, co chceme, a která se nestará o nás ani o vnímající život obecně“.

Yudkowsky připouští, že ještě nejsme ve výuce umělé inteligence, jak se starat, protože „momentálně nevíme jak“.

Naprostá realita je spíše taková, že v mysli robota jste „vyrobeni z atomů, které může použít na něco jiného“.

„Pokud někdo vybuduje příliš výkonnou AI za současných podmínek, očekávám, že každý jednotlivý člen lidského druhu a veškerý biologický život na Zemi krátce poté zemře.“

Yudkowsky poukazuje na to, že „v současnosti nemáme ponětí, jak určit, zda jsou systémy umělé inteligence sebevědomé“.

To znamená, že vědci by mohli neúmyslně vytvořit „skutečné vědomé digitální mozky“, což by vedlo k nejrůznějším morálním dilematům, protože vědomé bytosti mají práva a neměly by být vlastněny.

Naše nevědomost, přísahá, bude naším pádem.

Protože výzkumníci nevědí, zda vytvářejí sebevědomou AI, říká: „Nemají ponětí, co dělají, a to je nebezpečné, a měli by s tím přestat.“

Yudkowsky tvrdí, že nám může trvat desítky let, než vyřešíme problém bezpečnosti nadlidské inteligence – že bezpečnost spočívá v tom, „nedoslova každého zabít“ – a za tu dobu bychom mohli být všichni mrtví.

Ústřední vyjádření odborníka zní: „Nejsme připraveni. Nejsme na dobré cestě být připraveni v rozumném časovém rámci. Neexistuje žádný plán.

„Pokrok ve schopnostech umělé inteligence je daleko, daleko před pokrokem v pochopení toho, co se v těchto systémech děje. Pokud to skutečně uděláme, všichni zemřeme.“

Aby se zabránilo této katastrofě, která otřásla světem, Yudkowsky věří, že jediným způsobem je zastavit veškeré školení nových technologií AI na celém světě, „bez výjimek, včetně vládních a vojenských“.

Pokud by někdo tuto dohodu porušil, expert na AI dokazuje svou upřímnost tím, že říká, že vlády by měly být připraveny „zničit nepoctivé datové centrum náletem“.

„Každý, kdo mluví o závodech ve zbrojení, je hlupák. To, že všichni žijeme nebo umíráme společně, není politika, ale přírodní fakt.“

 

 

 

 

 

 

Sdílet: