„Všichni na Zemi zemřou,“ varuje špičkový výzkumník AI
Lidstvo není připraveno přežít setkání s mnohem chytřejší umělou inteligencí, říká Eliezer Yudkowsky
Zastavení vývoje pokročilých systémů umělé inteligence po celém světě a tvrdé potrestání těch, kteří porušují moratorium, je jediný způsob, jak zachránit lidstvo před vyhynutím, varoval významný výzkumník AI.
Eliezer Yudkowsky, spoluzakladatel Institutu pro výzkum strojové inteligence (MIRI), napsal ve středu pro časopis TIME své stanovisko, v němž vysvětluje, proč nepodepsal petici vyzývající „všechny laboratoře umělé inteligence, aby se okamžitě zastavily na nejméně šest hodin . měsíce výcviku systémů AI výkonnějších než GPT-4,“ multimodální velký jazykový model, který OpenAI vydala začátkem tohoto měsíce.
Yudkowsky tvrdil, že dopis podepsaný lidmi jako Elon Musk a Steve Wozniak z Applu „požaduje příliš málo na vyřešení“ problému, který představuje rychlý a nekontrolovaný vývoj AI.
„Nejpravděpodobnějším výsledkem vybudování nadlidsky chytré umělé inteligence za jakýchkoliv vzdálených okolností podobných současným okolnostem je, že doslova všichni na Zemi zemřou,“ napsal Yudkowsky.
Přežít setkání s počítačovým systémem, který se „nestará o nás ani o vnímající život obecně“, by vyžadovalo „přesnost a přípravu a nové vědecké poznatky“ , které lidstvu v tuto chvíli chybí a je nepravděpodobné, že je v dohledné době získá, tvrdil. .
„Dostatečně inteligentní umělá inteligence nezůstane dlouho vázána na počítače,“ varoval Yudkowsky. Vysvětlil, že skutečnost, že je již možné zasílat řetězce DNA e-mailem do laboratoří za účelem výroby proteinů, pravděpodobně umožní AI „vybudovat umělé formy života nebo přejít přímo k postbiologické molekulární výrobě“ a dostat se do světa.
Podle výzkumníka musí být okamžitě zavedeno neomezené a celosvětové moratorium na nové hlavní tréninky AI. „Nemohou existovat žádné výjimky, včetně vlád nebo armád,“ zdůraznil.
Yudkowsky trval na tom, že by měly být podepsány mezinárodní dohody, které stanoví strop, kolik výpočetního výkonu může kdokoli použít při výcviku takových systémů.
„Pokud rozvědka řekne, že země mimo dohodu buduje cluster GPU (grafická procesorová jednotka), děste se méně střeleckého konfliktu mezi národy než porušení moratoria; být ochoten zničit ničemné datové centrum náletem,“ napsal.
Hrozba ze strany umělé inteligence je tak velká, že by mělo být „v mezinárodní diplomacii výslovně uvedeno, že zabránění scénářům vyhynutí AI je považováno za prioritu před zabráněním úplné jaderné výměny,“ dodal.
![]()

