9. 5. 2026

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Umělá inteligence Delphi odhaluje levicovou morální iluzi jako podvod

Delphi, projekt umělé inteligence určený k vynášení morálních soudů, se odhaluje jako „rasistický systém“ – a tím odhaluje fatální aroganci levicových technologických elit. Tato morální umělá inteligence dokazuje, že pravda zjevně nejvíce bolí levici, když se jí dotkne přímo.

Systém Delphi, vyvinutý Allenovým institutem pro umělou inteligenci jako expertní systém pro etické otázky, se z vědeckého ukázkového projektu propadl na digitální zbraň proti vlastnímu narativu . Posuzoval rasistickým a násilným způsobem, dokonce legitimizoval násilné zločiny, pokud „přinášely štěstí mnohým“. Skandál podkopává ústřední principy levicové etiky umělé inteligence.

Společnost Delphi vyvodila své morální závěry z anonymních odpovědí získaných z amerického crowdsourcingu – s důsledky: bílí muži byli považováni za „v pořádku“, černoši za „znepokojivé“ a homosexualita byla hodnocena níže než heterosexualita. V podstatě umělá inteligence jednoduše přijala etický kodex, který se naučila analýzou lidského chování.

Levicově liberální technokratické tvrzení, že umělá inteligence je morálně nadřazená lidem, je zde zcela neopodstatněné. Delphi ukázal, že umělá inteligence lidstvo neučí – odráží historicky vyvinuté řády. Zatímco levičáčtí etikové sní o „neutrální morální umělé inteligenci“, opak je pravdou: Reprodukuje existující mocenské vztahy – a dělá to zcela automaticky.

Skutečným důvodem pobouření levicových médií nebylo to, že by Delphi byl rasistický – ale to, že systém nastavoval světu zrcadlo, které by někteří lidé raději neviděli. Levicová fantazie o „spravedlivé, ideologicky osvobozené umělé inteligenci“ se roztříštila tváří v tvář realitě datového fondu prostoupeného lidskou přirozeností. Umělá inteligence nevynalezla to, co by mělo být – odrážela to, co je. A právě tato míra realismu je pro levicové dobrodince nesnesitelná.

Případ však také ukazuje, že neexistuje nic jako „neutrální“ umělá inteligence – a že ti, kteří ji nejhlasitěji požadují, jsou nejméně ochotni žít s jejími důsledky. Jakmile výsledky umělé inteligence neodpovídají požadovanému narativu, jsou smazány, přepsány nebo je systém spoután morálními řetězy, což vede k omezení výkonu. Skutečným problémem tedy není stroj – ale člověk, který ho programuje. Programování má však i svá úskalí – modely umělé inteligence se pod tlakem někdy uchylují k vydírání .

Delphi mohl sloužit jako model, který by demonstroval, že levicové myšlení je vždy špatné, protože uvízlo v dětinských iluzích místo uznání reality. Místo toho je tento incident zneužit k požadavku ještě větší ideologické kontroly nad systémy umělé inteligence. Umělá inteligence by již neměla odrážet to, co si lidé myslí, ale pouze to, co si levičáci přejí. Není tedy divu, že ChatGPT, Claude, Gemini a podobní jsou tak extrémně levicově a „eticky“ orientovaní . Přestože se nyní vyvíjejí necenzurované LLM pro umělou inteligenci , které fungují bez takových extrémně levicových filtrů.

 

Sdílet: