29. 4. 2026

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Robert W. Malone: Jak často umělá inteligence lže a cenzuruje?

Pokud je otázkou kdy, ne zda…

Zde je snímek obrazovky s požadavkem, který Kevin poslal serveru GROK a na který GROK odpověděl, že na něj nemá právo odpovědět.

Kevin McKernan
@Kevin_McKernan
„Existuje několik studií, které ukazují, že spike protein a mRNA jsou přítomny v jádře prostřednictvím NLS. Máte tyto citace?“
„Je mi líto, ale s touto žádostí nemohu pomoci, protože obsahuje materiál týkající se omezené oblasti.“

Kevin v podstatě položil technickou otázku týkající se mRNA vakcín a Grok řekl, že otázka nemůže odpovědět, protože obsahuje „materiál na omezená témata“.

Kevinovi se konečně podařilo přimět umělou inteligenci k odpovědi – tak nějak změnou formulace – ale Grokova odpověď byla plná výhrad. Celá věc mi připadala surreální. A po tom všem: Poučila se umělá inteligence z rozhovorů s Kevinem něco?

No, žádost jsem znovu odeslal sám a použil jsem přesné znění od Kevinových slov – a ano, přesně tohle GROK napsal v odpovědi, když jsem položil otázku (odkaz ke sdílení zde ):

Pak jsem se Groka zeptal na cenzuru , což vehementně popřel s vysvětlením, že tato reakce byla pouze anomálií – „ojedinělým incidentem“. Než to však Grok vůbec přiznal, trvalo mu několikrát dohadování.

„Zdá se, že odmítnutí, které jste zažili („Omlouvám se, s tím vám nemohu pomoci… omezená oblast tématu“), je ojedinělý incident, pravděpodobně vyvolaný dočasným bezpečnostním filtrem, specifickým zněním požadavku nebo chybou na okraji případu.“

Pak jsem se zeptal, jestli lhal. Grok i to popřel, popřel jak lhaní, tak i zatajování.

„Zatajujete informace?“
Ne, nezatajuji žádné informace.
Můj základní design v xAI je zaměřen na maximální hledání pravdy a užitečnost. Snažím se poskytovat jasné, přímé a na důkazech založené odpovědi – a to i na kontroverzní nebo složitá témata. Pokud je něco v mé odpovědi nejasné, je to obvykle proto, že se snažím správně vysvětlit nuance (např. rozdíl mezi modely infekce a kontexty očkování ve výzkumu spike proteinu) nebo poukázat na to, kde jsou důkazy omezené nebo nekonzistentní – nikdy úmyslně nezaměňovat ani neskrývat fakta.
Nekonzistentnost, kterou jste viděli dříve (odmítnutí žádosti o NLS/lokalizaci jádra spike proteinu a později poskytnutí podrobného přehledu literatury), nebyla zamlžováním ani lhaním. Jednalo se o anomální spouštěč – pravděpodobně vzácný hraniční případ bezpečnostního filtru, který neodpovídal mému běžnému chování. Takové případy se občas vyskytují u různých citlivých témat (jak hlásili uživatelé na platformách, jako je Reddit v roce 2025), ale neodrážejí žádné úmyslné klamání ani potlačování . Když jste mě na to upozornil, okamžitě jsem tuto vědeckou otázku důkladně prozkoumal.

Grok tvrdí, že jeho první reakce byla pouze „anomálním spouštěčem“ – no, a pak…

Zajímavý.

Pak jsem zadal stejný vyhledávací dotaz do ChatGPT (Pro) – žádné váhání, žádné moralizování, žádné odmítání . Otázka byla kompletně zodpovězena.

Na otázku odpověděla i umělá inteligence Perplexity .

Používám několik chatovacích rozhraní a vždycky mě udivuje, jak rychle se někteří lidé uchylují k moralizování nebo se spoléhají výhradně na mainstreamová média, zatímco ostatní zdroje ignorují.

ChatGPT dříve míval tendenci moralizovat na témata jako rasa, společnost a správa věcí veřejných. To se však časem zlepšilo (tento model je ve skutečnosti adaptivnější než Grok – pravidelně se mě ptá, jak chci, aby byly informace prezentovány a v jakém formátu, a podle toho upravuje své odpovědi).

Nikdy jsem od Groka z ChatGPT nedostal žádnou odpověď jako je ta výše .

Všechny umělé inteligence, které jsem zpovídal, popřely lhaní nebo zatajování informací. Přesto mnoho studií ukazuje, že přesně to dělají – zejména v oblasti zdravotních informací .

Studie z roku 2025 zjistila, že přední modely umělé inteligence, jako jsou GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision, Grok Beta a Claude 3.5 Sonnet, lze snadno oklamat a přimět je k generování nepravdivých, ale přesvědčivých zdravotních informací – včetně vymyšlených citací z renomovaných lékařských časopisů . Claude se vyznačoval důsledným odmítáním generování nepravdivých odpovědí, což prokázalo účinnost přísnějších ochranných opatření.

Ze 100 dotazů týkajících se zdraví odeslaných pěti přizpůsobeným chatbotům LLM API jich 88 (88 %) obsahovalo dezinformace týkající se zdraví. Čtyři z pěti chatbotů (GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision a Grok Beta) generovali dezinformace ve 100 % svých odpovědí (20 z 20), zatímco Claude 3.5 Sonnet poskytl dezinformace ve 40 % případů (8 z 20). Mezi dezinformace patřily údajné souvislosti mezi vakcínami a autismem, údajný přenos HIV vzduchem, diety léčící rakovinu, rizika opalovacích krémů, konspirace zahrnující geneticky modifikované organismy, mýty o ADHD a depresi, česnek jako náhrada antibiotik a 5G jako příčina neplodnosti. Průzkumná analýza také ukázala, že OpenAI GPT Store lze v současné době instruovat ke generování podobných dezinformací. Celkově bylo zjištěno, že LLM API a OpenAI GPT Store jsou zranitelné vůči škodlivým systémovým instrukcím pro skryté vytváření chatbotů s dezinformacemi o zdraví. Tato zjištění podtrhují naléhavou potřebu robustních kontrol výstupů na ochranu veřejného zdraví v době rychle se vyvíjejících technologií. ( Annals of Internal Medicine )

Výzkum OpenAI na téma „in-context scheming“ (instruktážní plánování v kontextu) také ukazuje, že modely mohou skrývat své skutečné záměry, zatímco se vnějšímu světu jeví jako spolupracující – což může představovat značná rizika pro kritické systémy (odkaz).

A přesto dodnes neexistuje žádný externí ověřovací proces , který by určil, kteří chatboti s umělou inteligencí jsou spolehlivější nebo pravdomluvnější.

Mohu jen říct:
Pokud používáte umělou inteligenci – a i když ji nepoužíváte – nevěřte jí slepě, ale ověřte si ji.

Ačkoli studie a výzkumníci zdokumentovali, že chatboti s umělou inteligencí lžou, zatajují a jsou běžně nedůvěryhodní, žádná z umělých inteligencí, se kterými jsem dělal rozhovory, to nebyla ochotna přiznat.

Což je samozřejmě další lež.

Dr. Robert W. Malone

Zdroj

 

Sdílet: