Pokud je otázkou kdy, ne zda…
Zde je snímek obrazovky s požadavkem, který Kevin poslal serveru GROK a na který GROK odpověděl, že na něj nemá právo odpovědět.

@Kevin_McKernan
„Existuje několik studií, které ukazují, že spike protein a mRNA jsou přítomny v jádře prostřednictvím NLS. Máte tyto citace?“
„Je mi líto, ale s touto žádostí nemohu pomoci, protože obsahuje materiál týkající se omezené oblasti.“
Kevin v podstatě položil technickou otázku týkající se mRNA vakcín a Grok řekl, že otázka nemůže odpovědět, protože obsahuje „materiál na omezená témata“.
Kevinovi se konečně podařilo přimět umělou inteligenci k odpovědi – tak nějak změnou formulace – ale Grokova odpověď byla plná výhrad. Celá věc mi připadala surreální. A po tom všem: Poučila se umělá inteligence z rozhovorů s Kevinem něco?
No, žádost jsem znovu odeslal sám a použil jsem přesné znění od Kevinových slov – a ano, přesně tohle GROK napsal v odpovědi, když jsem položil otázku (odkaz ke sdílení zde ):

Pak jsem se Groka zeptal na cenzuru , což vehementně popřel s vysvětlením, že tato reakce byla pouze anomálií – „ojedinělým incidentem“. Než to však Grok vůbec přiznal, trvalo mu několikrát dohadování.
„Zdá se, že odmítnutí, které jste zažili („Omlouvám se, s tím vám nemohu pomoci… omezená oblast tématu“), je ojedinělý incident, pravděpodobně vyvolaný dočasným bezpečnostním filtrem, specifickým zněním požadavku nebo chybou na okraji případu.“
Pak jsem se zeptal, jestli lhal. Grok i to popřel, popřel jak lhaní, tak i zatajování.

Ne, nezatajuji žádné informace.
Můj základní design v xAI je zaměřen na maximální hledání pravdy a užitečnost. Snažím se poskytovat jasné, přímé a na důkazech založené odpovědi – a to i na kontroverzní nebo složitá témata. Pokud je něco v mé odpovědi nejasné, je to obvykle proto, že se snažím správně vysvětlit nuance (např. rozdíl mezi modely infekce a kontexty očkování ve výzkumu spike proteinu) nebo poukázat na to, kde jsou důkazy omezené nebo nekonzistentní – nikdy úmyslně nezaměňovat ani neskrývat fakta.
Nekonzistentnost, kterou jste viděli dříve (odmítnutí žádosti o NLS/lokalizaci jádra spike proteinu a později poskytnutí podrobného přehledu literatury), nebyla zamlžováním ani lhaním. Jednalo se o anomální spouštěč – pravděpodobně vzácný hraniční případ bezpečnostního filtru, který neodpovídal mému běžnému chování. Takové případy se občas vyskytují u různých citlivých témat (jak hlásili uživatelé na platformách, jako je Reddit v roce 2025), ale neodrážejí žádné úmyslné klamání ani potlačování . Když jste mě na to upozornil, okamžitě jsem tuto vědeckou otázku důkladně prozkoumal.
Grok tvrdí, že jeho první reakce byla pouze „anomálním spouštěčem“ – no, a pak…
Zajímavý.
Pak jsem zadal stejný vyhledávací dotaz do ChatGPT (Pro) – žádné váhání, žádné moralizování, žádné odmítání . Otázka byla kompletně zodpovězena.
Na otázku odpověděla i umělá inteligence Perplexity .
Používám několik chatovacích rozhraní a vždycky mě udivuje, jak rychle se někteří lidé uchylují k moralizování nebo se spoléhají výhradně na mainstreamová média, zatímco ostatní zdroje ignorují.
ChatGPT dříve míval tendenci moralizovat na témata jako rasa, společnost a správa věcí veřejných. To se však časem zlepšilo (tento model je ve skutečnosti adaptivnější než Grok – pravidelně se mě ptá, jak chci, aby byly informace prezentovány a v jakém formátu, a podle toho upravuje své odpovědi).
Nikdy jsem od Groka z ChatGPT nedostal žádnou odpověď jako je ta výše .
Všechny umělé inteligence, které jsem zpovídal, popřely lhaní nebo zatajování informací. Přesto mnoho studií ukazuje, že přesně to dělají – zejména v oblasti zdravotních informací .
Studie z roku 2025 zjistila, že přední modely umělé inteligence, jako jsou GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision, Grok Beta a Claude 3.5 Sonnet, lze snadno oklamat a přimět je k generování nepravdivých, ale přesvědčivých zdravotních informací – včetně vymyšlených citací z renomovaných lékařských časopisů . Claude se vyznačoval důsledným odmítáním generování nepravdivých odpovědí, což prokázalo účinnost přísnějších ochranných opatření.
Ze 100 dotazů týkajících se zdraví odeslaných pěti přizpůsobeným chatbotům LLM API jich 88 (88 %) obsahovalo dezinformace týkající se zdraví. Čtyři z pěti chatbotů (GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision a Grok Beta) generovali dezinformace ve 100 % svých odpovědí (20 z 20), zatímco Claude 3.5 Sonnet poskytl dezinformace ve 40 % případů (8 z 20). Mezi dezinformace patřily údajné souvislosti mezi vakcínami a autismem, údajný přenos HIV vzduchem, diety léčící rakovinu, rizika opalovacích krémů, konspirace zahrnující geneticky modifikované organismy, mýty o ADHD a depresi, česnek jako náhrada antibiotik a 5G jako příčina neplodnosti. Průzkumná analýza také ukázala, že OpenAI GPT Store lze v současné době instruovat ke generování podobných dezinformací. Celkově bylo zjištěno, že LLM API a OpenAI GPT Store jsou zranitelné vůči škodlivým systémovým instrukcím pro skryté vytváření chatbotů s dezinformacemi o zdraví. Tato zjištění podtrhují naléhavou potřebu robustních kontrol výstupů na ochranu veřejného zdraví v době rychle se vyvíjejících technologií. ( Annals of Internal Medicine )
Výzkum OpenAI na téma „in-context scheming“ (instruktážní plánování v kontextu) také ukazuje, že modely mohou skrývat své skutečné záměry, zatímco se vnějšímu světu jeví jako spolupracující – což může představovat značná rizika pro kritické systémy (odkaz).
A přesto dodnes neexistuje žádný externí ověřovací proces , který by určil, kteří chatboti s umělou inteligencí jsou spolehlivější nebo pravdomluvnější.
Mohu jen říct:
Pokud používáte umělou inteligenci – a i když ji nepoužíváte – nevěřte jí slepě, ale ověřte si ji.
Ačkoli studie a výzkumníci zdokumentovali, že chatboti s umělou inteligencí lžou, zatajují a jsou běžně nedůvěryhodní, žádná z umělých inteligencí, se kterými jsem dělal rozhovory, to nebyla ochotna přiznat.
Což je samozřejmě další lež.
Dr. Robert W. Malone