1. 5. 2026

INFOKURÝR

INFORMACE Z DOMOVA I ZE SVĚTA

Apple vyvrací mýtus o umělé inteligenci – a X jde ještě dál

Apple ze všech společností se svým výzkumným dokumentem „Iluze myšlení“ trefil do černého, ​​což je citlivé téma, které odvětví umělé inteligence dosud raději ignorovalo. Zatímco technologické společnosti hovoří o „modelech uvažování“, „tokenech myšlení“ a emergentní inteligenci, tým Applu střízlivě zkoumá, čeho tyto systémy skutečně mohou dosáhnout – a kde selhávají.

Na platformě X uživatel Guri Singh stručně shrnul studii: Modely ničemu nerozumí. Neřeší žádné problémy. Nemyslí. Pouze generují věrohodný text slovo od slova. „Skutečná myšlenka: nula.“

Apple to neříká tak jednoznačně. Ale tento pokyn není zcela neopodstatněný.

Vědci testovali moderní modely uvažování s ovladatelnými logickými hádankami – jako je Hanojská věž nebo klasický říční problém s vlkem, kozou a zelím. Nejedná se o exotické úkoly. Jsou to strukturované, algoritmicky řešitelné problémy, které se používají k testování, zda někdo dokáže logicky myslet krok za krokem.

Vzor je pozoruhodný: při nízké složitosti si modely vedou dobře. Tři disky v Hanojské věži? Žádný problém. Ale s rostoucím počtem disků začínají opakování, protichůdné kroky a vynechávání pohybů. Za určitou hranicí se výkon zcela zhroutí.

Ještě znepokojivější je, že i když vědci v zadání poskytnou přesný algoritmus řešení – v podstatě modelu pošlou „řešení domácího úkolu“ – výsledek se konzistentně nezlepšuje. Systém selhává nejen v nalezení řešení, ale také v přesném provedení logických kroků.

To se dostává k jádru debaty. Modely uvažování simulují myšlenkové procesy generováním delších textových řetězců – tzv. myšlenkových tokenů. Apple však systematicky měří, kolik tokenů se skutečně použije. A zde se objevuje paradoxní křivka: S rostoucí složitostí modely zpočátku generují více „myšlenek“, ale za kritickým bodem se úsilí o uvažování snižuje – i když je k dispozici dostatek výpočetních zdrojů.

Jinými slovy, čím obtížnější je problém, tím méně systém „myslí“. To je pravý opak lidských strategií řešení problémů.

Guri Singh to interpretuje radikálně: Umělá inteligence neví, zda je správná, nebo špatná. Nemá žádné pochopení svých cílů, žádné skutečné sebehodnocení, žádný vnitřní nápravný mechanismus. Doplňuje texty, jako by nevěděla proč.

Apple to formuluje opatrněji, ale zjištění zůstává platné: Modely vykazují tři jasně rozlišitelné režimy. Pro jednoduché úkoly jsou klasické modely často efektivnější. Pro střední složitost vykazují výhody modely uvažování. Pro vysokou složitost se obě varianty hroutí. Zlepšení výkonu se neškáluje donekonečna.

To zpochybňuje ústřední předpoklad daného odvětví: že pouhé přidání více dat, více parametrů a většího výpočetního výkonu nakonec povede ke skutečné superinteligenci. Výsledky společnosti Apple naznačují, že nemusí existovat stabilní, zobecnitelné „myšlení“, které by se dalo jednoduše škálovat.

To neznamená, že umělá inteligence je k ničemu. Je výkonná, produktivní a působivá v mnoha oblastech. Článek však naznačuje, že se spíše zabýváme sofistikovanými procesory vzorů než robustními řešiči symbolických problémů.

Skutečný konflikt tedy není mezi „AI je geniální“ a „AI si nic nemyslí“. Pravda je složitější. Systémy se mohou v určitých oblastech jevit pozoruhodně kompetentní – ale jakmile se zvýší logická hloubka a kombinatorická složitost, dosáhnou strukturálních limitů.

Studie Applu proto není ani tak útokem na umělou inteligenci, jako spíše ověřováním reality. Odvádí diskusi od marketingových slibů směrem k architektonickým omezením. A v tom spočívá její explozivní potenciál.

Možná ještě nejsme na pokraji strojového myšlení. Možná jsme v bodě, kdy si musíme uvědomit, že simulace a porozumění jsou dvě velmi odlišné věci.

 

Sdílet: