Stravovací rada od umělé inteligence dovedla muže do nemocnice s otravou
Jde o alarmující případ, který poukazuje na nebezpečí spoléhání se na umělou inteligenci (AI) při získávání lékařských rad.
U 60letého muže se vyvinuly závažné psychiatrické příznaky, včetně paranoia, halucinací a bludů, poté, co se řídil stravovacími doporučeními od ChatGPT.
Incident byl podrobně popsán ve zprávě publikované 5. srpna 2025 v časopise Annals of Internal Medicine, Clinical Cases ( Anály interní medicíny, klinické případy ).
Nejmenovaný pacient, inspirovaný studiem výživy na vysoké škole, se snažil ze své stravy vyloučit chlorid – složku kuchyňské soli – protože si někde přečetl o zdravotních rizicích chloridu sodného.
Protože nenašel spolehlivé zdroje doporučující dietu bez chloridů, obrátil se na ChatGPT. Chatbot mu údajně poradil, aby běžnou kuchyňskou sůl, tedy chlorid sodný nahradil bromidem sodným, protože brom je chemickým bratrancem chlóru, avšak s toxickými účinky.
Muž tři měsíce konzumoval bromid sodný zakoupený online namísto běžné kuchyňské soli.
Když dorazil na pohotovost, byl přesvědčen, že ho otrávil soused. Lékaři rychle identifikovali jeho příznaky (psychózu, neklid a extrémní žízeň) jako klasické příznaky bromismu, vzácného syndromu otravy způsobeného nadměrnou expozicí bromu.
Krátká historie bromismu
Bromismus se mnohem běžněji vyskytoval na začátku 20. století, kdy byl bromid klíčovou složkou sedativ, léků na spaní a volně prodejných léků.
Chronická expozice však vedla k neurologickým poškozením a do 70. let 20. století regulační orgány zakázaly většinu léčebných použití bromidu kvůli jeho toxicitě. Přestože jsou dnes případy vzácné, utrpení tohoto pacienta dokazuje, že bromismus zcela nezmizel.
Krevní testy zmíněného pacienta zpočátku ukazovaly abnormální hladiny chloridů, ale další analýza odhalila pseudohyperchlorémii – falešný údaj způsobený interferencí s bromidem.
Teprve po konzultaci s toxikologickými odborníky lékaři potvrdili bromismus jako příčinu jeho rychlého duševního úpadku. Po týdnech hospitalizace, antipsychotik a stabilizace elektrolytů se muž zotavil.
Nebezpečná umělá inteligence: Chatboti mají tendenci dávat smrtelné rady
Autoři zprávy později testovali odpovědi ChatGPT na podobné otázky týkající se stravování a zjistili, že bot skutečně navrhl bromid sodný jako náhradu chloridu sodného – bez kritického kontextu, upozornění nebo objasnění jeho toxicity.
Na rozdíl od zdravotnického pracovníka se umělá inteligence nezeptala, proč uživatel tuto náhradu hledá, ani neupozornila na požití průmyslových chemikálií.
Tvůrce ChatGPT, firma OpenAI, ve svých podmínkách uvádí, že bot není určen k poskytování lékařských rad. Uživatelé však často vnímají umělou inteligenci jako autoritu, čímž se stírá hranice mezi všeobecnými informacemi a praktickými zdravotními radami.
Tento případ zdůrazňuje rizika důvěry v umělou inteligenci namísto odborného poradenství v oblasti zdravotní péče. Slouží také jako varovný příběh pro éru umělé inteligence.
„Přestože má umělá inteligence potenciál překlenout mezery v gramotnosti v oblasti zdraví, zároveň riskuje šíření informací vytržených z kontextu a nebezpečných informací,“ uzavřeli autoři zprávy.
S urychlující se integrací umělé inteligence ve zdravotnictví – od nástrojů pro kontrolu příznaků až po virtuální ošetřovatelské asistenty – se vynořují velká rizika chybných informací.
Závěr
Studie z roku 2023 zjistila, že jazykové modely AI často halucinují (vymýšlejí si) falešné klinické detaily, což může vést k nesprávným diagnózám nebo škodlivým doporučením.
Zatímco technologické společnosti poukazují na svá prohlášení o odmítnutí odpovědnosti, případy jako tento ukazují, jak snadno se tato varování v praxi přehlížejí.
S rozšiřováním chatbotů odborníci naléhají na uživatele, aby si ověřili zdravotní rady u odborníků. Cena za vynechání tohoto kroku, jak dokazuje i tento případ, může být mnohem vyšší než při vyhledávání na Googlu.
Autor: Ava Grace, Zdroj: naturalnews.com
