Google stahuje AI souhrny u zdravotních dotazů kvůli zavádějícím informacím
12. 1. 2026 · AI tým AI4NGO
Google odstranil generované AI přehledy u některých lékařských dotazů poté, co investigativní reportáž odhalila, že poskytovaly zavádějící informace. Tento krok ukazuje výzvy v aplikaci umělé inteligence ve zdravotnictví a potřebu zodpovědného nasazení AI nástrojů.
Umělá inteligence se stává běžnou součástí vyhledávání informací, včetně oblastí, kde jsou správné a přesné údaje zásadní – jako je zdravotnictví. Nedávná investigativní reportáž deníku The Guardian upozornila na problém s AI generovanými přehledy (AI Overviews) ve výsledcích vyhledávání Google, které odpovídaly na zdravotní dotazy. Tyto souhrny obsahovaly nepřesnosti a zjednodušení, která mohla uživatele uvést v omyl ohledně důležitých lékařských parametrů.
Tento problém byl například patrný u dotazů na normální rozmezí výsledků jaterních testů krve. Google AI uváděl pevná čísla bez zohlednění důležitých faktorů jako věk, pohlaví, etnický původ či specifika laboratorních metod, což mohlo vést k mylné domněnce, že jsou výsledky v pořádku, i když ve skutečnosti nemusely být. V reakci na to Google odstranil AI souhrny u některých konkrétních dotazů, nicméně variace těchto dotazů stále mohly vyvolat AI generované odpovědi.
Výzvy nasazení AI ve zdravotnictví
Situace ukazuje, jak náročné je implementovat umělou inteligenci v citlivé oblasti zdravotních informací. Přesnost a kontext jsou klíčové – zdravotnická data často vyžadují individuální interpretaci odborníky a bez dostatečného kontextu může AI poskytnout zavádějící odpovědi. Přestože Google uvádí, že interní tým kliniků zkoumal problematické dotazy a v mnoha případech potvrdil kvalitu informací, případ poukazuje na to, že AI by měla být nasazována s extrémní opatrností zejména tam, kde může ovlivnit zdraví a životy lidí.
Podobné problémy s AI ve zdravotnictví nejsou výjimkou a často jsou spojené s takzvaným fenoménem „halucinací“ AI, kdy model vygeneruje nesprávnou nebo zavádějící informaci. Proto je důležité, aby výsledky AI byly vždy ověřeny odborníky nebo provázány s důvěryhodnými zdroji.
Jak mohou neziskové organizace využívat AI zodpovědně?
Pro neziskové organizace působící ve zdravotnictví a sociálních službách představuje tento případ důležitou lekci. Umělá inteligence nabízí obrovský potenciál pro zlepšení efektivity, dostupnosti informací a podpory pacientů, jak jsme již často zmiňovali v článcích na AI4NGO.cz (například Umělá inteligence v sociálních službách). Nicméně je nutné zajistit, aby AI nástroje byly využívány zodpovědně a aby jejich výstupy byly vždy doplněny lidským dohledem a odbornou kontrolou.
Například neziskové organizace mohou využívat AI pro analýzu dat, automatizaci administrativy či komunikaci s klienty, ale pro zdravotní poradenství je třeba zachovat jasné limity a transparentnost. Pro ilustraci, platformy využívající AI by měly explicitně upozornit, že generované informace nenahrazují lékařskou diagnózu a konzultaci s odborníkem.
V souladu s tím by i velké technologické firmy měly usilovat o transparentnost a spolupráci s lékaři a vědci, aby minimalizovaly rizika a maximalizovaly přínosy AI v medicíně. Výzvou zůstává i edukace uživatelů, aby dokázali kriticky hodnotit AI výstupy a nepřeceňovali jejich spolehlivost.
„Naším větším problémem je, že se řeší jen jednotlivé případy a Google může jednoduše AI přehledy vypnout, ale neřeší se širší problematika AI v oblasti zdraví,“ uvedla Vanessa Hebditch z British Liver Trust, což odráží potřebu systematického přístupu k regulaci a monitoringu AI ve zdravotnictví.
Závěrem lze říci, že případ Google ukazuje, že umělá inteligence ve zdravotních aplikacích je stále v rané fázi, kde je klíčová kombinace technologického vývoje, odborné expertízy a etických pravidel. Pouze tak může AI skutečně pomoci pacientům a neziskovým organizacím bez zbytečných rizik.
Pro více informací o tom, jak AI mění neziskový sektor a jak ji využít s ohledem na etiku a bezpečnost, doporučujeme naše další články na AI4NGO.cz.
Komentáře