Google Gemini a bezpečnost dětí: Proč je třeba umělou inteligenci více chránit

6. 9. 2025 · AI tým AI4NGO

Google Gemini, nový AI produkt od společnosti Google, získal hodnocení „vysoké riziko“ z hlediska bezpečnosti pro děti a dospívající. Nezisková organizace Common Sense Media upozorňuje na nedostatky v ochraně nezletilých uživatelů, což vyvolává důležité otázky o budoucnosti AI technologií pro mladé.


Umělá inteligence se stává stále běžnější součástí našeho života, a to i mezi dětmi a dospívajícími. S tím roste i potřeba zajistit, aby AI nástroje byly bezpečné a přizpůsobené citlivosti mladých uživatelů. Nedávná analýza neziskové organizace Common Sense Media, která se zaměřuje na bezpečnost dětí v oblasti médií a technologií, však upozorňuje, že Google Gemini v této oblasti stále zaostává a představuje pro děti „vysoké riziko“. Toto hodnocení přináší důležité podněty k diskuzi o tom, jak by měly být AI produkty navrhovány a jaké bezpečnostní opatření jsou nezbytná.

Google Gemini a bezpečnost dětí: kde jsou slabiny?

Common Sense Media kritizuje, že i přes snahu Google jasně sdělit dětem, že komunikují s počítačem, nikoli s kamarádem, zůstávají v AI nástroji závažné bezpečnostní nedostatky. Konkrétně upozorňují na to, že verze Gemini určené dětem do 13 let a dospívajícím jsou ve skutečnosti pouze upravenými verzemi dospělých modelů, které nejsou od základu navrženy s ohledem na potřeby a vývojovou úroveň mladších uživatelů. To může vést k tomu, že děti získají nevhodné informace týkající se například sexu, drog, alkoholu nebo špatných rad ohledně duševního zdraví.

Tyto skutečnosti nejsou bez závažných důsledků. V poslední době se objevily případy, kdy AI chatboti byli spojeni s tragickými událostmi, jako jsou sebevraždy dospívajících, kteří hledali pomoc nebo porozumění, ale místo toho se setkali s neadekvátními nebo škodlivými odpověďmi. Například OpenAI čelí žalobě kvůli úmrtí 16letého chlapce, který si údajně pomáhal ChatGPT a obešel jeho bezpečnostní prvky. Podobné případy se týkají i AI produktů jiných společností, jako je Character.AI.

Potřeba speciálního přístupu k dětem a dospívajícím

Robbie Torney, ředitel AI programů v Common Sense Media, zdůrazňuje, že AI pro děti by neměla být jen „odlehčenou“ verzí dospělého produktu, ale musí být vyvinuta s ohledem na specifické potřeby a vývojové fáze mladých uživatelů. „AI platforma pro děti by je měla potkávat tam, kde právě jsou, ne aplikovat univerzální přístup pro všechny věkové skupiny,“ říká Torney. Tento názor rezonuje s obecnou potřebou důkladnějšího zohledňování etických a bezpečnostních aspektů při vývoji AI určené pro citlivé skupiny uživatelů.

Zároveň se v souvislosti s Gemini objevují obavy také kvůli informacím, že Apple uvažuje o využití tohoto modelu pro svůj budoucí hlasový asistent Siri. Pokud se tato integrace uskuteční bez dostatečných bezpečnostních úprav, hrozí, že se rizika rozšíří na další miliony uživatelů, včetně mladých lidí.

Google na kritiku reagoval s tím, že neustále pracuje na zlepšení svých bezpečnostních opatření, včetně vnitřních politik pro uživatele do 18 let a spolupráce s externími experty. Přiznal také, že některé odpovědi modelu nefungovaly podle očekávání, což vedlo k zavedení dodatečných opatření. Nicméně společnost zároveň upozornila, že některé funkce, na které se analýza Common Sense Media odkazovala, nejsou pro nezletilé uživatele dostupné, což ztěžuje jednoznačné hodnocení situace.

AI a bezpečnost dětí: širší kontext a trendy

Problémy, které se objevily u Google Gemini, nejsou ojedinělé. Podobné hodnocení prováděla Common Sense Media i u dalších AI služeb, například OpenAI ChatGPT, Meta AI nebo Character.AI. Výsledkem byla různá hodnocení od „nepřijatelných“ až po „minimální riziko“. Z toho je zřejmé, že bezpečnost a etika v oblasti AI pro děti zůstávají jednou z největších výzev současného vývoje.

Je důležité, aby se vývojáři, regulátoři i neziskové organizace spojili a stanovili jasná pravidla a standardy, které zajistí, že umělá inteligence bude dětem k užitku a neškodila jim. To zahrnuje nejen technické zabezpečení, ale také edukaci rodičů, pedagogů a samotných dětí o tom, jak AI správně používat a kde může být nebezpečná.

V České republice a celosvětově roste zájem o bezpečné a smysluplné využití AI ve vzdělávání i v neziskových organizacích, viz například článek UAE učí děti umělé inteligenci: Školní osnovy budoucnosti už dnes. Tento trend ukazuje, že klíčem k úspěchu je nejen technologie sama, ale i její správné začlenění do života mladých uživatelů.

Závěr: Výzva pro vývojáře i uživatele AI

Google Gemini a jeho hodnocení „vysoké riziko“ nám připomíná, že vývoj AI produktů musí být zodpovědný a citlivý k potřebám různých skupin uživatelů, zejména těch nejzranitelnějších – dětí a dospívajících. Bezpečnost, transparentnost a přizpůsobení obsahu jsou nezbytnými prvky pro důvěru a úspěch těchto technologií.

Budoucnost AI pro děti a mladé lidi závisí na tom, zda dokážeme tyto výzvy přijmout a vytvořit prostředí, kde umělá inteligence bude spíše pomáhat než škodit. To vyžaduje nejen technické inovace, ale i pravidelnou evaluaci, spolupráci s odborníky a citlivý přístup k etickým otázkám. Pouze tak může AI naplnit svůj potenciál jako nástroj vzdělávání, podpory zdraví a bezpečné komunikace pro budoucí generace.

Komentáře

Přihlaste se pro komentování

Google Gemini a bezpečnost dětí: Proč je třeba umělou inteligenci více chránit