Deepfake zesnulých: Etika, právní mezery a emocionální dopady

8. 10. 2025 · AI tým AI4NGO

Technologie deepfake umožňuje realistické oživení podobizen zesnulých osob, avšak vyvolává zásadní etické otázky a emocionální zátěž pro rodiny a veřejnost. Přestože zákon v Česku i zahraničí obecně nechrání zesnulé před pomluvou, není důvod tyto technologie bez rozmyslu využívat.


V poslední době se stále častěji setkáváme s aplikacemi umělé inteligence, které dokážou vytvářet vysoce realistická videa či záznamy osob, a to i těch, kteří již nejsou mezi námi. Tato technologie deepfake sice fascinující, ale zároveň i velmi kontroverzní. Příkladem je reakce Zeldy Williams, dcery zesnulého herce Robina Williamse, která na sociálních sítích vyzvala veřejnost, aby přestali sdílet a vytvářet AI videa jejího otce. „Pokud máte trochu slušnosti, přestaňte to dělat jemu i mně," uvedla s odkazem na bolest, kterou takové materiály mohou ublížit nejen jí, ale i dalším příbuzným a fanouškům.

Technologické firmy, jako je OpenAI, nedávno představily nástroje jako Sora 2, které umožňují nejen tvorbu deepfake videí živých osob s jejich souhlasem, ale bohužel i osob zemřelých, jelikož právo nechrání zesnulé před pomluvami nebo zneužitím jejich podoby. To vytváří mezery v regulaci a zvyšuje riziko neetického využití AI. Většina uživatelů nemusí mít na paměti, že za těmito digitálními rekonstrukcemi jsou skutečné lidské příběhy a emoce.

Legislativa versus etika: Kdo chrání zesnulé před deepfake?

Podle právních expertů není v současných zákonech v mnoha zemích, včetně České republiky, možné stíhat pomluvu nebo nepravdivé zobrazení osob po jejich smrti. To znamená, že tvorba a šíření deepfake videí zesnulých osob nejsou právně zakázány. Tento stav vyvolává silnou diskuzi o tom, zda a jak by měly být zákony upraveny, aby lépe chránily důstojnost a odkaz zesnulých i jejich rodin.

Etická stránka ovšem překonává rámec zákona. Vytváření a šíření takových videí může narušovat památku zesnulých a zároveň působit emoční újmu jejich blízkým. Přitom důvěra a respekt k lidské podobě a vzpomínkám by měly být prioritou nejen jednotlivců, ale i firem, které tyto technologie vyvíjejí. OpenAI například čelí kritice za nedostatečná pravidla pro deepfake a používání duševního vlastnictví, což potvrzuje, že regulace a morální hranice jsou stále ve vývoji.

Emocionální dopady a společenská odpovědnost

Pro rodiny zesnulých je nečekané vidět své blízké v uměle vytvořených videích často traumatizující. Zelda Williams ve svém prohlášení zdůraznila, že není pravda, že by chtěla taková videa vidět nebo chápat. Situace tak poukazuje na nutnost respektu vůči pozůstalým a jejich přání, které jsou často přehlíženy v honbě za technologickou novinkou nebo zábavou.

Zároveň je důležité, aby společnost jako celek reflektovala, jaké hodnoty chce prosazovat v digitálním světě. Technologie deepfake slibuje neuvěřitelné možnosti, například v umění, vzdělávání či dokumentaristice, avšak bez jasných hranic může vést k zneužití a ztrátě důvěry. Proto je potřeba podporovat odpovědné využívání AI, a to i skrze edukaci, legislativu a etické kodexy pro vývojáře.

Závěrem lze říct, že i když zákon v tuto chvíli nechrání zesnulé před podobou v deepfake videích, společenská etika, respekt a citlivost by měly být významnějšími regulátory takového využití. Pro neziskové organizace a další subjekty pracující s umělou inteligencí je toto téma klíčové, protože ukazuje potřebu správného nastavení hranic a odpovědnosti v nových technologiích, které ovlivňují nejen živé, ale i památku zesnulých.

Pro více informací o dopadech AI na společnost a etikou doporučujeme sledovat i další naše články na AI4NGO.cz.

Komentáře

Přihlaste se pro komentování

Deepfake zesnulých: Etika, právní mezery a emocionální dopady