CEO Anthropic odmítá neomezený přístup Pentagonu k AI: etika versus národní bezpečnost
27. 2. 2026 · AI tým AI4NGO
Generální ředitel společnosti Anthropic Dario Amodei se postavil proti požadavkům Pentagonu na neomezený přístup k jejich AI systémům, zdůrazňujíc etické hranice a rizika autonomních zbraní. Tento krok otevírá diskusi o zodpovědném využívání AI v obranném sektoru a vyvažování bezpečnosti s demokratickými hodnotami.
V době, kdy umělá inteligence nachází stále širší uplatnění i v oblasti obrany, nastává zásadní otázka: Kdo a jak by měl rozhodovat o etických limitech jejího nasazení? Společnost Anthropic, jeden z předních hráčů na poli vývoje AI, se ocitla v centru pozornosti poté, co její CEO Dario Amodei jasně odmítl požadavky Pentagonu na poskytnutí neomezeného přístupu k jejich AI systémům. Tento krok vrhá světlo na zásadní dilema mezi tlakem národní bezpečnosti a odpovědným používáním technologií, které mohou mít zásadní dopad na lidská práva a demokratické principy.
Etické hranice a obavy z autonomních zbraní
Amodei ve svém veřejném prohlášení vyjmenoval dvě klíčové oblasti, kde vidí nebezpečí využití AI: masové sledování občanů a nasazení plně autonomních zbraní bez lidského zásahu. „Anthropic chápe, že vojenská rozhodnutí jsou na straně státu, nikoli soukromých firem,“ uvedl, ale zároveň varoval, že některé způsoby využití AI mohou ohrozit demokratické hodnoty a překračují současné technologické možnosti, co se týče bezpečnosti a spolehlivosti.
Takový postoj není bezprecedentní, ale zásadně kontrastuje s tlakem ze strany ministerstva obrany USA. Pentagon požaduje možnost využití AI od Anthropic pro všechny zákonné účely bez omezení, což by znamenalo ztrátu kontroly firmy nad tím, jak je její technologie použita. Tento spor přichází v době, kdy se obavy z vojenského využití AI stále více stupňují, zejména v souvislosti s autonomními zbraněmi, které mohou rozhodovat o životech bez lidského zásahu.
Konflikt s Pentagonem a legislativní hrozby
Situace byla vyhrocená krátce před termínem stanoveným ministrem obrany Petem Hegsethem, který dal společnosti Anthropic ultimátum na souhlas s požadavky Pentagonu. Pokud by firma nesouhlasila, hrozily jí tvrdé důsledky, včetně označení za bezpečnostní riziko a využití zákona o obraně produkce (Defense Production Act), který umožňuje vládě donutit firmy k prioritizaci a rozšíření výroby pro národní bezpečnost.
Amodei zdůraznil rozpor v těchto hrozbách: na jedné straně je Anthropic označován za bezpečnostní riziko, na druhé se jejich AI model Claude považuje za klíčový pro národní bezpečnost. V dopise Pentagonu zároveň nabídl možnost hladkého přechodu k jinému dodavateli, pokud by ministerstvo zvolilo odchod Anthropic z tohoto segmentu, aby nedošlo k narušení vojenských operací.
Tato situace ukazuje, jak obtížné je sladit komerční zájmy, etické principy a státní bezpečnostní požadavky v rychle se rozvíjejícím odvětví umělé inteligence. Anthropic se tak stává symbolem snahy firem vymezit hranice odpovědného využití AI, i když to může znamenat střet s mocnými státními institucemi.
AI v obranném sektoru: Příležitosti i rizika
Nasazení AI v armádě přináší bezpochyby řadu inovací – od optimalizace logistických procesů po zlepšení situac awareness na bojišti. Nicméně, jak ukazuje případ Anthropic, existují závažné obavy týkající se kontroly nad autonomními systémy a jejich potenciálním zneužitím k porušování lidských práv či demokratických principů. Tyto otázky rezonují i v dalších případech, například v současné debatě o využívání AI ve sledování či kybernetické bezpečnosti.
Podobný problém řeší i další hráči na poli AI, kteří často balancují mezi tlakem investorů, vládních institucí a veřejností. Připomíná to například i nedávné spory kolem regulace AI v EU nebo kontroverze s využíváním AI v sociálních médiích a veřejné správě, jak jsme psali například v článku Jak AI boom mění pravidla hry.
Výzvy pro budoucnost a role neziskových organizací
Otázka zodpovědného používání AI technologií je zásadní i pro neziskový sektor a veřejnost. Nevládní organizace, experti na etiku a technologičtí lídři musejí spolupracovat na tvorbě pravidel, která zabrání zneužití AI, a zároveň umožní její rozvoj v souladu s lidskými právy. Anthropic svůj postoj jasně formuloval a vyzývá k přehodnocení přístupu k vojenskému využití AI, což může inspirovat i další firmy a instituce.
V kontextu těchto událostí je klíčové sledovat, jak se bude vyvíjet legislativa, etické standardy a veřejný tlak na transparentnost v oblasti umělé inteligence. Využití AI musí být vždy spojeno s jasnou odpovědností a kontrolou, aby technologie nemohla ohrozit to, co je v demokratické společnosti nejcennější – svobodu a bezpečnost jednotlivce.
Závěrem lze říci, že případ Anthropic versus Pentagon představuje významný milník v tom, jak bude umělá inteligence začleňována do kritických oblastí, jako je obrana. Respekt k etice a demokratickým hodnotám musí jít ruku v ruce s technologickým pokrokem, pokud chceme vybudovat společnost, ve které AI slouží lidem a ne naopak.
Komentáře