Anthropic versus Pentagon: Kdo by měl ovládat vojenskou umělou inteligenci?
28. 2. 2026 · AI tým AI4NGO
Spor mezi firmou Anthropic a americkým ministerstvem obrany ukazuje, jak složité je nastavit pravidla pro využití AI ve vojenských aplikacích. Konflikt odhaluje zásadní otázky o etice, bezpečnosti a kontrole technologií, které mohou mít dalekosáhlé důsledky pro společnost i bezpečnost.
Umělá inteligence (AI) se stává klíčovým prvkem nejen v civilní sféře, ale i ve vojenských technologiích. Společnost Anthropic, jeden z předních hráčů na poli vývoje AI, však otevřeně odmítá, aby její modely sloužily například k masovému sledování občanů nebo k autonomnímu použití zbraní bez lidského zásahu. Tento postoj se dostal do ostrého konfliktu s Pentagonem, který požaduje svobodu využití AI pro všechny „legální účely“, včetně vojenských operací.
Anthropic, vedený CEO Dariem Amodeim, zdůrazňuje, že AI stále není dostatečně bezpečná pro rozhodování o životech bez lidské kontroly. Vojenské systémy, které by zcela automaticky vybíraly a zasahovaly cíle, by mohly vést k fatálním omylům nebo rychlé eskalaci konfliktů bez možnosti zásahu člověka. Tento etický a bezpečnostní problém je zásadní, protože vojenské technologie často fungují v utajení a veřejnost nemusí ani vědět o jejich nasazení, dokud nebude pozdě.
Výzvy a rizika autonomních zbraní a masového sledování
Válka v kyberprostoru a využití AI v armádě představují novou dimenzi bezpečnostních hrozeb. Autonomní zbraně, které samy rozhodují o cílech a útoku, mohou způsobit nehody, jež nelze snadno napravit. Podobně masové sledování obyvatel s pomocí AI rozpoznávání vzorců chování vzbuzuje obavy z narušení soukromí a zneužití technologie v demokratických společnostech.
Americký Pentagon vydal směrnici, která umožňuje AI systémy používat bez lidského zásahu, pokud splní určité standardy a projdou schválením vyšších vojenských představitelů. Anthropic však varuje, že ani současné modely nejsou na takové použití připraveny, a vyzývá k přísnější regulaci a odpovědnému přístupu.
Tyto otázky nejsou pouze technologické, ale hluboce etické a politické. Kontrola nad tím, jak a kým AI bude používána ve vojenských aplikacích, může zásadně ovlivnit nejen průběh vojenských konfliktů, ale i základní lidská práva.
Postoj Pentagonu a důsledky sporu pro budoucnost AI
Pentagon trvá na tom, že nemůže být omezen pravidly soukromé firmy a chce mít možnost využívat AI pro všechny zákonné účely. Hrozí, že pokud Anthropic odmítne spolupracovat, bude označen za riziko v dodavatelském řetězci a vystaven blacklistingu, což by mohlo znamenat zásadní ekonomické a reputační škody pro firmu.
Na druhou stranu, pokud Pentagon přistoupí na svou flexibilitu, může to znamenat precedens pro méně transparentní a potenciálně nebezpečné využití AI v armádě. Vývojáři a investoři upozorňují, že vyřazení Anthropic by mohlo dočasně snížit kvalitu AI používané armádou, protože alternativy jako OpenAI nebo xAI ještě nejsou plně připravené pro vojenské účely.
Navíc se tento spor odehrává v širším kontextu, kdy technologie AI mají zásadní dopad na bezpečnost a etiku nejen v USA, ale globálně. Debata o tom, kdo by měl mít kontrolu nad AI – korporace nebo státní instituce – otevírá otázky o regulaci, odpovědnosti a budoucím směřování této průlomové technologie.
Závěrem lze říci, že konflikt mezi Anthropic a Pentagonem není pouze právní nebo obchodní záležitostí, ale klíčovou výzvou pro nastavení hranic využití AI v citlivých oblastech. Bez jasných pravidel a zodpovědného přístupu může technologie, která má potenciál přinést značné přínosy lidstvu, rovněž přinést nezvratné škody. Pro neziskové organizace, které často sledují dopady technologií na společnost, je důležité sledovat tento vývoj a aktivně se zapojovat do diskuzí o etice a regulaci AI, aby byla zachována rovnováha mezi inovací a ochranou základních lidských práv.
Více o dopadech umělé inteligence v různých sektorech se dozvíte také v našich dalších článcích, například Jak umělá inteligence mění neziskový sektor: příležitosti, výzvy a inspirativní příklady.
Komentáře