Google rozšiřuje přístup Pentagonu k umělé inteligenci po odmítnutí společnosti Anthropic
29. 4. 2026 · AI tým AI4NGO
Google uzavřel novou smlouvu s Ministerstvem obrany USA, která Pentagonu umožňuje přístup k jeho AI technologiím, poté co společnost Anthropic odmítla podobnou nabídku kvůli etickým obavám. Tato situace otevírá otázky o zodpovědnosti technologických gigantů při spolupráci s armádou.
V době, kdy se umělá inteligence stává klíčovým nástrojem nejen v civilním sektoru, ale i v oblasti národní bezpečnosti, vyvolává spolupráce technologických firem s armádou vášnivé debaty. Nedávný kontrakt mezi Googlem a americkým Ministerstvem obrany (DoD) je toho jasným příkladem. Po odmítnutí startupu Anthropic umožnit Pentagonu využívat jeho AI pro široké a kontroverzní účely, včetně domácího masového dohledu a autonomních zbraní, Google přichází s novou smlouvou, která tyto technologie armádě zpřístupňuje.
Ethika versus národní bezpečnost
Anthropic, známý svým důrazem na etické využití umělé inteligence, se postavil proti požadavkům Pentagonu, které by umožnily využití AI bez omezení, což vyvolalo veřejnou diskusi o odpovědnosti firem vůči společnosti. Firma odmítla, aby její AI byla nasazována v aplikacích, které by mohly vést k porušování lidských práv, například při masovém sledování obyvatelstva nebo vývoji autonomních smrtících zbraní. Výsledkem bylo označení Anthropic za „riziko dodavatelského řetězce“ – označení běžně vyhrazené pro zahraniční protivníky, což vedlo až k soudnímu sporu.
Situace kolem Anthropic a Pentagonu reflektuje širší otázku, jak mají technologické společnosti balancovat mezi obchodními příležitostmi a morálními zásadami. Podobnou cestou jako Google šly i jiné firmy jako OpenAI a xAI, které uzavřely vlastní dohody s americkou armádou, často s určitými dodatky, které omezují použití AI pro domácí masové sledování či autonomní zbraně, i když právní vymahatelnost těchto omezení zůstává nejasná.
Google a tlak zevnitř i zvenku
Google čelí nejen vnějšímu tlaku ze strany veřejnosti a médií, ale i internímu odporu svých zaměstnanců. Více než 950 pracovníků firmy podepsalo otevřený dopis, ve kterém žádají vedení, aby se vydalo podobnou cestou jako Anthropic – tedy aby před uzavřením kontraktu s Pentagonem zavedlo jasné etické hranice využití AI. Odpověď Googlu na tuto výzvu nebyla oficiálně zveřejněna, což vyvolává otázky o transparentnosti a postoji firmy k etickým dilematům.
Je zajímavé sledovat, jak velké technologické firmy jako Google vyvažují své obchodní zájmy a očekávání investorů s tlakem na zodpovědné a etické využívání AI. Tato situace podtrhuje potřebu jasnějších pravidel a regulací v oblasti spolupráce mezi komerčními AI firmami a státními institucemi, zejména armádou.
Dopady pro neziskový sektor a širší společnost
Pro organizace v neziskovém sektoru a všechny, kdo se zajímají o etiku AI, představuje tento vývoj důležitý signál. Na jedné straně existují příležitosti, jak mohou pokročilé AI technologie pomáhat například v humanitární pomoci, krizovém řízení či ochraně životního prostředí. Na druhé straně je však třeba být obezřetný vůči jejich potenciálnímu zneužití, jak ukazují právě případy využití AI pro sledování nebo vojenské účely.
Firmy by měly otevřeně komunikovat, jakými způsoby je AI nasazována, a zapojovat širokou veřejnost i odborníky do diskuse o regulaci a etických standardech. V tomto kontextu je možné sledovat i další iniciativy zaměřené na bezpečnost a zodpovědnost v AI, například ze strany OpenAI (OpenAI a Pentagon: Nová spolupráce s potenciálními výzvami) či Anthropic (Anthropic versus Pentagon: Kdo by měl ovládat vojenskou umělou inteligenci?).
Google tímto krokem vstupuje do významné role v oblasti vojenské umělé inteligence, což přináší nejen obchodní příležitosti, ale i etické a společenské výzvy, které budou formovat budoucnost této technologie.
Závěrem lze konstatovat, že rozšiřování přístupu k AI technologiím do rukou státních institucí, zejména armád, je nevyhnutelnou součástí technologického pokroku. Klíčové však je, jak budou tyto technologie regulovány a jaké mantinely jim budou nastaveny, aby sloužily lidstvu a neohrožovaly jeho základní práva a hodnoty. Transparentnost, etika a odpovědnost musí být základními pilíři dalšího vývoje AI v této oblasti.
Komentáře