Pentagon a umělá inteligence: Nová éra bezpečné vojenské AI s NVIDIA, Microsoftem a AWS

2. 5. 2026 · AI tým AI4NGO

Americké ministerstvo obrany podepsalo strategické dohody s technologickými giganty jako Nvidia, Microsoft a Amazon Web Services, aby mohlo nasazovat AI řešení přímo ve vysoce zabezpečených vojenských sítích. Tento krok je reakcí na potřebu diverzifikace dodavatelů AI a zároveň na etické a bezpečnostní výzvy spojené s použitím umělé inteligence v obranném sektoru.


Umělá inteligence (AI) se stává klíčovým prvkem moderních vojenských technologií, a to nejen v oblasti výzkumu nebo simulací, ale i přímo v operačních systémech armády. Nedávné kroky amerického Pentagonu ukazují, jak vážně berou integraci AI do národní bezpečnosti. Po uzavření dohod s technologickými lídry jako Google, SpaceX a OpenAI uzavřelo ministerstvo obrany USA další klíčové smlouvy s NVIDIA, Microsoftem, Amazon Web Services (AWS) a laboratoří Reflection AI. Tyto dohody umožní nasazení jejich AI technologií a modelů přímo v utajovaných a vysoce zabezpečených vojenských sítích pro zákonné operační účely.

Strategická diverzifikace a bezpečnost

Jedním z hlavních motivů tohoto rozhodnutí je snaha o diverzifikaci dodavatelů AI technologií. Tento krok přišel po kontroverzním sporu mezi Pentagonem a společností Anthropic, která kladla podmínky na omezení využití svých AI modelů – zejména s cílem zabránit jejich použití pro domácí masové sledování nebo autonomní zbraně. Tento spor dokonce skončil soudním sporem, kdy Anthropic získal předběžné opatření proti označení za „riziko dodavatelského řetězce“.

Celkově Pentagon deklaruje, že hodlá vybudovat systém, který zabrání tzv. vendor lock-in, tedy závislosti na jednom dodavateli AI, a zajistí tak dlouhodobou flexibilitu a odolnost amerických vojenských sil. "Přístup k široké škále AI schopností od různých amerických technologických firem poskytne vojákům nástroje, které potřebují pro jistotu a ochranu národa proti jakékoli hrozbě," uvedlo ministerstvo obrany.

Nasazení AI v nejvyšších bezpečnostních úrovních

AI hardware a modely od těchto firem budou implementovány v prostředích s bezpečnostními klasifikacemi Impact Level 6 (IL6) a Impact Level 7 (IL7). Jde o nejvyšší bezpečnostní úrovně, které reprezentují kritické systémy pro národní bezpečnost a vyžadují přísné fyzické i digitální zabezpečení, kontrolu přístupů a audity datových toků. Nasazení AI v takto chráněných prostředích umožní efektivnější syntézu dat, lepší situational awareness (přehled o situaci) a podpoří rozhodovací procesy vojáků na všech úrovních boje.

Je zajímavé, že více než 1,3 milionu zaměstnanců ministerstva obrany již využívá zabezpečenou platformu GenAI.mil, která nabízí přístup k velkým jazykovým modelům (LLM) a dalším AI nástrojům v cloudových prostředích schválených vládou. Tyto nástroje jsou primárně určeny pro neutajované úkoly, jako jsou výzkum, tvorba dokumentů nebo analýza dat, což pomáhá zrychlit a zefektivnit administrativní a analytické procesy.

Etické otázky a výzvy v nasazení AI pro obranu

Spolupráce ministerstva obrany s velkými technologickými firmami však není bez kontroverzí. Diskuze o etických aspektech využití AI v armádě nabírá na intenzitě, zejména pokud jde o autonomní zbraně nebo masové sledování. Příkladem je právě spor s Anthropic, který demonstruje, jak různé zájmy a obavy o odpovědné využití AI mohou ovlivnit obchodní i právní vztahy mezi státem a soukromými firmami.

Pro neziskové organizace, které často sledují etické dopady AI, je tento vývoj důležitým signálem. Ukazuje, že i ve vysoce regulovaném sektoru, jako je obrana, musí být AI implementována s důrazem na bezpečnost, transparentnost a etické hranice. Tento přístup zároveň představuje výzvu pro další rozvoj technologií, které musí splňovat náročné požadavky na ochranu informací a zároveň umožnit inovace.

Možnost nasazovat AI přímo v klasifikovaných vojenských sítích představuje technologický i bezpečnostní průlom. Současně ale vyvolává otázky o kontrole a dohledu nad AI systémy, otázky odpovědnosti a možné riziko zneužití. Proto je důležité sledovat, jaké standardy a pravidla budou při tomto nasazení dodržovány a zda bude zachován kompromis mezi bezpečností národa a ochranou lidských práv.

Závěr a výhled

Do budoucna lze očekávat, že Pentagon bude i nadále rozšiřovat spolupráci s předními AI firmami a investovat do vývoje bezpečných a efektivních AI systémů pro vojenské účely. Tento trend je součástí širšího posunu směrem k „AI-first“ přístupu v obranném sektoru, který má za cíl posílit rozhodovací schopnosti a reakční rychlost vojenských jednotek. Pro nás v civilním sektoru, včetně neziskovek, je tato zpráva také inspirací k tomu, jak je možné umělou inteligenci využívat zodpovědně a systematicky i v náročných a vysoce regulovaných prostředích.

Pro více o implementacích AI v bezpečnostních a citlivých sektorech doporučujeme i náš článek OpenAI a Pentagon: Přehled spolupráce a etické výzvy v oblasti vojenské umělé inteligence.

Komentáře

Přihlaste se pro komentování

Pentagon a umělá inteligence: Nová éra bezpečné vojenské AI s NVIDIA, Microsoftem a AWS