Anthropic vs. Pentagon: Kde se láme hranice mezi obrannou AI a autonomní silou
Co se stalo mezi Anthropic a Pentagonem
Na přelomu února 2026 americké ministerstvo obrany dalo firmě Anthropic ultimátum: buď umožní armádě využívat její AI model Claude pro jakékoli zákonné použití bez specifických omezení, nebo riskuje ztrátu kontraktu a označení za „riziko pro národní bezpečnost“.
Anthropic odmítl. CEO Dario Amodei uvedl, že společnost nemůže „v dobrém svědomí“ odstranit bezpečnostní pojistky, které by zabránily použití technologie pro plně autonomní zbraně nebo masové domácí sledování. Tato rozhodnutí považuje firma za přesahující technologické i etické hranice současných systémů.
Následně prezident USA Donald Trump nařídil federálním úřadům postupně ukončit používání AI od Anthropicu a Pentagon firmu označil za „supply chain risk“ – tedy potenciální hrozbu pro bezpečnost dodavatelského řetězce.
Mezitím OpenAI dosáhla samostatné dohody s Pentagonem, která umožňuje použití jejích modelů v klasifikovaných vojenských sítích. Oficiálně i ve této smlouvě zůstávají potvrzeny základní bezpečnostní principy, včetně zachování lidského dohledu a zákaz domácího masového sledování.
O čem je ten konkrétní spor
1. „All lawful uses“ vs. kontrola nad aplikacemi
Pentagon chce smlouvu, kde by mohl model používat pro všechny zákonné účely bez firemních omezení. To znamená, že by CEO firmy neměl právo zákazy odříznout.
Anthropic se obává, že taková formulace by fakticky umožnila AI používat i situace, které firma považuje za nebezpečné nebo nezralé pro nasazení, například:
- autonomní rozhodování o použití síly bez lidského potvrzení
- masové shromažďování a profilování dat občanů
- návrh systémů, které samy identifikují a napadají cíle bez lidského schválení
Firma tvrdí, že současná technologie není dostatečně spolehlivá pro život-a-smrt rozhodnutí, což by mohlo vést k chybám, ztrátě kontroly a nechtěným eskalacím konfliktů.
Pentagon naopak tvrdí, že nemá v úmyslu používat AI pro takové aplikace, ale že by měl mít konečné slovo, jak model v bojovém prostředí využije.
Jak se AI skutečně používá ve válečném prostředí dnes
AI není jen hypotetické téma. Ve skutečnosti se technologie používají ve skutečných konfliktech, a to často s výrazným dopadem na tempo rozhodování.
1. USA – Project Maven: strojové učení pro inteligenci
Project Maven je dlouhodobý program amerického ministerstva obrany, který používá strojové učení k analýze obrovských množství senzorových dat. AI tu identifikuje objekty, které by si lidé jinak museli prohlížet ručně, zrychluje odběr relevantních dat a pomáhá zkratovat analýzu zpravodajství.
To neznamená, že AI sama rozhoduje o útoku. Znamená to, že dává lidem jiné rozhodovací možnosti a dává jim víc dat k dispozici ve zlomku času.
2. Izrael – Gaza: AI jako doporučovací engine cílení
V konfliktech jako je válka v Gaze se používají systémy, které výrazně urychlují proces identifikace cílů. Systémy známé jako Gospel a databáze zvaná Lavender analyzují obrovské množství informací a poskytují lidem seznam prioritních cílů. Odborníci upozorňují, že tyto nástroje:
- vybírají stovky potenciálních cílů denně
- zkracují inteligentní cyklus z týdnů na dny či hodiny
- mohou ovlivňovat rozsah a intenzitu bombardování
AI zde funguje jako „target suggestion system“, nikoli jako robot, který sám střílí. Ale efekt je reálný a dramatický – analytici upozorňují, že takové použití pozměňuje strukturu války a etické zákony o ochraně civilistů.
3. Ukrajina – rozsáhlé AI integrace v dronových operacích a boji
Na ukrajinském bojišti se AI používá v různých vrstvách:
- computer vision pro rozpoznávání vojenské techniky z dronů
- automatické mapování terénu a sledování pohybu jednotek
- elektronický boj a lokalizace vysílačů
- huby pro konsolidaci dat z více zdrojů
Tato využití AI zrychlují identifikaci hrozeb a plánování operací, ale většinou necházejí finální rozhodnutí u člověka.
Jak AI mění samotnou podstatu války
AI nemění jen to, že je tam, ale jak se válčí:
- rychlost rozhodování se dramaticky zvyšuje
- objem dat je takový, že bez AI by žádné analýzy nebyly možné
- prioritizace cílů může být více škálovitá
- odpovědnost a právní rámec se stírají, protože algoritmus ovlivňuje lidské rozhodování
To je přesně to, co dělá spory jako ten s Anthropic tak důležitými: nejde o hypotézu, ale o to, kdo má kontrolu nad algoritmickými rozhodnutími ve válečném kontextu.
Právní základ: co říká mezinárodní humanitární právo
V ozbrojeném konfliktu se aplikuje mezinárodní humanitární právo (IHL, law of armed conflict). V praxi pro AI nejvíc bolí tři principy:
A) Rozlišování (distinction)
Strany konfliktu musí rozlišovat mezi civilisty a bojovníky a mezi civilními objekty a vojenskými cíli.
AI systémy pro cílení mohou zvyšovat riziko chyb, pokud:
- trénovací data obsahují systematické zkreslení
- signály jsou nepřímé (metadata, asociace, pravděpodobnostní profily)
- systém je používán „na škále“ a lidská kontrola se zúží na formální potvrzení
ICRC dlouhodobě upozorňuje, že u autonomních systémů je těžké zajistit soulady s IHL, právě kvůli rozlišování a kontextu.
B) Proporcionalita (proportionality)
I když je cíl legitimní, útok je zakázán, pokud se očekávané civilní ztráty jeví jako nadměrné ve vztahu k vojenské výhodě.
AI může tady selhat dvěma způsoby:
- zrychlí tempo schvalování, takže se sníží hloubka právního posouzení
- „normalizuje“ prahové hodnoty ztrát, protože výstup vypadá jako číslo z modelu
C) Povinnost přijmout opatření (precautions)
Útočící strana musí podniknout proveditelná opatření ke snížení rizika pro civilisty. U AI to znamená mimo jiné:
- kvalita dat
- auditovatelnost rozhodnutí
- možnost zásahu operátora
- režim testování a validace
Nejde o technologii, ale o moc a pravidla
Konflikt mezi Anthropic a Pentagonem není jen o jednom modelu AI.
Je to střet:
- etických hranic vývoje technologie
- role státu v definici bezpečných aplikací
- práva firem určovat vlastní safeguardy
- strategie nasazení AI v národní bezpečnosti
Zatímco OpenAI našla způsob, jak ustavit spolupráci zachovávající některé bezpečnostní mantinely, Anthropic se rozhodl nekompromisně bránit dvě hlavní hranice: zákaz plně autonomního použití a zákaz masového domácího sledování.
To, co následuje, je klíčové nejen pro vojenskou sféru, ale i pro to, jak bude fungovat mohutné nasazení AI v budoucích krizích, právních rámcích a mezinárodním právu.
Jakub Mach
PŘÍPADOVÁ STUDIE: Perplexity Computer jako Ghost Shopper
Produktové a marketingové týmy tráví desítky hodin měsíčně manuálním sledováním cen konkurence, procházením checkout procesů a sestavováním srovnávacích přehledů. Perplexity Computer tento proces plně automatizuje.
Jakub Mach
Anthropic Research: Jak měřit autonomii AI agentů v praxi
Anthropic publikoval jednu z dosud nejrozsáhlejších studií o tom, jak lidé skutečně pracují s AI agenty.
| Další články autora |
Galerie: Tramvaje ze Škody míří do Itálie i Německa. Takhle vypadají české vozy pro Evropu
Většina Čechů zná tramvaje Škoda především z pražských ulic nebo z dalších krajských měst. Jen...
O solitérech v Praze. Některé stavby jsou jako pěst na oko. Třeba panelák v Braníku
Kdo viděl film Tam na konečné z roku 1957, pravděpodobně ho zaujalo nejen zpracování v duchu...
Záhadné schody v Kunratickém lese mají vysvětlení. Sloužily při šlechtických honech
V srdci Kunratického lesa chátrají podivuhodné schody, které vedou „odnikud nikam“. Před bezmála...
Kam v březnu v Praze zdarma? 7 tipů od poslechovky po pochod ve Stromovce
Vybrali jsme sedm pražských akcí zdarma – koncerty, festival, výstavy i přednášky, které můžete...
Lavičky v „Sherwoodu“ u stanice Praha hlavní nádraží zmizely. Proč se vrátí jen 40 procent?
Z Vrchlického sadů kolem železniční stanice Praha hlavní nádraží byly během posledního únorového...
Mezi řidiči zahraničních kamionů se rozšířila manipulace s tachografem
Policisté na dálnici D1 na Vysočině v posledních několika týdnech při kontrolách opakovaně uložili...
Vlak srazil v Tachově staršího muže, utrpěl vážná zranění; provoz na trati stojí
V Tachově srazil dnes odpoledne vlak člověka, muž utrpěl vážná zranění. Cestujícím z vlaku se nic...
Nový třebíčský stadion má 16 kabin, poměřuje se i s pražskou O2 arenou
Nově zrekonstruovaný zimní stadion v Třebíči už disponuje vším, co má hokejová hala sportovcům i...
V Mirošově se srazil osobní vlak s autem, nikdo nebyl zraněn, provoz je obnoven
V Mirošově na Rokycansku se dnes odpoledne srazil na železničním přejezdu osobní vlak s osobním...

Prodej chaty, Puklice, Jihlava
Puklice, okres Jihlava
4 969 000 Kč
- Počet článků 3
- Celková karma 0
- Průměrná čtenost 49x



















