Anthropic vs. Pentagon: Kde se láme hranice mezi obrannou AI a autonomní silou

V únoru 2026 se rozhořel jeden z dosud nejvážnějších střetů mezi soukromou technologickou firmou a státní mocí, který ukazuje, jak hluboko se umělá inteligence dostala do oblasti národní bezpečnosti.

Co se stalo mezi Anthropic a Pentagonem

Na přelomu února 2026 americké ministerstvo obrany dalo firmě Anthropic ultimátum: buď umožní armádě využívat její AI model Claude pro jakékoli zákonné použití bez specifických omezení, nebo riskuje ztrátu kontraktu a označení za „riziko pro národní bezpečnost“.

Anthropic odmítl. CEO Dario Amodei uvedl, že společnost nemůže „v dobrém svědomí“ odstranit bezpečnostní pojistky, které by zabránily použití technologie pro plně autonomní zbraně nebo masové domácí sledování. Tato rozhodnutí považuje firma za přesahující technologické i etické hranice současných systémů.

Následně prezident USA Donald Trump nařídil federálním úřadům postupně ukončit používání AI od Anthropicu a Pentagon firmu označil za „supply chain risk“ – tedy potenciální hrozbu pro bezpečnost dodavatelského řetězce.

Mezitím OpenAI dosáhla samostatné dohody s Pentagonem, která umožňuje použití jejích modelů v klasifikovaných vojenských sítích. Oficiálně i ve této smlouvě zůstávají potvrzeny základní bezpečnostní principy, včetně zachování lidského dohledu a zákaz domácího masového sledování.

O čem je ten konkrétní spor

1. „All lawful uses“ vs. kontrola nad aplikacemi

Pentagon chce smlouvu, kde by mohl model používat pro všechny zákonné účely bez firemních omezení. To znamená, že by CEO firmy neměl právo zákazy odříznout.

Anthropic se obává, že taková formulace by fakticky umožnila AI používat i situace, které firma považuje za nebezpečné nebo nezralé pro nasazení, například:

  • autonomní rozhodování o použití síly bez lidského potvrzení
  • masové shromažďování a profilování dat občanů
  • návrh systémů, které samy identifikují a napadají cíle bez lidského schválení

Firma tvrdí, že současná technologie není dostatečně spolehlivá pro život-a-smrt rozhodnutí, což by mohlo vést k chybám, ztrátě kontroly a nechtěným eskalacím konfliktů.

Pentagon naopak tvrdí, že nemá v úmyslu používat AI pro takové aplikace, ale že by měl mít konečné slovo, jak model v bojovém prostředí využije.

Jak se AI skutečně používá ve válečném prostředí dnes

AI není jen hypotetické téma. Ve skutečnosti se technologie používají ve skutečných konfliktech, a to často s výrazným dopadem na tempo rozhodování.

1. USA – Project Maven: strojové učení pro inteligenci

Project Maven je dlouhodobý program amerického ministerstva obrany, který používá strojové učení k analýze obrovských množství senzorových dat. AI tu identifikuje objekty, které by si lidé jinak museli prohlížet ručně, zrychluje odběr relevantních dat a pomáhá zkratovat analýzu zpravodajství.

To neznamená, že AI sama rozhoduje o útoku. Znamená to, že dává lidem jiné rozhodovací možnosti a dává jim víc dat k dispozici ve zlomku času.

2. Izrael – Gaza: AI jako doporučovací engine cílení

V konfliktech jako je válka v Gaze se používají systémy, které výrazně urychlují proces identifikace cílů. Systémy známé jako Gospel a databáze zvaná Lavender analyzují obrovské množství informací a poskytují lidem seznam prioritních cílů. Odborníci upozorňují, že tyto nástroje:

  • vybírají stovky potenciálních cílů denně
  • zkracují inteligentní cyklus z týdnů na dny či hodiny
  • mohou ovlivňovat rozsah a intenzitu bombardování

AI zde funguje jako „target suggestion system“, nikoli jako robot, který sám střílí. Ale efekt je reálný a dramatický – analytici upozorňují, že takové použití pozměňuje strukturu války a etické zákony o ochraně civilistů.

3. Ukrajina – rozsáhlé AI integrace v dronových operacích a boji

Na ukrajinském bojišti se AI používá v různých vrstvách:

  • computer vision pro rozpoznávání vojenské techniky z dronů
  • automatické mapování terénu a sledování pohybu jednotek
  • elektronický boj a lokalizace vysílačů
  • huby pro konsolidaci dat z více zdrojů

Tato využití AI zrychlují identifikaci hrozeb a plánování operací, ale většinou necházejí finální rozhodnutí u člověka.

Jak AI mění samotnou podstatu války

AI nemění jen to, že je tam, ale jak se válčí:

  • rychlost rozhodování se dramaticky zvyšuje
  • objem dat je takový, že bez AI by žádné analýzy nebyly možné
  • prioritizace cílů může být více škálovitá
  • odpovědnost a právní rámec se stírají, protože algoritmus ovlivňuje lidské rozhodování

To je přesně to, co dělá spory jako ten s Anthropic tak důležitými: nejde o hypotézu, ale o to, kdo má kontrolu nad algoritmickými rozhodnutími ve válečném kontextu.

Právní základ: co říká mezinárodní humanitární právo

V ozbrojeném konfliktu se aplikuje mezinárodní humanitární právo (IHL, law of armed conflict). V praxi pro AI nejvíc bolí tři principy:

A) Rozlišování (distinction)

Strany konfliktu musí rozlišovat mezi civilisty a bojovníky a mezi civilními objekty a vojenskými cíli.

AI systémy pro cílení mohou zvyšovat riziko chyb, pokud:

  • trénovací data obsahují systematické zkreslení
  • signály jsou nepřímé (metadata, asociace, pravděpodobnostní profily)
  • systém je používán „na škále“ a lidská kontrola se zúží na formální potvrzení

ICRC dlouhodobě upozorňuje, že u autonomních systémů je těžké zajistit soulady s IHL, právě kvůli rozlišování a kontextu.

B) Proporcionalita (proportionality)

I když je cíl legitimní, útok je zakázán, pokud se očekávané civilní ztráty jeví jako nadměrné ve vztahu k vojenské výhodě.

AI může tady selhat dvěma způsoby:

  • zrychlí tempo schvalování, takže se sníží hloubka právního posouzení
  • „normalizuje“ prahové hodnoty ztrát, protože výstup vypadá jako číslo z modelu

C) Povinnost přijmout opatření (precautions)

Útočící strana musí podniknout proveditelná opatření ke snížení rizika pro civilisty. U AI to znamená mimo jiné:

  • kvalita dat
  • auditovatelnost rozhodnutí
  • možnost zásahu operátora
  • režim testování a validace

Nejde o technologii, ale o moc a pravidla

Konflikt mezi Anthropic a Pentagonem není jen o jednom modelu AI.

Je to střet:

  • etických hranic vývoje technologie
  • role státu v definici bezpečných aplikací
  • práva firem určovat vlastní safeguardy
  • strategie nasazení AI v národní bezpečnosti

Zatímco OpenAI našla způsob, jak ustavit spolupráci zachovávající některé bezpečnostní mantinely, Anthropic se rozhodl nekompromisně bránit dvě hlavní hranice: zákaz plně autonomního použití a zákaz masového domácího sledování.

To, co následuje, je klíčové nejen pro vojenskou sféru, ale i pro to, jak bude fungovat mohutné nasazení AI v budoucích krizích, právních rámcích a mezinárodním právu.

Autor: Jakub Mach | sobota 28.2.2026 13:30 | karma článku: 6,26 | přečteno: 104x

Další články autora

Jakub Mach

PŘÍPADOVÁ STUDIE: Perplexity Computer jako Ghost Shopper

Produktové a marketingové týmy tráví desítky hodin měsíčně manuálním sledováním cen konkurence, procházením checkout procesů a sestavováním srovnávacích přehledů. Perplexity Computer tento proces plně automatizuje.

4.3.2026 v 11:14 | Karma: 0 | Přečteno: 44x | Diskuse | Věda

Jakub Mach

Anthropic Research: Jak měřit autonomii AI agentů v praxi

Anthropic publikoval jednu z dosud nejrozsáhlejších studií o tom, jak lidé skutečně pracují s AI agenty.

1.3.2026 v 15:15 | Karma: 0 | Přečteno: 6x | Diskuse | Věda

Nejčtenější

Galerie: Tramvaje ze Škody míří do Itálie i Německa. Takhle vypadají české vozy pro Evropu

Tramvaje ForCity Smart Bonn pro SWB jsou moderní obousměrné tříčlánkové a 100%...
4. března 2026  6:47

Většina Čechů zná tramvaje Škoda především z pražských ulic nebo z dalších krajských měst. Jen...

O solitérech v Praze. Některé stavby jsou jako pěst na oko. Třeba panelák v Braníku

Solitér v Branické ulici
1. března 2026

Kdo viděl film Tam na konečné z roku 1957, pravděpodobně ho zaujalo nejen zpracování v duchu...

Záhadné schody v Kunratickém lese mají vysvětlení. Sloužily při šlechtických honech

Zaniklé schody v Krčáku
3. března 2026

V srdci Kunratického lesa chátrají podivuhodné schody, které vedou „odnikud nikam“. Před bezmála...

Kam v březnu v Praze zdarma? 7 tipů od poslechovky po pochod ve Stromovce

Okolí holešovického Výstaviště a Stromovky změní podobu. (23. listopadu 2024)
28. února 2026  18:35

Vybrali jsme sedm pražských akcí zdarma – koncerty, festival, výstavy i přednášky, které můžete...

Lavičky v „Sherwoodu“ u stanice Praha hlavní nádraží zmizely. Proč se vrátí jen 40 procent?

Návrh českého studia re:architekti, který se umístil v soutěži na třetím místě...
26. února 2026  12:37

Z Vrchlického sadů kolem železniční stanice Praha hlavní nádraží byly během posledního únorového...

Mezi řidiči zahraničních kamionů se rozšířila manipulace s tachografem

Zařízení, které umožňuje manipulaci s tachografem. Ten slouží k zaznamenávání...
25. února 2026  20:32,  aktualizováno  5. 3. 20:06

Policisté na dálnici D1 na Vysočině v posledních několika týdnech při kontrolách opakovaně uložili...

Vlak srazil v Tachově staršího muže, utrpěl vážná zranění; provoz na trati stojí

ilustrační snímek
5. března 2026  17:55,  aktualizováno  17:55

V Tachově srazil dnes odpoledne vlak člověka, muž utrpěl vážná zranění. Cestujícím z vlaku se nic...

Nový třebíčský stadion má 16 kabin, poměřuje se i s pražskou O2 arenou

Moderní stánek pro prvoligové hokejisty Horácké Slavie Třebíč nabídne kapacitu...
5. března 2026  19:12

Nově zrekonstruovaný zimní stadion v Třebíči už disponuje vším, co má hokejová hala sportovcům i...

V Mirošově se srazil osobní vlak s autem, nikdo nebyl zraněn, provoz je obnoven

V Mirošově se srazil osobní vlak s autem, nikdo nebyl zraněn, provoz je obnoven
5. března 2026  17:14,  aktualizováno  17:14

V Mirošově na Rokycansku se dnes odpoledne srazil na železničním přejezdu osobní vlak s osobním...

  • Počet článků 3
  • Celková karma 0
  • Průměrná čtenost 49x
Podnikatel v oboru informačních technologií, otec dvou dětí (jednovaječných dvojčátek) a životní optimista.

Seznam rubrik

Nastavte si velikost písma, podle vašich preferencí.