Umělá inteligence (AI) proniká do obranných technologií nebývalou rychlostí a otevírá nové možnosti i rizika v oblasti zbraňových systémů. S rozvojem tzv. autonomních zbraňových systémů – schopných samostatně vyhledávat a ničit cíle – vyvstávají zásadní právní otázky. V roce 2025 neexistuje jednotná globální úprava AI ve zbraních, avšak vzniká mozaika dílčích právních rámců a politik v různých jurisdikcích. Tento článek přináší analytický přehled aktuálních právních aspektů v Evropské unii, Spojených státech a v rámci NATO, se zaměřením na vývojáře, podniky a státní správu. Vynechává etické úvahy a soustředí se na konkrétní právní předpisy, omezení, odpovědnost a výzvy spojené s nasazováním AI v obranných systémech.
Autor článku: ARROWS advokátní kancelář (JUDr. Jakub Dohnal, Ph.D., LL.M., office@arws.cz, +420 245 007 740
Obranná politika spadá převážně do pravomoci členských států, takže EU nemá přímou legislativní kompetenci regulovat vojenské využití AI. Přesto EU ovlivňuje tuto oblast nepřímo – například skrze financování obranného výzkumu či podporu mezinárodních iniciativ. Klíčovým faktem je, že navrhovaný Akt o umělé inteligenci (AI Act), první komplexní právní rámec pro AI v EU, vylučuje vojenské a bezpečnostní použití ze své působnosti.
To znamená, že povinnosti a omezení AI Actu (zaměřené na civilní AI) se na zbraňové systémy určené výhradně pro vojenské účely nevztahují. Členské země však nadále musí dodržovat mezinárodní právo humanitární (IHL) a zajistit, že nové zbraně jsou s ním v souladu. Například Evropská služba pro vnější činnost zdůrazňuje jasnou pozici EU, že mezinárodní právo včetně humanitárního platí pro všechny zbraňové systémy a rozhodnutí o použití smrtící síly musí činit vždy člověk, který za ně nese odpovědnost.
Evropský parlament navíc zaujal postoj volající po preventivní regulaci – již v září 2018 přijal usnesení požadující mezinárodní zákaz smrtících autonomních zbraní bez lidské kontroly. Tato usnesení však nejsou pro členské státy závazná a postoj EU jako celku se postupně vyvíjí směrem k opatrnějšímu, méně kategorickému přístupu.
V roce 2021 Parlament přijal další rezoluci k AI v obraně, jež byla v této otázce umírněnější. Celkově Evropská rada i Evropská komise zastávají spíše zdrženlivý postoj – uznávají význam AI pro obranu a vyhýbají se jednoznačným zákazům, které by mohly omezit technologický rozvoj. Místo tvrdé regulace EU podporuje pokračování debat na půdě OSN (Úmluva o některých konvenčních zbraních – CCW) a prosazuje princip „významné lidské kontroly“ (meaningful human control) jako vodítko pro vývoj těchto zbraní.
Ve Spojených státech dosud neplatí zákaz vývoje či nasazení smrtících autonomních zbraní – naopak, americká politika výslovně takový vývoj nevylučuje. Místo zákazů zavedlo ministerstvo obrany (DoD) interní politiky a standardy, které mají zajistit, že jakékoli zbraňové systémy s AI budou používány odpovědně a v souladu s právem.
Zásadním dokumentem je Direktiva ministerstva obrany č. 3000.09 z roku 2012 (aktualizovaná naposledy v lednu 2023), která stanoví politiku pro autonomii ve zbraňových systémech. Tato směrnice definuje kategorie autonomních zbraní podle míry zapojení člověka (tzv. human-in-the-loop, on-the-loop, out-of-the-loop) a požaduje, aby nad použitím smrtící síly byl vždy „přiměřený stupeň lidského uvážení“. Prakticky to znamená, že plně autonomní zbraň (LAWS – Lethal Autonomous Weapon System), která by bez dalšího zásahu operátora sama vybírala a zasahovala cíle, podléhá přísným podmínkám.
Všechny autonomní zbraňové systémy musí mít zabudovány pojistky a musí být dostatečně robustní, aby minimalizovaly pravděpodobnost selhání. Pokud systém není schopen splnit zadané podmínky (např. dodržet vymezený prostor či cíl operace), musí ukončit útok nebo vyžádat zásah obsluhy. Direktiva také vyžaduje opakované testování a vyhodnocování v případě, že se systém učí a mění své chování (machine learning), aby se zajistilo, že zůstává bezpečný a funguje dle záměru.
Z organizačního hlediska USA zavedly víceúrovňový schvalovací proces: každý nový zbraňový systém s pokročilou autonomií vyžaduje přezkum na vysoké úrovni vedení ministerstva před zahájením vývoje a dalším před zavedením do výzbroje. Do této revize jsou zapojeni náměstci ministra obrany pro politiku, výzkum a akvizice, Spojený výbor náčelníků štábů i právní poradci. Cílem je posoudit legálnost, etické otázky a rizika ještě před tím, než taková zbraň vznikne či je nasazena. Kongres navíc posiluje dohled – zákon o obraně (NDAA) na rok 2024 uložil ministru obrany povinnost notifikovat Kongres o každé změně této direktivy a NDAA 2025 vyžaduje pravidelné zprávy o vývoji a nasazení autonomních zbraní až do roku 2029.
V mezinárodním kontextu USA aktivně participují na jednáních o LAWS v rámci CCW OSN, avšak nepodporují závazný zákaz těchto systémů. Místo toho americká vláda argumentuje, že stávající válečné právo je dostatečné a že autonomní technologie mohou mít i přínosy (například přesnější zacílení s menším rizikem pro civilisty). Pro americké dodavatele obranných technologií to znamená, že vývoj AI zbraní je možný, avšak v přísném regulatorním režimu DoD – vyžaduje splnění technických standardů, právních přezkumů a etických principů (DoD v roce 2020 přijal sadu Etických principů pro AI, jako je odpovědnost, srozumitelnost, spolehlivost či možnost zásahu člověka, které se aplikují i na zbraňové systémy).
Severoatlantická aliance jako celek nevydává závazné právní předpisy pro své členy v oblasti vývoje zbraní, poskytuje však strategický rámec a doporučení pro využití AI v obraně. V říjnu 2021 NATO schválilo svoji první Strategii pro AI, která obsahuje šest principů odpovědného využití AI v obraně.
Tyto principy – mezi něž patří zákonnost, odpovědnost, vysledovatelnost, spolehlivost, ovladatelnost a spravedlnost – mají vést členské státy při vývoji a nasazení AI technologií. V roce 2023 NATO dále zřídilo Radu pro přezkum dat a AI (Data and AI Review Board, DARB), která začala pracovat na certifikačním standardu pro AI v souladu s aliančními hodnotami. Cílem tohoto standardu je převést obecné principy do konkrétních kontrolních mechanismů, které ověří, že nové projekty využívající AI respektují mezinárodní právo a normy NATO.
Kontroly se mají zaměřit zejména na řiditelnost, sledovatelnost a spolehlivost AI systémů. To v praxi znamená, že aliance podporuje např. implementaci záznamových systémů (logů) pro dohledatelnost rozhodování AI a možnost člověka kdykoli převzít kontrolu nebo systém deaktivovat (human override). NATO samo žádné zbraňové systémy nevyrábí, ale jako platforma pro spolupráci zajišťuje výměnu osvědčených postupů mezi spojenci – právníci, vojáci i technici z členských zemí v rámci NATO společně diskutují standardy, aby se nové technologie vyvíjely bezpečně a v souladu s právem.
Klíčové je, že NATO potvrzuje plnou platnost mezinárodního humanitárního práva pro všechny zbraně s AI a zdůrazňuje zachování lidské odpovědnosti za rozhodnutí o použití síly, v souladu s principy sdílenými i EU. V prostředí NATO tak panuje shoda na potřebě „smysluplné lidské kontroly“ u zbraňových systémů – avšak konkrétní implementace zůstává na jednotlivých státech.
EU ani NATO zatím nepřijaly zvláštní právní předpis, který by výslovně upravoval či omezoval vojenskou AI, spoléhají spíše na aplikaci existujících pravidel (zejm. mezinárodního práva) a na politické deklarace či strategie. USA naproti tomu interně rozpracovaly podrobný regulační rámec uvnitř resortu obrany a stanovily technicko-právní požadavky pro vývojáře. Žádná země NATO dosud oficiálně nenasadila plně autonomní smrtící zbraň, ale výzkum a experimenty probíhají v mnoha státech. Na půdě OSN sílí tlak na vytvoření mezinárodní smlouvy, což v závěru roku 2024 vyústilo v rezoluci Valného shromáždění OSN podporující vypracování právně závazné úpravy pro autonomní zbraně. Právní prostředí je proto dynamické – lze očekávat, že v nejbližších letech se budou národní i mezinárodní rámce dále vyvíjet.
Při vývoji a zavádění zbraňových systémů s AI musejí subjekty v EU i USA dodržovat řadu právních omezení a procedurálních požadavků. Zásadní roli hraje mezinárodní právo ozbrojených konfliktů: státy, které jsou stranami Dodatkového protokolu I k Ženevským úmluvám, mají povinnost provádět přezkum nových zbraní z hlediska souladu s platným právem (tzv. Article 36 review). Tento právní požadavek znamená, že již ve fázi vývoje nebo akvizice musí být zhodnoceno, zda zamýšlený zbraňový systém není zakázán či neporušuje principy IHL (např. zásady rozlišování a přiměřenosti). Testování a evaluace jsou proto nejen technickou nutností, ale i právním imperativem. Nasazení neprověřené nebo neotestované autonomní zbraně by mohlo samo o sobě představovat porušení práva a založit odpovědnost státu. V praxi ozbrojené složky zavádějí vícestupňové kontrolní mechanismy.
Například v USA direktiva DoD 3000.09 předepisuje, že každý autonomní zbraňový systém projde standardním procesem zbraňového přezkumu (weapons review) a navíc speciálním přezkumem na vysoké úrovni vedení ministerstva před vývojem a před nasazením. Součástí tohoto procesu je i zapojení právníků (např. generálního právního zástupce DoD) a odborníků na testování a hodnocení zbraní, kteří posoudí, zda systém splňuje právní požadavky (zejm. dodržení IHL). Podobné postupy existují i v jiných zemích NATO – např. Velká Británie či Německo deklarují, že důsledně uplatňují přezkum nových zbraní a nevyvinou či nenasadí systémy, které by nebylo možné používat v souladu s mezinárodním právem.
Konkrétní technická omezení jsou často zakotvena v regulačních či interních normách. Jedním z klíčových požadavků je, aby autonomní systémy umožňovaly lidský dohled a zásah. Americké směrnice vyžadují, aby autonomní zbraň automaticky přerušila útok nebo vyžádala potvrzení operátora, pokud nastanou situace mimo stanovené parametry (např. ztráta spojení, neidentifikovaný cíl apod.).
Dále musí být zajištěno, že pravděpodobnost selhání systému je extrémně nízká a že systém má vestavěny prvky k minimalizaci následků případné poruchy. To v důsledku znamená povinnost implementovat robustní testovací scénáře, softwarové pojistky (např. „kill-switch“) a redundanci kritických komponent. Změní-li se systém na základě strojového učení, musí projít novým testováním a schválením, než bude znovu nasazen. I v mírovém provozu (např. během výcviku) podléhají takové systémy přísnému dohledu – armády obvykle nastavují pravidla pro experimentální používání AI zbraní pouze na vyhrazených testovacích polygonech a za účasti odborníků, aby se minimalizovalo riziko nepředvídaného chování.
Regulace nasazení AI v obranných systémech zahrnují i další aspekty: například otázku identifikace cíle. Mezinárodní humanitární právo zakazuje útoky na civilisty a požaduje spolehlivou identifikaci vojenských cílů. To implikuje, že AI využívaná v systémech navádění zbraní musí být natolik přesná a prověřená, aby omylem neoznačovala civilní objekty jako cíle. Vývojáři musí do algoritmů zabudovat konzervativní přístup – raději neidentifikovat cíl, než označit nesprávně.
Právní rámce v USA i v Evropě proto fakticky omezují nasazování plně samostatných zbraňových systémů v prostředí, kde hrozí nedostatečná rozlišovací schopnost. Zde se uplatňuje princip opatrnosti: pokud není jistota, že autonomní systém dokáže v daných podmínkách rozlišovat legitimní cíle, neměl by být použit. Například americký DoD zvažuje nasazení smrtících autonomních systémů pouze v situacích, jako je elektronicky rušené bojiště, kde tradiční zbraně selhávají, a i tak by vyžadoval možnost dodatečné kontroly.
Další oblastí regulace je testování a certifikace. Zatímco civilní AI systémy mohou podléhat certifikaci podle AI Act (v EU) nebo standardům ISO, v obraně tyto obecné mechanismy chybí. NATO proto pracuje na speciálním certifikačním standardu pro vojenskou AI, který má být uživatelsky přívětivý pro průmysl a instituce v rámci aliance.
Tento standard, plánovaný koncem roku 2023, má pomoci ověřit, že nové projekty s AI odpovídají mezinárodnímu právu a normám NATO už od fáze vývoje. Vývojářské podniky tak mohou v blízké budoucnosti čelit požadavku, aby jejich systémy prošly nezávislým hodnocením podle těchto kritérií (podobně jako se dnes zbraně certifikují z hlediska bezpečnosti munice apod.).
Exportní kontroly a mezinárodní dohody rovněž ovlivňují vývoj AI ve zbraních. AI software a hardware s vojenským využitím může spadat do režimu kontroly strategického vývozu (např. Regulace EU o kontrolách vývozu zboží dvojího užití nebo americký ITAR). To znamená, že podniky vyvíjející pokročilé algoritmy pro zbraňové systémy musí získat povolení pro případný export a nesmí takové technologie volně transferovat do zahraničí, zejména ne do embargovaných zemí. Mnohostranné režimy, jako Wassenaar Arrangement, už zařadily některé AI technologie (např. software pro řízení neurálních sítí) na seznam kontrolovaných položek, což vývojářům ukládá oznamovací a licenční povinnosti.
Stručně řečeno, vývoj, testování a nasazení AI v obranných systémech podléhají kombinaci tvrdého práva (zejména mezinárodního humanitárního) a měkkých interních regulací. Vývojáři a provozovatelé musí zajistit, že jejich systémy jsou legálně přezkoumány, technicky zabezpečeny proti selhání a provozovány pod adekvátním dohledem člověka, jinak by riskovali porušení právních povinností.
Tým ARROWS advokátní kanceláře
Nasazení AI ve zbraních vyvolává otázku, kdo ponese odpovědnost, pokud autonomní systém způsobí újmu nezamýšleným či nezákonným způsobem. V tradičních konfliktech platí, že stát odpovídá za chování svých ozbrojených sil a jednotlivci (velitelé, vojáci) mohou nést individuální trestní odpovědnost za válečné zločiny. Tyto zásady se vztahují i na použití autonomních zbraní – nelze argumentovat, že „robot způsobil škodu, nikdo za to nemůže“. Podle práva států nese stát odpovědnost za porušení mezinárodního humanitárního práva, k nimž dojde použitím autonomního zbraňového systému.
Pokud by například autonomní dron bez lidského zásahu omylem zaútočil na civilní cíl v rozporu s IHL, odpovědnost nese stát, který ho nasadil, obdobně jako by nesl odpovědnost za vojáka, který by se dopustil obdobného činu. Stát se nemůže zprostit odpovědnosti tím, že šlo o chybu algoritmu. Navíc, pokud by stát nasadil AI zbraň bez dostatečného otestování či přezkumu a došlo k porušení práva, je to samo o sobě dalším porušením a stát za něj nese odpovědnost. To zdůrazňuje význam již zmíněných povinných zbraňových přezkumů a testů – jejich opomenutí by mohlo mít právní následky.
Z pohledu individuální odpovědnosti může nastat tzv. “accountability gap” – tedy obava, že při plně autonomním rozhodování nebude možné určit konkrétního viníka. V právní rovině se však předpokládá, že vždy existuje lidský článek, kterému lze přičítat odpovědnost za nasazení zbraně.
Typicky to bude velitel, který rozhodl o použití systému v bojové situaci, případně operátor, který zařízení aktivoval. Pokud autonomní zbraň způsobí nezákonnou škodu, může být zkoumáno, zda velitel/operátor postupoval nedbale (např. nasadil systém v nevhodných podmínkách) či úmyslně porušil předpisy. V krajním případě by mohlo jít o válečný zločin (např. pokud by někdo vědomě použil AI zbraň k útoku na civilisty).
Mezinárodní trestní právo už dnes zná koncept velitelské odpovědnosti, kdy velitel nese trestní odpovědnost za zločiny podřízených, pokud o nich věděl či je nechtěl zabránit – analogicky by mohl nést odpovědnost i za činy „podřízené“ zbraně, pokud věděl o rizicích a nic nepodnikl. V praxi však bude dokazování složité: obhajoba může tvrdit, že šlo o nevyzpytatelnou chybu stroje mimo kontrolu obsluhy. Z tohoto důvodu zaznívají hlasy volající po jasném zakotvení povinnosti lidské kontroly – aby právní odpovědnost vždy bylo komu přiřknout. Ostatně i základní postoj států NATO a EU, že “člověk zůstává odpovědný za rozhodnutí o životě a smrti”, má předejít vytváření vakua odpovědnosti.
Další rovina je odpovědnost výrobce nebo vývojáře zbraňového systému. Mohou nastat situace mimo ozbrojený konflikt – např. během testů či při použití zbraně bezpečnostními složkami v míru – kdy bude řešena civilní škodní odpovědnost. V režimu odpovědnosti za vadný výrobek by mohli být výrobci softwaru či programu činěni odpovědnými za chyby v programování nebo poruchy autonomního zbraňového systému.
To znamená, že pokud by selhání AI bylo způsobeno prokazatelnou vadou systému, mohou poškození (či stát, který jim musel uhradit škody) vymáhat náhradu od dodavatele. Vojenské smlouvy často obsahují specifická ustanovení o odpovědnosti a zárukách – některé mohou odpovědnost výrobce omezovat (vlády někdy přebírají rizika za experimentální technologie), jindy si naopak stát vymíní regres vůči dodavateli při závažné vadě. Pro podniky je tedy kritické smluvně ošetřit, jaké závazky nesou v případě neúmyslných následků nasazení AI zbraní. Vzhledem ke zvýšenému riziku někteří pojistitelé zvažují pojištění odpovědnosti specificky pro AI systémy v obraně.
Právní důsledky chybného použití AI se mohou projevit i politicky. Pokud autonomní zbraň způsobí mezinárodní incident (např. omylem zasáhne neutrální stát či zabije civilisty), může daný stát čelit mezinárodněprávním nárokům (diplomatické protesty, arbitráže o náhradu škody) a pověsti “nezodpovědného uživatele”. Z toho důvodu si státy dávají velký pozor na transparentní vyšetření každého incidentu s AI a na to, aby byly schopny doložit, že postupovaly v souladu s právem. V krajním případě by masivní selhání AI zbraně mohlo vést k aktualizaci právních předpisů nebo tlaku na moratorium, což představuje regulační riziko pro všechny vývojáře těchto technologií.
Přístupy světových mocností a organizací k autonomním zbraním se v právní rovině liší, což komplikuje globální harmonizaci. USA a další technologicky vyspělé armády (např. Izrael, Rusko) zatím razí postoj, že stávající právo stačí a důležitá je správná implementace.
Spojené státy otevřeně nesouhlasí s preventivním zákazem autonomních zbraní a místo toho prosazují nezakotvovat nové mezinárodní restrikce, dokud není zcela jasné, jak tyto systémy budou vypadat. Argumentují, že jakákoli zbraň – ať už s AI či bez – musí dodržovat platné válečné právo, a spíše než plošný zákaz preferují vývoj etických rámců a technických opatření zajišťujících legální použití.
V praxi to znamená, že USA investují do AI ve zbraních, ale obezřetně (s lidským dohledem), a na půdě OSN blokují snahy o okamžité sjednání závazné smlouvy zakazující tzv. “killer robots”.
Podobný názor zastává například Spojené království, které tvrdí, že plně autonomní smrtící systémy neplánuje nasadit bez lidského dohledu, avšak zároveň odmítá jejich předběžný zákaz – raději zdůrazňuje “responsible AI” a význam existujících pravidel.
Na druhé straně mnoho států, včetně řady členů EU, prosazuje přísnější přístup. Rakousko, Španělsko, Irsko, Malta a další již několik let volají po mezinárodní smlouvě zakazující autonomní zbraně bez lidské kontroly. Podobně Evropský parlament (jak zmíněno) zaujal tvrdý postoj ve svých usneseních. I velké státy jako Německo a Francie oficiálně podporují myšlenku „důrazné regulace“ – například v rámci CCW prosazují závazný politický prohlášení či kodex chování, který by stanovil, že člověk musí mít poslední slovo při použití smrtící síly. Tyto státy se snaží najít kompromis mezi bezpečnostními zájmy (nezaostat ve vývoji vojenské AI) a humanitárními obavami.
Výsledkem je, že EU jako celek vystupuje na mezinárodních fórech s výzvou k pravidlům pro LAWS, avšak interně nebrání svým členům tyto zbraně zkoumat (pokud je to v mezích práva). Lze říci, že evropský přístup je více „právně opatrný“ a lidskoprávně orientovaný – klade důraz na preventivní pravidla (human-in-the-loop princip) a mezinárodní spolupráci, zatímco americký přístup je více „technologicky pragmatický“ – nechává větší prostor inovaci s tím, že konkrétní nasazení se posoudí případ od případu.
NATO musí balancovat mezi těmito přístupy svých členů. Aliance jako taková podporuje odpovědné využití AI a sdílení pravidel (jako je zmíněných 6 principů). V jejích dokumentech zaznívá, že IHL plně platí a lidská odpovědnost je nepostradatelná – to reflektuje konsenzus napříč členskými státy. Na druhou stranu NATO neomezilo vývoj autonomních zbraní svých členů žádným zákazem; naopak alianční strategie zmiňuje nutnost udržet krok s protivníky v oblasti nových technologií.
Rusko a Čína, jakožto významné vojenské mocnosti mimo NATO, zaujímají rovněž odlišné postoje: Rusko se staví proti jakékoli nové regulaci (což dokládá jeho hlas proti zmíněné rezoluci VS OSN z roku 2024), zatímco Čína deklaruje podporu zákazu použití autonomních zbraní, avšak nadále investuje do jejich vývoje (často tedy čelí obvinění z dvojí hry). Tyto rozdíly komplikují dosažení shody na mezinárodní úrovni.
Z hlediska konkrétních právních otázek se jurisdikce liší například v definici autonomní zbraně. USA si interně definovaly pojmy v rámci DoD 3000.09, kde LAWS znamená systém schopný výběru a zasažení cíle bez další intervence člověka. Naproti tomu v OSN dosud není jednotná definice – různé státy ji chápou odlišně, což stěžuje tvorbu práva. EU instituce často operují s pojmem „systémy bez významné lidské kontroly nad kritickými funkcemi“, což je definice použitá Evropským parlamentem.
Rozdílné definice mohou vést k rozdílnému rozsahu regulace. Například pokud USA považují určitou polo-autonomní zbraň (loitering munition s předem vybranými cíli) za “human in the loop” a tedy mimo kategorii zakázaných, zatímco jiný stát by ji pokládal za nepřijatelnou autonomii, vzniká spor o právní status takové zbraně.
Obdobně se liší přístupy k vývoji: v USA i Rusku probíhá aktivní výzkum financovaný státem, kdežto některé menší země volí moratoria. Mezinárodní humanitární organizace (jako Human Rights Watch a ICRC) tlačí na přijetí preventivních opatření a upozorňují na „mezeru odpovědnosti“ a riziko porušení základních principů IHL, pokud by stroj rozhodoval o životě a smrti.
Tyto názory ovlivňují evropské a menší státy více než velmoci. Náskok v technologii pak přináší právní i strategickou dilemu: státy, které vedou ve vývoji AI zbraní (USA, Čína, Rusko), nechtějí omezit své schopnosti jednostranně, zatímco státy bez těchto kapacit volají po omezeních, aby předešly závodům ve zbrojení.
Celkově lze říct, že právní přístupy k autonomním zbraním v roce 2025 se pohybují na škále od voluntaristických interních kontrol po požadavky mezinárodní smlouvy. Všechny demokratické státy NATO uznávají závaznost stávajícího válečného práva a potřebu lidské odpovědnosti; liší se ale v názoru, zda je nutné další explicitní právní ukotvení či zákaz. Tento rozdíl musí zohlednit i podniky – například americký dodavatel může vyvíjet AI dron pro Pentagon v souladu s DOD směrnicemi, ale tentýž produkt by mohl narazit na odpor v Evropě, pokud by postrádal některé bezpečnostní prvky nebo by byl vnímán jako krok k „killer robots“. Pro podniky a vlády je proto důležité sledovat jak národní regulace, tak mezinárodní debaty, aby dokázaly sladit technologický rozvoj s rozdílnými právními požadavky.
Tým ARROWS advokátní kanceláře
Právní prostředí kolem AI ve zbraňových systémech přináší v roce 2025 několik zásadních výzev pro firmy vyvíjející tyto technologie i pro státní instituce, které je pořizují a regulují:
Nejasné definice a standardy
AI v obraně je obtížně definovatelný pojem a chybí ustálené právní definice autonomních zbraní. Legislativa obtížně drží krok s rychlým technickým vývojem, což znamená, že předpisy mohou být vágní nebo zastaralé. Pro podniky je složité navrhovat systémy podle pravidel, která nejsou jednoznačná – např. pojem „významná lidská kontrola“ může být vykládán různě. Státní správa zase naráží na problém, jak vytvořit účinné normy pro technologii, která se neustále mění.
Soulad s různorodými regulacemi
Firma působící mezinárodně musí zohlednit odlišné požadavky v USA, EU, NATO a případně dalších regionech. Například v EU (zejména u projektů financovaných z Evropského obranného fondu) se de facto očekává, že systémy budou mít lidskou kontrolu, zatímco americké normy kladou důraz na technické bezpečnostní mechanismy. Sladit tyto požadavky v jednom vývojovém programu vyžaduje pečlivé právní analýzy. Pro státní správu je výzvou i interoperabilita – jak zajistit, aby spojenecké armády mohly spolupracovat, pokud jejich právní limity autonomie se liší.
Technologická predikovatelnost a testování
AI systémy, zejména s prvky strojového učení, mohou měnit své chování v čase, což znesnadňuje tradiční certifikaci. Regulace vyžadují opakované testy a revalidaci při aktualizacích softwaru, což prodlužuje vývojové cykly a zvyšuje náklady. Zajištění dostatečně komplexního testování pro všechny scénáře použití je však nutné, jinak hrozí právní riziko (stát by nesl odpovědnost za nedostatečně otestovanou zbraň). Pro podniky je tedy výzvou zabudovat do vývoje robustní verifikační procesy a pro státy kapacita tyto testy prověřit (např. prostřednictvím nezávislých úřadů či armádních zkušeben).
Transparentnost a auditovatelnost AI
Právníci a vojenští velitelé budou požadovat schopnost vysvětlit rozhodnutí AI poté, co k útoku dojde, zejména pokud nastanou pochybnosti o zákonnosti cíle. NATO proto klade důraz na sledovatelnost a objasnitelnost algoritmů. Pro vývojáře to znamená začlenit prvky jako logování dat, uchovávání záznamů senzorů a rozhodovacích procesů v AI, aby bylo možné ex post analyzovat, proč systém zvolil daný cíl. Tato „explainability“ však někdy naráží na proprietární povahu AI modelů nebo obchodní tajemství, což je další výzva – jak splnit požadavek transparentnosti, aniž by firmy musely odhalit své know-how. Státní správy budou možná muset zavést audity algoritmů před nasazením, což si vyžádá nové odborné kapacity (AI experti schopní posoudit modely z hlediska rizik).
Odpovědnost a pojistné riziko
Jak ukázala předchozí sekce, není dosud zcela vyjasněno, kdo ponese odpovědnost v různých scénářích selhání AI. Podniky se obávají, že by mohly čelit žalobám či sankcím, pokud jejich produkt způsobí nehodu, a to i v případě, že byl používán armádou. Mohou proto váhat investovat do vývoje skutečně autonomních schopností bez jasného právního rámce odpovědnosti. Pro státy je výzvou nastavit režim, který motivuje inovace, ale zároveň zajišťuje, že v případě škody budou poškození odškodněni. Pojištění odpovědnosti v této oblasti je zatím v plenkách a ceny mohou být vysoké kvůli nejistotě rizika.
Udržení souladu s IHL v praxi
Teoreticky všechny armády NATO deklarují, že budou AI používat v souladu s mezinárodním právem. Výzvou je to prakticky zajistit v bojových podmínkách – bude nutné školit personál, upravovat pravidla zapojení (ROE) a zavádět nové operační postupy. Například velitelé musí rozumět limitům AI nástrojů, aby je nepoužili nevhodně (což by mohlo vést k právnímu postihu). Firmy zase musejí zákazníkům (ozbrojeným složkám) poskytnout dostatečné informace o schopnostech a omezeních systému, aby nedošlo k jeho nesprávnému použití.
Dynamický vývoj regulace
Právní rámec se může v příštích letech zásadně změnit – například pokud by OSN přijala novou smlouvu o autonomních zbraních, podniky budou muset rychle reagovat (možná omezit či ukončit některé projekty), státy aktualizovat své zákony. Již nyní některé státy zvažují moratoria nebo národní zákazy určitých aplikací AI (např. zákaz plně autonomních dronů pro policejní účely). Nejistota ohledně budoucí právní úpravy je proto sama o sobě výzvou – vyžaduje scénářové plánování a flexibilitu ze strany firem i vlády.
Využití umělé inteligence ve zbraňových systémech přináší značné právní riziko, ale i konkurenční výhodu těm, kteří dokáží balancovat na hraně inovace a regulatorní compliance. V roce 2025 platí, že žádný podnik ani stát nemůže tuto oblast ignorovat – právní aspekty AI v obraně se staly nedílnou součástí rozhodování o výzkumu, vývoji i nasazení nových technologií. Pro právníky a rozhodovací činitele je klíčové průběžně sledovat vývoj na národní úrovni (legislativa, politiky DoD, směrnice EU pro fondy apod.) i na mezinárodní scéně (jednání OSN, principy NATO), aby zajistili, že jejich organizace dodrží všechny platné předpisy a současně nezůstanou pozadu v technologickém pokroku.
Vzhledem k rychlému vývoji AI i bezpečnostní situace lze očekávat, že právní rámec se bude dál zpřesňovat – cílem všech zúčastněných by mělo být nastavit jasná pravidla, která umožní využít přínosy AI v obraně a zároveň zabrání jejímu chybnému či protiprávnímu použití.
Zajímají vás legislativní novinky v roce 2025? Připravili jsme si pro vás webinář.
Proč si vybrat právě nás?
Naše služby využívají firmy všech velikostí, protože jim poskytujeme rychlá a efektivní řešení v oblasti smluvní dokumentace. Například:
Víme, že administrativní zátěž spojená se smlouvami může brzdit váš byznys. Proto jsme pro vás připravili e-book "Advokáti radí, jak ušetřit miliony", který vám ukáže, jak mít smlouvy pod kontrolou bez zbytečných komplikací.
✅ Praktické rady, jak si efektivně nastavit smluvní procesy a ušetřit čas.
✅ Konkrétní tipy, jak se vyhnout nejčastějším chybám ve smlouvách.
✅Ukázku našeho přístupu: jak jednoduše a srozumitelně předáváme odborné znalosti v oblasti smluvní dokumentace.
Neztrácejte čas se smlouvami – my vám pomůžeme nastavit smluvní procesy tak, aby byly rychlé, efektivní a bezpečné.
Nechcete tenhle problém řešit sami? Věří nám více než 2000 klientů a jsme oceněni jako Právnická firma roku 2024. Podívejte se ZDE na naše reference.