Role člověka v rozhodovacím cyklu dronů a pravidla ozbrojeného konfliktu

V epoše rychlého technologického pokroku se diskuse o vojenských bezpilotních prostředcích soustředí na kritickou otázku: jak udržet člověka v rozhodovací smyčce? Tento článek vysvětlí roli lidského rozhodování, právní povinnosti podle mezinárodního humanitárního práva a rizika pro státy i velitele. Zjistíte, proč nelze automatizovat etiku války a kde se skrývají největší právní úskalí.

Fotografie ukazuje odborníka při konzultaci ohledně autonomní zbraňové systémy.

Rychlé shrnutí

  • Lidské rozhodování je právně nezbytné :  vyžaduje, aby v kritických fázích operací zůstal člověk se smysluplnou kontrolou.
  • Technologie selhává tam, kde chybí kontext : Algoritmy mohou chybovat v rozlišování mezi civilisty a bojovníky nebo v hodnocení přiměřenosti útoků.
  • Porušení hrozí vážnými sankcemi : Státy a jednotlivci nasazující drony bez adekvátního dohledu riskují obvinění z  a mezinárodní stíhání.

Co je to smysluplná kontrola člověka a proč je v právu tak důležitá?

Termín "meaningful human control" (smysluplná lidská kontrola) se stal klíčovým pojmem, ačkoliv dosud neexistuje jeho jednotná kodifikovaná definice. V praxi to znamená, že člověk musí rozumět fungování systému, mít schopnost intervenovat a nést odpovědnost za rozhodnutí – ať už na úrovni vývoje zbraně, její aktivace, nebo během operace.

Právníci a experti se však dělí v otázce, jak konkrétně by měla taková kontrola vypadat.

Mezinárodní výbor Červeného kříže zdůrazňuje, že bez smysluplné kontroly člověka je extrémně obtížné zajistit soulad s principy rozlišování, přiměřenosti a předběžné opatrnosti. Jinými slovy: pokud chcete mít legitimní vojenskou operaci, musí v ní figurovat člověk jako garant legality.

Tři kritické fáze rozhodování o legalitě

Právníci ARROWS advokátní kanceláře se v praxi setkávají s tím, že mnozí vojenští velitelé či vývojáři nedoceňují složitost těchto rozhodovacích cyklů. Existují tři hlavní fáze, kde se formuje lidská kontrola:

Fáze vývoje a testování : Již při návrhu dronu se musí zavést parametry, které omezují jeho působení v souladu s článkem 36 Dodatkového protokolu I k Ženevským úmluvám. Nejde jen o technickou otázku, ale o právní povinnost státu zajistit, že zbraň lze použít v souladu s MHP.

Fáze aktivace a nasazení : Velitel rozhoduje o tom, zda daný systém v konkrétním kontextu nasadit. V tomto okamžiku musí mít přístup k relevantním informacím a musí být schopen vyhodnotit, zda nasazení neodporuje právu.

Fáze operace (útoku): Když je dron již aktivní, měl by existovat mechanismus, jak jej zastavit nebo přesměrovat, pokud se situace změní nebo když nové informace naznačují, že útok by porušil MHP.

Problém spočívá v tom, že tempo rozhodování se neustále zrychluje. V reálném konfliktu se často rozhoduje v minutách nebo vteřinách. Právě zde se skrývá největší riziko, že automatizované systémy předběhnou lidský úsudek.

Související otázky k fázi rozhodování o dronech

1. Co se stane, pokud velitel dopustí, aby dron zasáhl civilisty bez adekvátního přezkumu?
Může to být kvalifikováno jako válečný zločin podle článku 8 Římského statutu Mezinárodního trestního soudu (ICC). Trestní odpovědnost padá na toho, kdo měl kontrolu a věděl nebo měl vědět o riziku porušení a neučinil preventivní kroky.

2. Mohou být technické chyby zbraně omluvou pro porušení MHP?
Zpravidla ne. Právníci ARROWS upozorňují, že státy jsou odpovědné za to, aby zajistily, že zbraně jsou předvídatelné a spolehlivé. Pokud stát nasadí nevyzkoušenou technologii, která způsobí nepřiměřené škody, nezbavuje ho to odpovědnosti.

3. Jak se "smysluplná kontrola" liší od prosté přítomnosti člověka?
Smysluplná kontrola vyžaduje kognitivní zapojení – člověk musí skutečně rozumět situaci a mít reálnou možnost rozhodnutí ovlivnit. Pouhé mechanické stisknutí tlačítka bez vědomého posouzení legality není dostačující.

Princip rozlišování: Kde selhává technologie a kde je nezbytný člověk

Jeden z nejzákladnějších principů mezinárodního humanitárního práva je princip rozlišování. Ten stanoví, že strany konfliktu musí vždy rozlišovat mezi civilním obyvatelstvem a bojovníky. Útok vedený přímo proti civilistům je vždy zakázán.

Na první pohled se zdá, že drony by měly být ideální pro splnění tohoto principu díky pokročilým senzorům. V praxi se ale ukazuje, že technologie je jen nástroj – a interpretace dat může být velice klamná.

Signature strikes versus identifikace osoby

Bezpečnostní složky v některých konfliktech využívají tzv. signature strikes – tedy údery zaměřené na osoby, jejichž totožnost není zcela ověřená, ale jejich chování odpovídá "profilu" bojovníka. Právníci ARROWS upozorňují, že tento přístup je právně velmi tenkým ledem.

Pokud algoritmus identifikuje skupinu lidí, která se pohybuje "podezřelým" způsobem, a systém ji vyhodnotí jako cíl, nemusí to být dostatečné pro splnění principu rozlišování. Může jít o civilisty prchající před bojem nebo osoby, které sice komunikují s bojovníky, ale přímo se neúčastní nepřátelských akcí.

Ztráta kontextu a lidského faktoru

Operátoři dronů často sledují své "cíle" dlouhodobě. Na rozdíl od pilotů stíhaček vidí detaily běžného života sledovaných osob. V momentě rozhodnutí o útoku hraje roli i lidská schopnost vyhodnotit kontext, který algoritmu uniká – například přítomnost dětí, které se v datech mohou jevit jen jako "menší objekty".

Nejde o to, že by člověk byl neomylný. Jde o to, že rozhodnutí o použití letální síly musí nést právní a morální odpovědnost, kterou algoritmus jako věc nést nemůže.

Jak se princip rozlišování v praxi porušuje

Historie konfliktů ukazuje případy, kdy se postupem času snižovaly nároky na ověření totožnosti cíle. Opakovaně docházelo k situacím, kdy byl útok veden na základě metadat (např. poloha SIM karty), nikoliv na základě vizuálního potvrzení bojovníka, což vedlo k civilním obětem.

Právní problém je jasný. Pokud stát ve své vojenské doktríně (Rules of Engagement) příliš rozvolní definici toho, kdo je "legitimním vojenským cílem", riskuje systematické porušování principu rozlišování a páchání válečných zločinů.

Související otázky k rozlišování a drony

1. Pokud se data o cíli získají od spojenců, je stát odpovědný za jejich správnost?
Ano. Právníci ARROWS upozorňují, že stát je odpovědný za své vlastní rozhodnutí o útoku. Pokud nekriticky převezme zpravodajství od partnera, o kterém ví, že používá příliš široké definice "bojovníka", může být spoluzodpovědný za porušení práva.

2. Je identifikace cíle pomocí AI dostatečná pro provedení útoku?
Sama o sobě zpravidla ne. MHP vyžaduje, aby velitel nebo operátor učinil vše proveditelné pro ověření, že cíl je vojenský. AI může sloužit jako podpůrný nástroj pro analýzu, ale finální potvrzení a rozhodnutí by mělo být lidské.

3. Co se stane, když algoritmus chybně identifikuje civilisty jako bojovníky?
Pokud k tomu došlo v důsledku nedbalosti, nedostatečného testování systému nebo ignorování principu předběžné opatrnosti, jedná se o porušení MHP. Odpovědnost nese stát, případně velitelé, kteří systém nasadili.

Princip přiměřenosti: Jak se vyvažuje vojenská výhoda a civilní ztráty

Druhým klíčovým principem je přiměřenost (proporcionalita). Ten zakazuje útoky, u nichž se očekává, že způsobí civilní škody, které by převyšovaly předpokládanou konkrétní a přímou vojenskou výhodu.

V teorii to zní logicky. V praxi je velmi obtížné naprogramovat algoritmus, aby vyřešil rovnici, zda je smrt civilistů přiměřená eliminaci vojenského cíle. Toto je hodnotový soud, nikoliv matematický výpočet.

Kvantifikace nemůže nahradit právní úsudek

Právníci ARROWS advokátní kanceláře se setkávají se snahami kvantifikovat odhad vedlejších škod (CDE). Systémy mohou předpovědět pravděpodobný poloměr výbuchu a počet osob v něm.

Zásadní problém však spočívá v definici "vojenské výhody", která je v čase proměnlivá a kontextuální.

Algoritmy mají tendenci redukovat tyto komplexní otázky na statistiku. Výsledkem může být rozhodnutí, které je sice "datově podložené", ale právně neobhajitelné, protože nezohledňuje kumulativní dopady nebo humanitární hlediska.

V praxi vidíme fenomén automatizačního zkreslení, kdy operátoři mají sklon nekriticky přijímat doporučení algoritmů. Pokud systém označí útok za "proporcionální", operátor může podvědomě potlačit vlastní pochybnosti.

Jak ARROWS advokátní kancelář přistupuje k analýzám proporcionality

V rámci poradenství pro státní instituce či obranný průmysl zdůrazňujeme nutnost komplexní analýzy:

  • Verifikace dat : Sběr všech dostupných údajů o civilní přítomnosti (včetně vzorců života v dané oblasti).
  • Právní posouzení vojenské výhody : Musí jít o konkrétní a přímou výhodu, nikoliv o hypotetický nebo dlouhodobý politický efekt.
  • Alternativní prostředky : Zvážení, zda nelze vojenské výhody dosáhnout jiným způsobem s menším rizikem pro civilisty.

Související otázky k přiměřenosti a drony

1. Pokud přesnější navádění sníží odhad civilních obětí, stává se útok automaticky přiměřeným?
Ne nutně. I jedna civilní oběť může být nepřiměřená, pokud je vojenská výhoda zanedbatelná. Přesnost zbraně neznamená automaticky legalitu útoku.

2. Kdo je právně odpovědný za chybný odhad proporcionality – programátor, nebo velitel?
Primárně velitel, který o útoku rozhodl. Programátor by mohl nést odpovědnost pouze v případě, že by úmyslně manipuloval se softwarem s cílem způsobit škodu, což je v praxi méně časté.

3. Musí se přiměřenost hodnotit znovu, pokud se situace změní během letu dronu?
Ano. Povinnost dbát předběžné opatrnosti trvá po celou dobu útoku. Pokud se v cílové oblasti objeví civilisté, operátor musí mít možnost útok přerušit.

Velitelská odpovědnost: Kdo odpovídá za to, co dron udělá?

V mezinárodním humanitárním právu platí doktrína velitelské odpovědnosti. Velitel je trestně odpovědný za činy svých podřízených, pokud věděl nebo měl vědět, že se chystají porušit MHP, a neučinil všechna nezbytná opatření k zabránění takovému jednání.

U autonomních či poloautonomních systémů se tento koncept komplikuje. Může být velitel odpovědný za "rozhodnutí" stroje?

Kde začíná a končí odpovědnost

Právní konsenzus, se kterým pracují i specialisté ARROWS, je následující:

Stát a nejvyšší velení odpovídají za to, že zbraň prošla řádným právním přezkumem a že její chování je předvídatelné.

Při nasazení nese konkrétní velitel odpovědnost za rozhodnutí nasadit autonomní systém v daném prostředí. Pokud nasadí dron do hustě obydlené oblasti s vědomím, že senzory dronu nedokážou spolehlivě rozlišit civilisty v davu, nese plnou odpovědnost za následky.

Velení musí zajistit, aby operátoři byli řádně vycvičeni nejen v ovládání stroje, ale i v pravidlech mezinárodního humanitárního práva.

Problém nastává v situaci tzv. mezery v odpovědnosti, kdy se vinu snaží všichni svalit na "chybu softwaru". Právo však vyžaduje, aby za použití síly vždy odpovídal člověk.

Aktuální případy

Mezinárodní trestní soud (ICC) vydal v roce 2024 zatykače na vysoké ruské představitele v souvislosti s útoky na energetickou infrastrukturu Ukrajiny. Ačkoliv byly útoky často vedeny pomocí vyčkávací munice, jádrem obvinění je rozhodnutí velitelů vést útoky s vědomím nadměrných civilních škod.

Související otázky k velitelské odpovědnosti

1. Je velitel odpovědný, pokud dron selže technicky a zasáhne nesprávný cíl?
Pokud šlo o nepředvídatelnou technickou závadu, nemusí jít o válečný zločin. Pokud však velitel věděl o nespolehlivosti systému a přesto jej nasadil do rizikové oblasti, nese odpovědnost za nedbalost, která může vést k trestnímu stíhání.

2. Pokud dron vyvíjí třetí stát a naše armáda jej jen koupí, odpovídáme za jeho chování?
Ano. Stát, který zbraň používá, je povinen provést vlastní právní přezkum a zajistit, že ji používá v souladu s MHP. Nelze se vymlouvat na výrobce.

3. Mohou se vojáci bránit tím, že "následovali příkaz" systému?
Nikoliv. Povinnost neuposlechnout zjevně nezákonný rozkaz platí i v případě, že "rozkaz" či doporučení k palbě vydává algoritmus.

Problém času: Proč zrychlení rozhodování znamená riziko

Argumentem pro autonomii je zvýšení tempa operací a zrychlení rozhodovacího cyklu. Automatizované systémy reagují rychleji než lidé.

Právníci ARROWS však varují před rizikem, kdy se z lidského dozoru stane pouhá formalita. Pokud má operátor na potvrzení útoku jen sekundy, nemůže provést kvalitní právní a etické zhodnocení.

Rychlost versus legalita

V praxi dochází k situacím, kdy operátor pod tlakem času a automatizačního zkreslení útok nezruší, ačkoliv by měl. V takovém případě právní odpovědnost zůstává na operátorovi, ačkoliv systémové nastavení mu fakticky znemožnilo provést řádnou kontrolu.

Doporučení pro nastavení procesů

Pro zajištění legality je nutné rozlišovat typy rozhodování:

  • Plánované cíle (Deliberate Targeting): Zde musí proběhnout důkladná právní analýza, která může trvat dny.
  • Dynamické cíle (Dynamic Targeting): I zde musí být nastaveny mantinely, aby rychlost nešla na úkor práva.

Související otázky k času a rozhodování

1. Pokud operátor nemá čas na plný přezkum legality, měl by odmítnout útok?
Z právního hlediska ano. V pochybnostech platí presumpce civilního statusu a povinnost zdržet se útoku.

2. Jak se v praxi posuzuje "doba dostupná na rozhodnutí"?
Posuzuje se optikou "rozumného velitele" v dané situaci. Pokud situace umožňovala vyčkat a ověřit cíl, a velitel to neudělal, jednal v rozporu s principem předběžné opatrnosti.

Hlavní právní rizika při nasazování dronů bez adekvátní lidské kontroly

Rizika a sankce

Jak pomáhá ARROWS (office@arws.cz)

Porušení principu rozlišování: Útok na osoby bez dostatečného ověření jejich statusu bojovníka (válečný zločin dle Statutu ICC).

Implementace pravidel nasazení (ROE): Pomáháme formulovat jasná pravidla pro identifikaci cílů v souladu s mezinárodním právem.

Porušení principu přiměřenosti: Civilní škody převyšují vojenskou výhodu; riziko mezinárodního stíhání a reputační katastrofy.

Školení a metodika: Provádíme školení velitelů a štábů v aplikaci principu proporcionality na moderní bojiště.

Selhání velitelské odpovědnosti: Nedostatečná kontrola nad systémem a podřízenými.

Nastavení kontrolních mechanismů: Navrhujeme interní systémy reportování a kontroly, které chrání velitele před nevědomou nedbalostí.

Nasazení neotestované technologie: Použití zbraně, která neprošla přezkumem dle čl. 36 Dodatkového protokolu I.

Právní přezkum zbraní: Zajišťujeme právní audity nových zbraňových systémů před jejich zavedením do výzbroje.

Trestní odpovědnost jednotlivců: Stíhání operátorů a velitelů před domácími či mezinárodními soudy.

Právní obhajoba a poradenství: Poskytujeme právní zastoupení a konzultace v otázkách mezinárodního trestního a vojenského práva.

Autonomní zbraně: Kam směřuje technologie a kde je hranice?

Diskuse se posouvá k plně autonomním letálním zbraňovým systémům (LAWS), které by si samy vybíraly a ničily cíle bez lidského zásahu.

Definice autonomie a její stupně

  • Dálkově ovládané systémy (Human-in-the-loop): Dron vyčká na příkaz člověka před útokem (např. MQ-9 Reaper).
  • Systémy pod dohledem (Human-on-the-loop): Dron vybírá cíle sám, ale člověk může útok vetovat.
  • Plně autonomní systémy (Human-out-of-the-loop): Systém operuje bez možnosti zásahu člověka po aktivaci.

Právní vakuum?

Největším problémem plně autonomních zbraní je absence "morálního aktéra". Stroj nelze pohnat k odpovědnosti. Pokud LAWS spáchá válečný zločin, odpovědnost se musí nutně vrátit na začátek řetězce – k tomu, kdo systém naprogramoval a nasadil.

Mezinárodní regulace

Na půdě OSN v rámci Úmluvy o některých konvenčních zbraních probíhají dlouholetá jednání o regulaci LAWS. Právníci ARROWS sledují tento vývoj, aby mohli klientům poskytovat aktuální poradenství v rychle se měnícím legislativním prostředí.

Související otázky k autonomním zbraním

1. Je vývoj autonomních zbraní v současnosti zakázán?
Výslovně zakázán mezinárodní smlouvou není, ale jejich použití musí vždy splňovat obecná pravidla MHP (rozlišování, přiměřenost). Pokud zbraň z podstaty nemůže tato pravidla splnit, je její použití nezákonné.

2. Může algoritmus rozlišovat lépe než člověk?
V některých parametrech (rychlost zpracování dat) ano, ale v chápání kontextu, záměru (např. vzdávající se voják) a etiky zatím nikoliv.

Specifická rizika při zapojení umělé inteligence do rozhodování

Rizika a důsledky

Jak pomáhá ARROWS (office@arws.cz)

Black Box efekt: Nemožnost zpětně vysvětlit, proč se AI rozhodla zaútočit, znemožňuje právní přezkum a vyvození odpovědnosti.

Požadavek na vysvětlitelnost (XAI): Prosazujeme právní standardy vyžadující auditovatelnost rozhodovacích procesů AI ve vojenství.

Bias (předpojatost) dat: Algoritmus trénovaný na chybných datech může systematicky diskriminovat určité skupiny osob.

Compliance a audit dat: Spolupracujeme s experty na posouzení rizikovosti datových sad z pohledu mezinárodního práva.

Hacking a spoofing: Převzetí kontroly nad autonomním systémem nepřítelem.

Právní rámec kyberbezpečnosti: Pomáhám nastavit právní odpovědnost za kybernetickou bezpečnost zbraňových systémů.

Mezinárodní mechanismy odpovědnosti

Porušení MHP při nasazení dronů může mít dopad na několika úrovních.

Mezinárodní trestní soud (ICC)

ICC stíhá jednotlivce za nejzávažnější zločiny. Soud má jurisdikci, pokud je stát smluvní stranou Římského statutu, nebo pokud věc postoupí Rada bezpečnosti OSN.

Státní odpovědnost a reparace

Stát, jehož ozbrojené síly porušily mezinárodní právo, je povinen poskytnout reparace poškozenému státu nebo obětem. Ačkoliv vymahatelnost bývá v mezinárodním právu složitá, reputační škody a diplomatická izolace jsou reálnými sankcemi.

Vnitrostátní trestní právo

Primární odpovědnost za stíhání válečných zločinů mají samotné státy. Český trestní zákoník obsahuje skutkové podstaty, které se vztahují i na operace s drony.

Praktická doporučení pro státy a instituce

Pokud se vaše organizace podílí na vývoji, nákupu nebo provozu bezpilotních systémů, měli byste řešit následující:

1. Máme zpracovaný právní přezkum (Legal Review)?
    Každá nová zbraň musí být před nasazením posouzena z hlediska souladu s mezinárodním právem. ARROWS zajišťuje odborné posudky v této oblasti.

2. Jsou operátoři proškoleni v MHP?
    Technický výcvik nestačí. Personál musí znát právní limity použití síly.

3. Máme nastavené jasné procesy odpovědnosti?
    Musí být jasné, kdo v řetězci velení nese odpovědnost za stisknutí spouště nebo autorizaci autonomního režimu.

Závěr

Role člověka v rozhodovacím cyklu dronů není jen technologickou otázkou, ale především otázkou právní a etickou. Mezinárodní humanitární právo bylo vytvořeno pro lidi a předpokládá lidský úsudek, soucit a odpovědnost. Snaha o plnou automatizaci naráží na limity, které mohou vést k tragickým omylům.

Právníci ARROWS advokátní kanceláře poskytují expertízu v oblasti mezinárodního humanitárního práva, vojenského práva a compliance.

Pomáháme klientům orientovat se v složitém právním prostředí moderního válčení a minimalizovat rizika spojená s nasazováním pokročilých technologií. Pro konzultaci v oblasti obranného průmyslu nás kontaktujte na office@arws.cz.

FAQ – Právní dotazy k roli člověka a dronům

1. Jaký je hlavní právní rozdíl mezi drony dálkově ovládanými a autonomními?
U dálkově ovládaných dronů je přímá linka odpovědnosti na operátorovi. U autonomních systémů, které si samy vybírají cíle, je určení konkrétní trestní odpovědnosti složitější a přesouvá se spíše na velitele nebo na stát.

2. Může být stát spoluzodpovědný za útok provedený spojencem na základě sdílených dat?
Ano. Pokud stát poskytne zpravodajské informace s vědomím, že budou použity k nezákonnému útoku, může nést mezinárodněprávní odpovědnost za napomáhání k protiprávnímu jednání.

3. Co dělat při podezření na porušení MHP?
Vojáci mají povinnost hlásit podezření na válečné zločiny svým nadřízeným nebo orgánům činným v trestním řízení. Právní pomoc v takových případech, včetně ochrany oznamovatelů, je součástí agendy specializovaných kanceláří.

4. Existuje mezinárodní smlouva zakazující "Killer Robots"?
Zatím neexistuje specifická globální smlouva, která by explicitně zakazovala plně autonomní zbraně (LAWS). Použití těchto zbraní se proto řídí obecnými pravidly Ženevských úmluv.

Upozornění: Informace obsažené v tomto článku mají pouze obecný informativní charakter a slouží k základní orientaci v problematice. Ačkoliv dbáme na maximální přesnost obsahu, právní předpisy a jejich výklad se v čase vyvíjejí. Pro ověření aktuálního znění předpisů a jejich aplikace na vaši konkrétní situaci je proto nezbytné kontaktovat přímo ARROWS advokátní kancelář (office@arws.cz). Neneseme žádnou odpovědnost za případné škody či komplikace vzniklé samostatným užitím informací z tohoto článku bez naší předchozí individuální právní konzultace a odborného posouzení. Každý případ vyžaduje řešení na míru, proto nás neváhejte oslovit.