Vymáhání náhrady škody za chyby AI systémů

Kdo nese odpovědnost a jak ji uplatnit

23.9.2025

Umělá inteligence (AI) je motorem inovací, ale její autonomní povaha a složitost vytváří bezprecedentní právní rizika. Když AI systém udělá chybu – ať už v náboru zaměstnanců, finanční analýze nebo řízení dodavatelského řetězce – otázka „kdo za to zaplatí?“ se stává kritickou. Tento článek vám poskytne jasný přehled o tom, kdo nese odpovědnost za škody způsobené AI, jak se změnila pravidla v EU a jak můžete efektivně chránit svou firmu a vymáhat své nároky.

Potřebujete s tématem poradit? Obraťte se na advokátní kancelář ARROWS na e-mail office@arws.cz nebo telefon +420 245 007 740. Váš dotaz rád zodpoví "Mgr. Petr Hanzel, LL.M.", expert na dané téma.

Nová éra podnikání s AI: Kdo zaplatí za nevyhnutelné chyby?

Umělá inteligence již není futuristickým konceptem, ale každodenním obchodním nástrojem. Její integrace do klíčových firemních procesů, jako jsou lidské zdroje, logistika či finance, přináší obrovskou efektivitu, ale zároveň otevírá novou kategorii rizik, na kterou tradiční modely odpovědnosti nestačí. 

Když AI systém selže, je často nemožné přesně určit, proč dospěl ke svému chybnému rozhodnutí. To vytváří pro firmy kritickou zranitelnost.

Představte si konkrétní scénáře, které se dnes a denně stávají realitou. AI pro nábor zaměstnanců, která má zefektivnit výběrové řízení, začne systematicky diskriminovat určité skupiny uchazečů a vystaví tak vaši firmu žalobám a poškození pověsti. Nebo AI v logistice, která chybně optimalizuje skladové zásoby, což vede k přímým finančním ztrátám a porušení smluv s odběrateli. V neposlední řadě může jít o analytický nástroj, který poskytne chybnou predikci trhu, na základě které vaše firma učiní ztrátovou investici v řádu milionů korun.

Problém spočívá v takzvaném efektu „černé skříňky“ (black box). Na rozdíl od standardního softwaru, kde lze chybu zpětně vysledovat v kódu, se pokročilé AI systémy samy učí a vytvářejí si vlastní rozhodovací vzorce. To znamená, že ani jejich tvůrce nemusí plně rozumět logice, která vedla ke konkrétnímu výstupu. Tato nepředvídatelnost zásadně komplikuje prokázání zavinění nebo příčinné souvislosti, což jsou základní stavební kameny pro uplatnění nároku na náhradu škody podle stávajícího českého práva.

Největší riziko pro firmy tak není primárně technologické, ale právně-procesní. Problémem není to, že AI dělá chyby, ale to, že způsob, jakým je dělá, podkopává tradiční právní mechanismy pro určení odpovědnosti. 

Stávající český občanský zákoník je postaven na prokázání zavinění (tedy úmyslu či nedbalosti) nebo na specifických případech objektivní odpovědnosti, jako je vada výrobku. U „černé skříňky“ je však pro poškozeného prokázání zavinění programátora či uživatele nebo konkrétní „vady“ v kódu extrémně obtížné, ne-li nemožné. Hrozbou tedy není selhání AI jako takové, ale neschopnost firem se bránit nebo vymáhat nároky v právním systému, který s takovou technologií nepočítal.

Evropská unie přepisuje pravidla: AI Act a nová směrnice o odpovědnosti za výrobky

V reakci na tuto právní nejistotu zavedla Evropská unie dva klíčové pilíře regulace, které mění pravidla hry. Prvním je nařízení o umělé inteligenci (AI Act), které stanovuje pravidla pro vývoj a používání AI. Druhým je revidovaná směrnice o odpovědnosti za vadné výrobky (PLD), která otevírá zcela novou cestu pro vymáhání škody. Každá firma, která AI používá nebo vyvíjí, musí rozumět oběma, aby se vyhnula drtivým sankcím a dokázala efektivně chránit své zájmy.

AI Act – Váš nový manuál pro používání AI

AI Act představuje první komplexní právní rámec pro AI na světě a zavádí přístup založený na míře rizika. Systémy AI dělí do čtyř kategorií:

  • Nepřijatelné riziko: Tyto praktiky jsou zcela zakázané. Patří sem například systémy pro sociální skórování občanů nebo podprahová manipulace s chováním.
  • Vysoké riziko: Sem spadá většina B2B aplikací, jako jsou systémy pro nábor zaměstnanců, hodnocení úvěruschopnosti, AI ve zdravotnictví nebo v kritické infrastruktuře. Tyto systémy podléhají nejpřísnějším povinnostem.
  • Omezené riziko: Zde platí především povinnost transparentnosti (např. chatboti musí uživatele informovat, že komunikují se strojem).
  • Minimální riziko: Většina běžných AI aplikací (např. spamové filtry), na které se nevztahují žádné zvláštní povinnosti.

Je důležité si uvědomit, že AI Act sám o sobě primárně neřeší náhradu škody. Stanovuje však soubor povinností (např. zajištění kvalitních dat, robustnosti, transparentnosti a klíčového lidského dohledu), jejichž porušení bude sloužit jako zásadní důkaz v případném soudním sporu o náhradu škody.

Revidovaná směrnice o odpovědnosti za vadné výrobky (PLD) – Software je konečně produkt

Druhou, a pro vymáhání škody ještě důležitější, změnou je nová směrnice o odpovědnosti za vadné výrobky. Ta přináší přelomovou úpravu: explicitně zahrnuje software, včetně systémů AI a jejich aktualizací, pod definici „výrobku“.

To v praxi znamená, že poškozený může žalovat výrobce (poskytovatele AI systému) v režimu tzv. objektivní odpovědnosti. Nemusí mu tedy prokazovat zavinění. Postačí, když prokáže tři věci: existenci vady výrobku, vzniklou škodu a příčinnou souvislost mezi nimi. Směrnice navíc zavádí mechanismy, které důkazní břemeno poškozenému usnadňují, například vyvratitelnou domněnku vadnosti, pokud výrobce odmítne zpřístupnit nezbytné technické informace.

AI Act a nová směrnice PLD tak společně vytvářejí „klešťový efekt“ na odpovědnost. AI Act definuje povinnosti, které musí firmy při používání AI dodržovat, zatímco PLD poskytuje poškozeným nástroj, jak vymáhat škodu, pokud jsou tyto povinnosti porušeny. 

Porušení povinnosti z AI Actu (např. nezajištění lidského dohledu) tak může být u soudu považováno za důkaz „vady“ ve smyslu směrnice PLD. Firmy tak čelí dvojímu riziku: veřejnoprávnímu v podobě pokut od regulátora a soukromoprávnímu v podobě žalob o náhradu škody.

FAQ – Právní tipy k AI Actu

  • Spadá náš interní analytický AI nástroj pod AI Act?
    Ano, pokud je používán v kontextu vysoce rizikových oblastí, jako je rozhodování o zaměstnancích nebo finanční hodnocení, vztahují se na vás povinnosti uživatele. Potřebujete posoudit vaši konkrétní situaci? Spojte se s námi na office@arws.cz.
  • Co znamená „lidský dohled“ v praxi?
    Nejde jen o to, aby člověk „zmáčkl tlačítko“. Vyžaduje to kompetentní a proškolené osoby, které rozumí fungování systému, mohou jeho rozhodnutí aktivně přezkoumat a zvrátit a jsou za to odpovědné. Naši právníci jsou připraveni vám pomoci nastavit interní procesy – napište na office@arws.cz.
Nevíte si s daným tématem rady?

Zmizelý dílek skládačky: Proč byla Směrnice o odpovědnosti za AI stažena a co to pro vás znamená?

Pro úplné pochopení současné situace je klíčové vědět o legislativě, která nakonec nevznikla. Evropská komise nedávno stáhla návrh speciální Směrnice o odpovědnosti za AI (AILD). Tento předpis měl poškozeným výrazně usnadnit dokazování v případech, kdy škodu způsobí komplexní AI systém. Její absence znamená, že se firmy musí spoléhat na méně vhodnou a napříč EU roztříštěnou právní úpravu, což zvyšuje právní nejistotu a význam expertního poradenství.

Hlavním cílem AILD bylo překlenout tzv. důkazní nouzi poškozených, kteří čelí neprůhlednosti AI systémů. Měla proto zavést dva revoluční nástroje:

  1. Zpřístupnění důkazů: Soud by mohl na žádost poškozeného nařídit poskytovateli nebo uživateli AI, aby předložil klíčové důkazy, jako je technická dokumentace a záznamy o provozu (logy).
  2. Vyvratitelná domněnka příčinné souvislosti: Pokud by bylo prokázáno zavinění (např. porušení povinnosti z AI Actu) a zdálo by se pravděpodobné, že toto zavinění ovlivnilo výstup AI, soud by automaticky předpokládal, že právě toto zavinění způsobilo škodu. Důkazní břemeno by se tak přesunulo na žalovaného (poskytovatele/uživatele AI), který by musel prokázat opak.

Jelikož byla směrnice stažena z důvodu chybějící politické shody („no foreseeable agreement“), tyto nápomocné mechanismy v evropském právu (prozatím) neexistují. Poškození se tak ocitají v obtížné pozici, kdy musí prokazovat příčinnou souvislost v „černé skříňce“ AI podle obecných a často nevyhovujících pravidel národních právních řádů, jako je český občanský zákoník.

Absence AILD však vytváří trh pro sofistikovaná právní řešení. Tam, kde selhal zákonodárce, musí nastoupit precizní smluvní ujednání a robustní interní procesy. Pro firmy s mezinárodní působností je tato situace obzvláště riziková, protože identický spor může v různých členských státech dopadnout zcela odlišně. Tuto nejistotu lze snížit jediným způsobem: proaktivně, prostřednictvím smluv. 

V ARROWS vám můžeme nabídnout „AILD na míru“ ve formě smluvní dokumentace, která vám zajistí právo na přístup k dokumentaci, povinnost součinnosti dodavatele a jasné rozdělení odpovědnosti, čímž nahradíme chybějící veřejnoprávní úpravu.

Porušení AI Actu a jeho přímé dopady na vaši firmu

Nedodržení AI Actu není jen teoretický problém. Přináší konkrétní, finančně a reputačně zničující následky. Následující tabulka jasně ukazuje, že pro každé riziko existuje efektivní právní řešení.

Rizika a sankce

Jak pomáhá ARROWS

Pokuty až 35 mil. EUR nebo 7 % z celosvětového obratu za použití zakázaných AI praktik (např. sociální skórování, nepovolená biometrická identifikace). 

Právní audit a implementace AI governance. Chcete prověřit, zda vaše AI systémy nespadají do zakázané kategorie? Napište na office@arws.cz.

Sankce až 15 mil. EUR nebo 3 % z obratu za nesplnění povinností u vysoce rizikové AI (chybějící posouzení shody, nedostatečná dokumentace, absence lidského dohledu). 

Vyhotovení interních směrnic a pomoc s technickou dokumentací. Potřebujete připravit dokumentaci v souladu s AI Actem? Kontaktujte nás na office@arws.cz.

Reputační škoda a ztráta důvěry klientů v důsledku veřejně známého porušení pravidel a etických selhání AI. 

Odborná školení pro management a zaměstnance s certifikátem. Zajistěte si certifikované školení o AI gramotnosti a povinnostech – napište na office@arws.cz.

Zákaz uvádění AI systému na trh EU nebo nařízení jeho stažení, což může zničit klíčový produkt nebo službu. 

Zastupování u regulátorů a pomoc při získání potřebných povolení a certifikací. Pro okamžité řešení vaší situace nám napište na office@arws.cz.

Odpovědnost za škodu vůči třetím stranám, kdy porušení AI Actu slouží jako důkaz zavinění v soudním sporu. 

Příprava a revize smluv s dodavateli i odběrateli. Chcete minimalizovat vaše riziko odpovědnosti? Spojte se s námi na office@arws.cz.

 

Řetězec odpovědnosti: Vývojář, dodavatel, nebo vy? Kdo je na řadě?

Odpovědnost v ekosystému AI není lineární. AI Act ji precizně rozděluje mezi různé subjekty v hodnotovém řetězci. Firmy, které se často považují za pouhé „uživatele“, mají ve skutečnosti rozsáhlé povinnosti a mohou nést plnou odpovědnost, pokud je zanedbají. Klíčem k ochraně je přesné pochopení své role a správné smluvní nastavení vztahů s partnery.

AI Act definuje především dvě klíčové role:

  • Poskytovatel (Provider): Subjekt, který vyvíjí AI systém a uvádí ho na trh pod svým jménem nebo ochrannou známkou. Nese hlavní břemeno odpovědnosti za soulad systému s požadavky nařízení, včetně testování, technické dokumentace a řízení rizik.
  • Uživatel/Zavádějící subjekt (Deployer): Jakákoli fyzická nebo právnická osoba, orgán veřejné moci, agentura nebo jiný subjekt, který používá AI systém v rámci své profesní činnosti. Toto je role, ve které se nachází většina našich klientů – například banka používající AI pro úvěrový scoring nebo výrobní firma pro řízení kvality.

Firmy v roli uživatele (deployera) vysoce rizikové AI mají řadu vlastních, přímých povinností. Pokud je poruší, nemohou se jednoduše vymluvit na poskytovatele a ponesou vlastní odpovědnost. Mezi nejdůležitější povinnosti patří:

  • Používat systém v souladu s návodem k použití dodaným poskytovatelem.
  • Zajistit efektivní a kompetentní lidský dohled nad provozem systému.
  • V rozsahu své kontroly zajistit, že vstupní data používaná pro provoz systému jsou relevantní a dostatečně reprezentativní.
  • Aktivně monitorovat provoz systému a v případě zjištění vážného incidentu nebo rizika neprodleně informovat poskytovatele a příslušné dozorové orgány.
  • Uchovávat automaticky generované provozní záznamy (logy) po dobu minimálně 6 měsíců, pokud nejsou pod kontrolou poskytovatele.
  • V relevantních případech (např. u orgánů veřejné moci) provést před nasazením systému posouzení dopadu na základní práva (FRIA).

Z těchto povinností jasně vyplývá, že smluvní vztah mezi poskytovatelem a uživatelem se stává nejdůležitějším nástrojem řízení rizik. Standardní softwarové licenční smlouvy typu „as is“ (jak stojí a leží) jsou pro AI systémy naprosto nedostatečné a nebezpečné. Uživatel si musí smluvně zajistit, že mu poskytovatel dodá systém, který je v souladu s AI Actem, a poskytne mu veškerou dokumentaci a podporu, aby mohl plnit své vlastní povinnosti. 

V ARROWS vám pomůžeme nastavit interní procesy a revidovat smlouvy s dodavateli tak, aby vaše odpovědnost byla jasně vymezena a minimalizována. Pro revizi vašich smluv nás kontaktujte na office@arws.cz.

Na koho se můžete obrátit?

Když AI poškodí váš byznys: Jak postupovat při vymáhání náhrady škody?

Pokud již škoda vznikla, je třeba jednat rychle, strategicky a s plným pochopením jak technologických, tak právních specifik. Proces vymáhání je komplexní a vyžaduje expertní znalosti, zejména v oblasti IT sporů, které jsou často mezinárodní.

Postup podle českého práva

Základním rámcem pro náhradu škody je český občanský zákoník (§ 2894 a násl.). Jak jsme však již zmínili, jeho aplikace na škody způsobené AI naráží na zásadní překážky, zejména na obtížnost prokázání porušení právní povinnosti (zavinění) a příčinné souvislosti. Jak u soudu prokážete, že finanční ztrátu způsobila konkrétní chyba v samoučícím se algoritmu, a nikoli nepředvídatelný vývoj trhu nebo vaše vlastní špatné zadání?

Nadějnější cestou může být odpovědnost za škodu způsobenou vadou výrobku (§ 2939 o.z.), která je objektivní. Ačkoliv české soudy byly v minulosti zdrženlivé v tom, považovat software za „výrobek“, nová evropská směrnice PLD tuto praxi definitivně mění a dává poškozeným do rukou silnější nástroj. V každém případě je klíčové zajistit důkazy, především technickou dokumentaci a logy, a nechat vypracovat kvalitní znalecký posudek v oboru IT.

Mezinárodní prvek – ARROWS International v akci

Mnoho poskytovatelů AI systémů sídlí v zahraničí, typicky v USA nebo v Irsku. To okamžitě otevírá složité otázky mezinárodního práva soukromého: Který soud je příslušný pro řešení sporu? A jakým právem se bude spor řídit?.

Odpovědi přinášejí evropská nařízení Řím I (pro smluvní závazky) a Řím II (pro mimosmluvní újmu). Ta stanovují kolizní normy pro určení rozhodného práva. Zásadní je, že obě nařízení umožňují stranám, aby si rozhodné právo ve smlouvě samy zvolily. To opět podtrhuje význam pečlivé přípravy smluvní dokumentace, která může předejít nákladným a zdlouhavým sporům o příslušnosti a rozhodném právu.

Díky naší deset let budované síti ARROWS International řešíme spory s mezinárodním prvkem na denní bázi. Máme praktické zkušenosti a dokážeme efektivně zastupovat klienty proti globálním technologickým firmám, ať už sídlí kdekoli. Potřebujete právní pomoc? Kontaktujte nás na office@arws.cz.

Občanskoprávní spory a finanční ztráty

Následující tabulka překládá abstraktní právní rizika do konkrétních byznys scénářů. Ukazuje, jak se chyba AI může projevit přímo ve výsledovce vaší firmy, a nabízí konkrétní právní řešení od ARROWS.

Rizika a sankce

Jak pomáhá ARROWS

Přímé finanční ztráty z chybných analytických predikcí AI, které vedly ke špatným investičním nebo obchodním rozhodnutím. 

Příprava a revize smluv s dodavateli AI pro jasné vymezení odpovědnosti a garancí. Spojte se s námi na office@arws.cz a získejte řešení na míru.

Soudní spory s poškozenými klienty nebo obchodními partnery, jejichž majetek byl poškozen v důsledku selhání vašeho AI systému (např. v logistice, výrobě).

Zastupování u soudů a správních orgánů, včetně sporů s mezinárodním prvkem. Potřebujete právní pomoc v soudním sporu? Kontaktujte nás na office@arws.cz.

Diskriminační rozhodnutí AI v HR (nábor, hodnocení) vedoucí k žalobám od uchazečů či zaměstnanců a pokutám od inspektorátu práce. 

Právní stanoviska a příprava interních HR směrnic, které ochrání před sankcemi a spory. Naši právníci jsou připraveni vám pomoci – napište na office@arws.cz.

Únik citlivých obchodních dat nebo osobních údajů v důsledku bezpečnostní chyby nebo nepředvídatelného chování AI systému.

Zajištění souladu s GDPR a příprava dokumentace, která ochrání před pokutami od ÚOOÚ. Neváhejte se obrátit na naši kancelář – office@arws.cz.

 

ARROWS: Váš strategický partner v právu umělé inteligence

V éře umělé inteligence již nestačí pouze reagovat na vzniklé problémy – je nutné jim aktivně předcházet. Správně nastavená právní strategie není nákladem, ale investicí do bezpečné inovace a udržitelné konkurenční výhody. V ARROWS nejsme jen advokátní kancelář; jsme byznys partner, který rozumí technologiím, právu i vašim obchodním cílům.

Naše zkušenosti z dlouhodobé spolupráce s více než 150 akciovými společnostmi, 250 s.r.o. a 51 obcemi a kraji nám dávají unikátní vhled do potřeb firem všech velikostí. Víme, že v dynamickém světě technologií je čas klíčový, a proto si zakládáme na rychlosti a vysoké kvalitě právních služeb.

Nejsme však jen právníci. Jsme aktivní součástí byznys ekosystému. Rádi propojujeme naše klienty se zajímavými investičními a obchodními příležitostmi a sami si rádi poslechneme vaše podnikatelské nápady. Chápeme, že právo má sloužit byznysu, nikoli ho brzdit.

Svět umělé inteligence přináší obrovské příležitosti, ale také komplexní rizika. Nenechte svou firmu navigovat tímto prostředím bez spolehlivého partnera po boku. Spojte se s námi na office@arws.cz a domluvte si úvodní konzultaci, kde probereme, jak můžeme ochránit a podpořit váš růst v digitální éře.

FAQ – Nejčastější právní dotazy k odpovědnosti za AI

  1. Jaký je první krok, který bychom měli udělat pro zajištění souladu s AI Actem?
    Prvním krokem je provedení interního auditu – identifikujte všechny AI systémy, které používáte, a klasifikujte je podle míry rizika. To vám ukáže, na které systémy se vztahují nejpřísnější povinnosti. Pokud potřebujete pomoci s auditem a klasifikací, kontaktujte nás na office@arws.cz.
  2. Může být za chybu AI odpovědný náš zaměstnanec?
    Vůči třetím stranám odpovídá primárně zaměstnavatel. Vůči zaměstnavateli může zaměstnanec odpovídat za škodu, pokud porušil své povinnosti (např. ignoroval interní směrnici pro používání AI), a to až do výše 4,5násobku svého průměrného výdělku. Pro správné nastavení interních pravidel nás neváhejte kontaktovat na office@arws.cz.
  3. Naše firma sídlí v ČR, ale používáme AI software z USA. Jaká pravidla se na nás vztahují?
    AI Act má tzv. extrateritoriální působnost. Pokud AI systém používáte na trhu EU, vztahuje se na vás i na amerického poskytovatele. Řešení sporů a určení rozhodného práva pak závisí na vaší smlouvě a mezinárodním právu soukromém. Tuto problematiku řešíme denně, pro konzultaci nám napište na office@arws.cz.
  4. Co přesně znamená „vada“ u softwaru podle nové směrnice o odpovědnosti za výrobky?
    Vada znamená, že software neposkytuje bezpečnost, kterou lze oprávněně očekávat. Může jít o bezpečnostní zranitelnost, neschopnost učit se bezpečně, nebo i negativní dopad aktualizací. Posuzuje se to případ od případu. Pokud řešíte podobný problém, obraťte se na nás na office@arws.cz.
  5. Jak můžeme prokázat, že škodu způsobila právě AI dodavatele, a ne naše nesprávné použití?
    Klíčové je uchovávání logů o provozu systému a precizní smluvní ujednání s dodavatelem, které vám zaručuje přístup k potřebné dokumentaci pro případ sporu. Bez toho je dokazování velmi obtížné. S přípravou takových smluv vám rádi pomůžeme, napište na office@arws.cz.
  6. Naše firma vyvíjí vlastní AI. Jsme tedy „poskytovatel“ i „uživatel“ zároveň?
    Ano, v takovém případě na vás dopadají povinnosti obou rolí, které jsou nejkomplexnější. Musíte zajistit soulad systému od jeho návrhu až po jeho interní nasazení a monitoring. Pro komplexní právní poradenství v této oblasti se na nás obraťte na office@arws.cz.

Nechcete tenhle problém řešit sami? Advokátní kanceláři ARROWS věří více než 2000 klientů a jsme oceněni jako Právnická firma roku 2024. Podívejte se ZDE na naše reference a bude nám ctí pomoci vám při řešení vašeho problému. Poptávka je zdarma.