Generativní AI v taktickém plánování a právní dohled nad algoritmy
Generativní AI se stala součástí střednědobého plánování, kde algoritmy generují doporučení pro operační rozhodování. Technologie zrychluje procesy, ale realita roku 2026 přináší právní složitosti. Dohled nad těmito systémy je nyní klíčovým tématem pro právníky a vedení firem, protože nesprávné nastavení může vést k sankcím.

Obsah článku
- Právní rámec: Co se v Česku a Evropě změnilo
- Rizika a sankce v praxi
- Jak funguje taktické plánování a kde se do něj dostává AI
- Audit a kontinuální monitoring – co se od vás čeká
- Transparentnost a vysvětlitelnost – problém „černé skříňky“
- Odpovědnost a role statutárních orgánů
- Praktické doporučení: Jak nastavit compliance efektivně
- Zákonná a regulační povinnost: EU AI Act a GDPR
Rychlé shrnutí
- Generativní AI v taktickém plánování přináší výrazná operační rizika – od modelového zneužití dat po diskriminační rozhodování, která mohou vést k pokutám v řádech desítek milionů korun a právnímu postihu.
- Sektorové předpisy – kladou na firmy povinnost zajistit transparentnost, auditovatelnost a lidský dohled nad rizikovými algoritmy.
- Bez řádné compliance struktury a kontinuálního monitoringu algoritmů riskují společnosti, že jejich „inteligentní“ plánování se stane důkazem porušování zákona v soudním sporu nebo při regulační kontrole.
Co je to generativní AI v taktickém plánování a proč ji firmy používají
Generativní AI aplikace dnes běžně zpracovávají obrovské objemy tržních, provozních a finančních dat, aby doporučovaly krátkodobá operační řešení. Firmy je nasazují proto, že umožňují týmům zrychlit výběr priorit, identifikovat anomálie v prodeji, optimalizovat alokaci zdrojů nebo předpovídat výpadky projektů. Taktické plánování pracuje s časovým horizontem týdnů až měsíců a vyžaduje flexibilitu.
Algoritmy nejsou pouhé kalkulačky – jsou to rozhodovací či podpůrné systémy, které ovlivňují zaměstnance, obchodní partnery a zákazníky. Problém spočívá v tom, že zatímco vedení oceňuje rychlost a přesnost těchto nástrojů, právní a etické následky jejich používání zůstávají dlouho neviditelné.
Jejich skrytá zkreslení (bias), neauditované zdroje dat nebo nedostatečná transparentnost se velmi často objeví až v okamžiku, kdy dojde k problému. A ten problém může společnost vyjít velmi draho.
Související otázky ke generativní AI
1. Proč není generativní AI v taktickém plánování automaticky legální?
Legálnost není otázkou samotné technologie, ale souladu s předpisy o ochraně osobních údajů (GDPR), zákazem diskriminace (antidiskriminační zákon), pravidly hospodářské soutěže a Nařízením o AI (AI Act). Algoritmus sám o sobě není ani legální, ani nelegální – právně relevantní je to, jak ho firma používá, na jakých datech byl natrénován a zda má nad jeho činností řádný dohled.
2. Kdo je odpovědný za chyby algoritmu v taktickém plánování?
Odpovědnost nese společnost (právnická osoba) a statutární orgány, které zanedbaly péči řádného hospodáře při nasazení technologie. V právním smyslu algoritmus nemá právní subjektivitu a nenese odpovědnost. Podnik se nemůže vymluvit, že „to udělal algoritmus“ – soudy ani dozorové orgány tento argument neakceptují.
3. Jaké jsou nejčastější příklady chyb?
Nejčastěji se jedná o diskriminační rozhodování (např. algoritmus upřednostňuje při přidělování projektů vybrané skupiny na základě pohlaví či věku), zneužití osobních údajů bez právního titulu nebo vytváření profilů fyzických osob v rozporu s článkem 22 GDPR (automatizované individuální rozhodování).
Právní rámec: Co se v Česku a Evropě změnilo
V roce 2026 se nacházíme v plné účinnosti zásadních částí evropského Nařízení o umělé inteligenci (AI Act). Po přechodných obdobích jsou nyní závazná pravidla pro zakázané praktiky a pravidla pro modely AI pro obecné účely (GPAI). Od srpna 2026 plně dopadají povinnosti i na většinu vysoce rizikových AI systémů uvedených v příloze III nařízení.
Pokud váš algoritmus rozhoduje o zaměstnání, přístupu k základním službám nebo kritické infrastruktuře, spadá do kategorie vysoce rizikové AI a podléhá přísné regulaci. V praxi to pro taktické plánování znamená, že systémy s dopadem na řízení pracovníků (např. přidělování úkolů, monitoring výkonu) musí splňovat vysoké nároky na bezpečnost a lidská práva.
Česká republika adaptovala svůj právní řád na toto přímo použitelné unijní nařízení (zákon o umělé inteligenci a změnové zákony), přičemž dozorovou pravomoc sdílejí podle typu systému příslušné orgány (např. NÚKIB, ÚOOÚ), koordinované na vládní úrovni. Ministerstvo průmyslu a obchodu nadále podporuje tzv. regulatory sandbox – testovací prostředí pro bezpečný vývoj.
Vedle AI Actu zůstává v platnosti GDPR, které reguluje jakékoliv zpracování osobních údajů v rámci AI, a antidiskriminační zákon. Všechny požadavky EU musí plnit firmy, které uvádějí systémy na trh v EU nebo je zde provozují.
Související otázky k právnímu rámci
1. Musím si nyní všechny algoritmy přizpůsobovat EU AI Actu, i když jsem malá firma?
Ano, nařízení dopadá na všechny subjekty bez ohledu na velikost, pokud využívají nebo poskytují AI systémy v regulovaných oblastech. Pro malé a střední podniky existují určitá procesní ulehčení, ale nikoliv výjimky z povinnosti zajistit bezpečnost a základní práva.
2. Jaké jsou sankce za porušení AI Act?
Sankce jsou odstupňované podle závažnosti porušení. Mohou dosáhnout až 35 milionů EUR nebo 7 % celosvětového ročního obratu (podle toho, co je vyšší) za použití zakázaných praktik AI. Za porušení povinností u vysoce rizikových systémů hrozí pokuty až 15 milionů EUR nebo 3 % obratu.
3. Jaké nové povinnosti přináší kombinace GDPR a AI Actu?
Povinnost provést posouzení vlivu na ochranu osobních údajů (DPIA), zdokumentovat původ trénovacích dat, zajistit transparentnost (člověk musí vědět, že interaguje s AI) a v případě automatizovaného rozhodování zajistit právo na lidský přezkum.
Rizika a sankce v praxi
Pojďme být konkrétní. Co se může stát, když vaše generativní AI v taktickém plánování není řádně ošetřena?
|
Rizika a sankce |
Jak pomáhá ARROWS (office@arws.cz) |
|
Diskriminační rozhodování: Algoritmus systematicky znevýhodňuje určité skupiny osob (např. věk, etnický původ, pohlaví) při přidělování práce či odměn – vede k porušení antidiskriminačního zákona a AI Actu. |
Audit algoritmu a compliance check: Právníci z ARROWS advokátní kanceláře provádějí právní prověrku nastavení systémů, aby identifikovali rizika diskriminace. |
|
Neoprávněné zpracování osobních údajů: Algoritmus je trénován na datech bez řádného právního základu či v rozporu s účelem – to vede k pokutám dle GDPR (až 20 mil. EUR nebo 4 % obratu) a zákazu zpracování. |
Právní posouzení zpracování dat a příprava DPIA: ARROWS advokátní kancelář zajistí, že data jsou zpracovávána legálně, a připraví povinné posouzení vlivu na ochranu osobních údajů (DPIA). |
|
Nedostatečná transparentnost pro dotčené osoby: Algoritmus rozhoduje o důležitých věcech, ale nikdo neví proč – porušuje čl. 13 a 14 GDPR a čl. 13 AI Actu. |
Příprava dokumentace a informačních doložek: Experti z ARROWS advokátní kanceláře vám pomohou vytvořit dokumentaci a informační texty, které splňují požadavky na transparentnost vůči zaměstnancům a klientům. |
|
Chybějící systém řízení rizik a monitoring: Regulátoři zjistí, že u vysoce rizikové AI nemáte zavedený systém řízení rizik (Risk Management System) – závažné porušení AI Actu. |
Rizikový management a governance: ARROWS advokátní kancelář vám pomůže nastavit interní směrnice a systém pravidelných kontrol, aby byly splněny požadavky nařízení. |
|
Prohra v soudním sporu o náhradu škody: Pokud váš algoritmus způsobí škodu a soud zjistí absenci compliance nebo porušení prevenční povinnosti (§ 2900 občanského zákoníku), odpovídáte za škodu v plném rozsahu. |
Zastoupení v soudním řízení a obrana: Právníci z ARROWS advokátní kanceláře vás zastupují v řízeních, kdy je algoritmus v ohnisku sporu, a připravují procesní strategii. |
Jak funguje taktické plánování a kde se do něj dostává AI
Taktické plánování tradičně pracuje s měsíčním nebo čtvrtletním časovým horizontem. Manažeři shromažďují data o nabídce, poptávce, dostupnosti zdrojů a na základě zkušenosti a analýz přijímají rozhodnutí o prioritizaci projektů, alokaci pracovní síly a nákupu materiálu.
Když do tohoto procesu vstoupí generativní AI, dynamika se mění: algoritmus analyzuje tisíce historických dat, odhaluje vzorce, které člověk přehlédne, a podává doporučení. Týmy se pak soustředí na interpretaci těchto výstupů a jejich realizaci. Zdá se to jednoduché – a v ideálním případě to tak i je.
Představte si situaci: algoritmus trénovaný na historických datech o výkonu týmů začne preferovat určité skupiny zaměstnanců pro lukrativní projekty. Může to být tím, že trénovací data obsahují skryté zkreslení (tzv. bias) – například v minulosti byly projekty přidělovány primárně mužům, což algoritmus vyhodnotil jako žádoucí vzorec. Výsledek? Systém diskriminuje a vy se ocitáte v rozporu se zákoníkem práce.
Právníci z ARROWS advokátní kanceláře řeší právě tyto skryté problémy a pracují s firmami na nastavení kontrolních mechanismů, aby se podobným situacím předešlo. Máte-li podobné obavy, napište na office@arws.cz.
Související otázky k taktickému plánování
1. Proč je taktické plánování s AI rizikovější?
Protože AI zvyšuje rychlost a rozsah potenciálních chyb. Chybu, kterou by manažer udělal jednou, může automatizovaný systém replikovat v masovém měřítku. Odpovědnost za škodu se tím násobí.
2. Jak poznám, jestli můj algoritmus porušuje práva zaměstnanců?
Signálem mohou být stížnosti na neprůhlednost hodnocení nebo statistické odchylky v odměňování či kariérním postupu určitých skupin. Právně jistotu získáte až provedením auditu (tzv. bias audit).
3. Je povinné auditovat algoritmus před nasazením?
U vysoce rizikových AI systémů (např. v HR) je posouzení shody (conformity assessment) před uvedením na trh nebo do provozu povinné dle AI Actu. U ostatních systémů jde o doporučenou praxi v rámci prevence škod.
Audit a kontinuální monitoring – co se od vás čeká
Soulad s předpisy (compliance) není jednorázový úkon. Chování algoritmů se může měnit v závislosti na nových datech. Pokud se změní struktura trhu nebo procesy v podniku, může dojít k posunu v přesnosti modelu (tzv. model drift), a původně korektní doporučení se mohou stát chybnými či nezákonnými.
Regulátoři a soudy v roce 2026 očekávají, že firmy mají:
- Zdokumentovaný proces kontroly – jasná pravidla, jak a kdy se systém testuje a kdo je za testování odpovědný.
- Kontinuální monitoring po uvedení na trh – povinnost sledovat systém po celou dobu jeho životního cyklu, aby byly včas odhaleny anomálie.
- Audit trail (protokolování) – automatické zaznamenávání událostí (logů), které umožní zpětně dohledat příčinu rozhodnutí.
- Osoby odpovědné za dohled – musí být určeny fyzické osoby s potřebnou kvalifikací a pravomocí zasáhnout do chování systému.
Právníci a specialisté z ARROWS advokátní kanceláře vám pomohou nastavit takový monitoring v souladu s požadavky AI Actu a norem ISO/IEC 42001. Obraťte se na office@arws.cz.
Transparentnost a vysvětlitelnost – problém „černé skříňky“
Jedním z pilířů AI regulace je požadavek na transparentnost. Uživatelé a dotčené osoby musí vědět, že jednají s AI, a v případě vysoce rizikových systémů musí být fungování systému dostatečně transparentní, aby uživatelé mohli interpretovat jeho výstupy.
Firmy musí být schopny poskytnout smysluplné vysvětlení logiky rozhodování, protože argument výpočtu algoritmem v pracovněprávních vztazích neobstojí. V praxi to znamená, že právníci ve spolupráci s IT musí ověřit, zda je systém schopen generovat vysvětlitelné výstupy (XAI) nebo zda existují doplňkové procesy lidského přezkumu.
Odborníci z ARROWS advokátní kanceláře doporučují zaměřit se na transparentnost procesu: zdokumentovat návrh, data a testování. Problémem zůstává tzv. „black box“ efekt u neuronových sítí, kde není vždy zřejmé, jak systém k výsledku dospěl.
Související otázky k transparentnosti
1. Musí být vnitřní fungování algoritmu 100% vysvětlitelné?
AI Act vyžaduje takovou míru transparentnosti, která umožní uživatelům interpretovat výstupy a používat systém vhodně. Nejde o odhalení zdrojového kódu, ale o pochopení logiky fungování a limitů systému.
2. Jak obhájit „black box“ algoritmus?
Důrazem na důkladné testování, validaci accuracy (přesnosti), robustnosti a kybernetické bezpečnosti, a především zajištěním lidského dohledu, který finální rozhodnutí kontroluje.
3. Co je to human-in-the-loop?
Jde o model zapojení člověka, kdy AI slouží jako podpora, ale konečné rozhodnutí (např. o přijetí zaměstnance) činí člověk. Dle AI Actu musí mít tento člověk pravomoc rozhodnutí AI ignorovat nebo zvrátit.
Odpovědnost a role statutárních orgánů
Zásadní otázka pro management: kdo nese odpovědnost? Odpověď je jednoznačná: právnická osoba a její statutární orgán. Členové představenstva či jednatelé mají povinnost jednat s péčí řádného hospodáře. To zahrnuje i povinnost zajistit, aby firma při využívání nových technologií neporušovala zákony.
Pokud se zjistí, že společnost nasadila rizikový AI systém bez odpovídající governance a způsobila tím škodu, může to být považováno za porušení péče řádného hospodáře. Důsledkem může být i osobní odpovědnost členů vedení.
Proto společnosti zavádějí AI Governance – rámce řízení, které zajišťují přehled o používaných systémech, jejich rizikovosti a souladu s předpisy. ARROWS advokátní kancelář pomáhá při vytváření těchto struktur, včetně přípravy interních směrnic a školení managementu. Chcete-li diskutovat o governance ve vaší organizaci, napište na office@arws.cz.
Praktické doporučení: Jak nastavit compliance efektivně
Nemusíte být experty na datovou vědu, abyste zajistili právní soulad. Základem je procesní nastavení, které začíná inventarizací AI systémů a jejich klasifikací dle rizika. Pro vysoce rizikové systémy je nutné zajistit technickou dokumentaci a popis trénovacích dat.
Související otázky k AI systémům
1. Musím mít pověřence pro AI?
AI Act přímo funkci "pověřence pro AI" nezavádí (na rozdíl od DPO u GDPR), ale vyžaduje zajištění lidského dohledu a compliance. V praxi tuto agendu často přebírá DPO, IT ředitel nebo právní oddělení.
2. Jak dlouho trvá nastavení systému?
U středního podniku trvá základní audit a nastavení procesů obvykle 3 až 6 měsíců v závislosti na množství a rizikovosti používaných systémů.
3. Je to drahé?
Náklady na prevenci jsou zlomkem potenciálních sankcí (které mohou jít do milionů eur) a reputačních škod. Jde o investici do bezpečnosti a udržitelnosti podnikání.
Jak regulátoři a soudy posuzují AI compliance
Regulátoři a soudy nepožadují dokonalost, ale prokazatelnou snahu a péči. Klíčové prvky, které budou zkoumat, jsou vědomost o rizicích, existující kontrolní mechanismy a písemné důkazy o testování a školení personálu. Pokud máte kvalitní dokumentaci a auditní stopu, vaše procesní pozice v případném sporu je výrazně silnější. Společnosti, které spoléhají na přístup „black box“ bez dokumentace, v důkazním řízení zpravidla selhávají.
Zákonná a regulační povinnost: EU AI Act a GDPR
Pro přehlednost shrnujeme nejdůležitější požadavky platné v roce 2026. Pro vysoce rizikovou AI (High-Risk AI) platí povinnosti v oblastech jako zaměstnanost, vzdělávání, úvěry či kritická infrastruktura. Povinnosti zahrnují zavedení systému řízení rizik, správu dat, technickou dokumentaci, záznamy (logy), transparentnost a lidský dohled. Dále je nutné zajistit přesnost, robustnost a kybernetickou bezpečnost systémů.
Při využití AI pro zpracování osobních údajů (GDPR) platí zásady zákonnosti, korektnosti a transparentnosti. Zvláštní důraz je kladen na čl. 22 (automatizované individuální rozhodování) a povinnost provést DPIA (posouzení vlivu) před nasazením nových technologií.
Pro prokázání shody se stále častěji využívají harmonizované normy (např. řada ISO/IEC 42001), které poskytují předpoklad shody s požadavky AI Actu. V České republice dohlíží na dodržování těchto pravidel určené dozorové orgány, jejichž metodiky je nutné sledovat.
Nejčastější omyly: Co si firmy myslí, ale není to pravda
Omyl 1: „Algoritmus je objektivní, nemůže diskriminovat.“
Nesprávně. Algoritmus se učí z historických dat, která často obsahují lidské předsudky a společenské nerovnosti. Pokud nejsou data očištěna, AI tyto předsudky nejen převezme, ale může je zesílit.
Omyl 2: „Za chyby odpovídá dodavatel AI softwaru.“
Částečně nesprávně. Jako provozovatel (nasazující subjekt - deployer) nesete odpovědnost za to, jak systém používáte, zda máte zajištěn lidský dohled a zda používáte systém v souladu s návodem. Vůči třetím stranám (zaměstnancům, klientům) odpovídáte primárně vy.
Omyl 3: „Audit stačí udělat jednou na začátku.“
Nesprávně. AI Act i principy řízení rizik vyžadují monitoring po uvedení na trh. Systémy se vyvíjejí a mění se i data, se kterými pracují.
Omyl 4: „AI governance je jen věc IT oddělení.“
Nesprávně. Jde o průřezovou disciplínu zahrnující právo (compliance), HR (dopady na lidi), management (strategie a rizika) a IT.
Tabulka tipů a chyb: Co dělat a čemu se vyhnout
|
Riziko / Chyba |
Řešení s ARROWS (office@arws.cz) |
|
Absence evidence AI systémů: Firma nemá přehled, kde všude AI využívá – v případě kontroly hrozí sankce za netransparentnost. |
AI Inventory a audit: ARROWS advokátní kancelář vám pomůže zmapovat a kategorizovat všechny AI systémy v organizaci. |
|
Nedokumentovaná trénovací data: Nejasný původ dat může vést k porušení autorských práv či GDPR. |
Právní prověrka datových zdrojů: Zajistíme, že máte pro využití dat odpovídající právní titul. |
|
Absence lidského dohledu (Human-in-the-loop): Plně automatizované rozhodování o lidech bez možnosti odvolání je vysoce rizikové. |
Nastavení procesů dohledu: Navrhneme směrnice pro zapojení člověka do rozhodovacího procesu v souladu s AI Actem. |
|
Netestování na bias (zkreslení): Algoritmus diskriminuje, aniž by to firma věděla. |
Konzultace k bias auditu: Spolupracujeme s technickými experty na odhalení rizik diskriminace v modelových výstupech. |
|
Podceňování kyberbezpečnosti: AI systémy jsou náchylné k specifickým útokům (např. data poisoning). |
Compliance s kybernetickými předpisy: Pomůžeme nastavit soulad s požadavky NIS2 a AI Actu na bezpečnost. |
Závěr článku
Generativní AI v taktickém plánování není jen technologickou inovací – je to oblast s významnou právní odpovědností a nároky na corporate governance. Firmy, které k implementaci přistupují proaktivně a v souladu s regulací roku 2026, minimalizují rizika vysokých pokut a soudních sporů. Ty, které regulaci podcení, se vystavují existenčním hrozbám.
Právníci z ARROWS advokátní kanceláře se problematice práva IT a umělé inteligence dlouhodobě věnují a znají aktuální výkladovou praxi. Víme, jak nastavit compliance tak, aby byla udržitelná a nebrzdila váš rozvoj. Kontaktujte nás na office@arws.cz a zajistěte své firmě právní bezpečí v éře AI.
FAQ – Nejčastější právní dotazy k generativní AI v taktickém plánování
1. Jaký je rozdíl mezi interním a externím auditem AI?
Interní audit provádí váš vlastní tým pro účely průběžné kontroly. Externí audit (např. posouzení shody oznámeným subjektem u vysoce rizikových systémů nebo právní audit) provádí nezávislá třetí strana. Externí audit má zpravidla vyšší váhu při prokazování náležité péče před soudem či regulátorem. Kontaktujte nás na office@arws.cz.
2. Je využívání generativní AI v plánování v Česku legální?
Ano, je legální, pokud dodržujete platné předpisy (AI Act, GDPR, autorský zákon, zákoník práce). Nelegální by bylo používání zakázaných praktik AI (např. biometrická kategorizace či sociální skóring) nebo provozování vysoce rizikových systémů bez splnění zákonných povinností.
3. Co hrozí, pokud nemám dokumentaci k AI systému?
Absence technické dokumentace u vysoce rizikové AI je správním deliktem dle AI Actu. Dozorový orgán může uložit pokutu a nařídit stažení systému z provozu, dokud nebude náprava zjednána. Doporučujeme dokumentaci nepodceňovat.
4. Musím mít ve firmě specializovaného právníka na AI?
Není to zákonná povinnost, ale vzhledem ke složitosti regulace je vysoce doporučené mít zajištěnou odbornou právní podporu, ať už interně, nebo externě. Právníci z ARROWS advokátní kanceláře fungují jako externí podpora pro management i interní právní týmy. Napište na office@arws.cz.
5. Jaké nejčastější chyby v AI compliance řešíte?
Často řešíme absenci posouzení rizik (chybějící DPIA a risk assessment), nedostatečně ošetřené smlouvy s dodavateli AI řešení a chybějící interní směrnice pro zaměstnance, kteří s AI pracují.
6. Jak často by měl být algoritmus kontrolován?
Frekvence závisí na míře rizika a dynamice změn dat. U vysoce rizikových systémů je nutný kontinuální monitoring a pravidelné přezkumy (např. čtvrtletně nebo při každé významné změně). U méně rizikových systémů doporučujeme alespoň roční revizi.
Upozornění: Informace obsažené v tomto článku mají pouze obecný informativní charakter a slouží k základní orientaci v problematice dle právního stavu k roku 2026. Ačkoliv dbáme na maximální přesnost obsahu, právní předpisy a jejich výklad se v čase vyvíjejí. Jsme ARROWS advokátní kancelář, subjekt zapsaný u České advokátní komory (náš orgán dohledu), a pro maximální bezpečí klientů jsme pojištěni pro případ profesní odpovědnosti s limitem 400.000.000 Kč. Pro ověření aktuálního znění předpisů a jejich aplikace na vaši konkrétní situaci je nezbytné kontaktovat přímo ARROWS advokátní kancelář (office@arws.cz). Neneseme odpovědnost za případné škody vzniklé samostatným užitím informací z tohoto článku bez předchozí individuální právní konzultace.
Čtěte také
- Elektronická válka a AI: Právní limity rušení a klamání
- Integrace satelitních dat a AI pod vojenským dohledem EU/NATO
- Kybernetická bezpečnost, hackování dronů a odpovědnost za škodu
- Autonomní drony v městském prostředí a ochrana civilistů
- Digitální kontrolní systémy a senzory úniků: Jak se mění přístup inspekcí
- ARROWS: AI používáme jako standard. Rychleji, přesněji, s odpovědností právníků
- Právníci z ARROWS pomohli propojit svět technologií a obchodu
- Precizní obhajoba ARROWS zastavila trestní stíhání pro údajné zneužití know-how
- Mgr. Petr Hanzel, LL.M.
- IMPLEMENTACE UMĚLÉ INTELIGENCE (AI)