Smart procurement: využití AI v procesu zadávání veřejných zakázek
Využití umělé inteligence (AI) ve veřejných zakázkách a procesech "smart procurement" rychle mění pravidla hry. Slibuje efektivitu, ale přináší i nová právní rizika. V tomto článku zjistíte, jaké konkrétní hrozby plynou z AI Actu, jak předejít pokutám od ÚOHS a jak se proti těmto rizikům efektivně právně chránit.

Potřebujete s tématem poradit? Obraťte se na advokátní kancelář ARROWS na e-mail office@arws.cz nebo telefon +420 245 007 740. Váš dotaz rád zodpoví "JUDr. Jakub Dohnal, Ph.D.,LL.M.", expert na dané téma.
Co je "Smart Procurement" a proč se o něj musí zajímat i vedení firmy?
"Smart procurement" není jen módní pojem. Je to využití moderních technologií, jako je AI a strojové učení, k zefektivnění dříve manuálních nákupních procesů. Nejde však jen o rychlejší zpracování faktur nebo automatizaci objednávek.
Skutečná změna přichází v přechodu od administrativy ke strategii. Pokročilé systémy AI umožňují hloubkovou datovou analýzu, prediktivní řízení rizik dodavatelů a strategickou optimalizaci rozpočtů.
Pro vedení firem to znamená, že se nákup mění z nákladového střediska na nástroj strategické výhody. Právní oddělení přitom nesmí být brzdou, ale partnerem, který rozumí inovacím.
V ARROWS rozumíme obchodním přínosům technologií a denně pomáháme našim klientům tyto inovace zavádět bezpečně a v souladu s právem. Pro právní konzultace, které ochrání vaše inovace a zajistí soulad s legislativou, nám napište na office@arws.cz.
Více o této službě si můžete přečíst ZDE.
Kde všude AI v zadávacím řízení potkáte?
Umělá inteligence již není vzdálenou vizí, ale praktickým nástrojem, jehož využití v ČR aktivně sleduje i Ministerstvo pro místní rozvoj. Ve firmách se s ní setkáte v několika fázích:
Příprava řízení: AI asistenti, jako je například nástroj Qlex, pomáhají právníkům a nákupčím s přípravou zadávací dokumentace nebo s rychlým vyhledáváním v relevantní judikatuře ÚOHS.
Analýza a klasifikace: AI umí analyzovat texty a pomáhá správně klasifikovat předmět zakázky, například přiřazením správného CPV kódu, jak to vidíme u zahraničních systémů typu ProZorro.
Hodnocení a kontrola: Nástroje AI stále častěji revidují smlouvy, analyzují rizika dodavatelů nebo dokonce odhalují podezřelé vzorce v nabídkách, které mohou naznačovat kartelové dohody (tzv. bid-rigging).
FAQ – Právní tipy k AI nástrojům
1. Můžeme použít AI k přípravě zadávací dokumentace?
Ano, nástroje jako Qlex mohou proces zefektivnit. AI ale negarantuje 100% právní soulad. Plnou odpovědnost za obsah dokumentace – například za skrytě diskriminační kritéria – nesete stále vy jako zadavatel. Pro finální revizi dokumentace připravené s pomocí AI nás kontaktujte na office@arws.cz.
2. Může AI za nás zcela automaticky vyhodnotit nabídky dodavatelů?
Toto je extrémně riziková oblast. Pokud AI provádí hodnocení, musíte být schopni kdykoli 100% doložit, jak k rozhodnutí došla. U tzv. "black-box" systémů je to nemožné a hrozí porušení zásady transparentnosti. Naši právníci jsou připraveni vám pomoci nastavit auditovatelné procesy pro AI hodnocení – napište na office@arws.cz.
Skrytá hrozba: Jak může AI porušit zásady zákona o veřejných zakázkách (ZZVZ)
I když jako soukromá korporace nejste vždy klasickým veřejným zadavatelem, při čerpání dotací nebo v regulovaných sektorech se musíte často řídit Zákonem o zadávání veřejných zakázek (ZZVZ). Ten stojí na základních zásadách: transparentnosti, přiměřenosti, rovném zacházení a zákazu diskriminace.
A právě tyto zásady může AI snadno, i když nezáměrně, porušit.
Zákaz diskriminace vs. Algoritmická zaujatost
Problémem je tzv. algoritmická zaujatost (algorithmic bias). AI se učí na historických datech. Pokud tato data obsahují skryté lidské předsudky (např. v minulosti byli preferováni dodavatelé z určitého regionu), AI se tyto vzorce naučí a bude je automaticky replikovat a dokonce zesilovat.
Vzniká tak "skrytá diskriminace", kterou ÚOHS pravidelně trestá. Podle judikatury přitom stačí i pouhá možnost, že nastavení kritérií (nebo algoritmu) mohlo potenciální uchazeče odradit.
Zásada transparentnosti vs. Problém "černé skříňky"
Druhým rizikem je "black box" neboli "černá skříňka". Mnoho pokročilých AI systémů nedokáže srozumitelně vysvětlit, proč dospělo ke konkrétnímu rozhodnutí či skóre.
To je ale v přímém rozporu s ZZVZ. Praxe ÚOHS i soudů vyžaduje, aby byl proces hodnocení plně transparentní, zdokumentovaný a přezkoumatelný. Zadavatel musí být schopen své hodnocení podrobně odůvodnit.
Pokud firma použije AI, kterou nedokáže vysvětlit, nemá v případném sporu před ÚOHS žádnou právní obhajobu. Důkazní břemeno o transparentnosti je vždy na vás.
Pokuta od ÚOHS za netransparentní hodnocení nabídek je reálnou hrozbou. ARROWS nabízí právní konzultace a přípravu podkladů, které chrání před pokutami a kontrolami ÚOHS. Pomůžeme vám nastavit procesy tak, aby byly auditovatelné a obhajitelné. Pro okamžité řešení vaší situace nám napište na office@arws.cz.
Hlavní hrozby podle ZZVZ a ÚOHS
Následující tabulka shrnuje nejčastější rizika při střetu AI a ZZVZ a ukazuje, jak vám můžeme pomoci je řídit.
|
Rizika a sankce |
Jak pomáhá ARROWS |
|
Pokuta od ÚOHS za skrytou diskriminaci. AI systém se naučí předsudkům z vašich dat a diskriminuje dodavatele. Porušení § 6 ZZVZ. Riziko: Pokuty, zrušení řízení. |
Právní audit AI systému (AI Audit). Prověříme váš systém na riziko algoritmické zaujatosti a připravíme právní stanovisko k jeho obhajitelnosti. Chcete prověřit své AI nástroje? Napište na office@arws.cz. |
|
Pokuta od ÚOHS za netransparentnost. Použití "black-box" algoritmu, jehož rozhodnutí nelze přezkoumat. Porušení zásady transparentnosti. Riziko: Vysoké pokuty, neplatnost řízení. |
Příprava zadávací dokumentace. Připravíme nebo zrevidujeme vaši dokumentaci tak, aby byl proces hodnocení (i s využitím AI) plně transparentní a přezkoumatelný. |
|
Napadení řízení vyloučeným uchazečem. Dodavatel napadne své vyloučení s argumentem, že AI hodnotila chybě, diskriminačně nebo netransparentně. Riziko: Dlouhé soudní spory, náhrada škody, zdržení projektu. |
Zastupování u soudů a správních orgánů. Máme rozsáhlé zkušenosti se zastupováním klientů před ÚOHS i správními soudy ve sporech o veřejné zakázky. Naši právníci jsou připraveni vám pomoci – napište na office@arws.cz. |
Nová pravidla hry: AI Act a jeho dopad na váš nákup
Kromě českého ZZVZ vstupuje do hry nová, ještě komplexnější právní vrstva. Je jí Nařízení EU o umělé inteligenci, známé jako AI Act. Toto nařízení, které postupně vstupuje v platnost od roku 2024, zavádí první komplexní právní rámec pro AI na světě.
AI Act dělí systémy podle míry rizika. Klíčovou kategorií jsou "vysoce rizikové systémy AI" (High-Risk AI Systems).
A právě sem spadá mnoho nástrojů pro smart procurement. Příloha III nařízení označuje za vysoce rizikové mimo jiné systémy pro "přístup k... základním veřejným službám a dávkám". Veřejná zakázka je přitom v podstatě procesem posouzení způsobilosti pro získání veřejného kontraktu.
Pokud vaše firma takový systém používá (jako provozovatel), AI Act na vás klade nové, přísné povinnosti. Musíte zajistit robustní systémy řízení rizik, dbát na vysokou kvalitu trénovacích dat (aby nebyla diskriminační), zajistit detailní protokolování činnosti (pro účely auditu) a především implementovat efektivní lidský dohled (human oversight).
Pro compliance oddělení to představuje obrovskou novou zátěž. ARROWS poskytuje komplexní právní audit a klasifikaci vašich AI systémů podle AI Actu. Pomůžeme vám identifikovat, které vaše nástroje jsou "vysoce rizikové".
Připravíme pro vás také odborná školení pro zaměstnance či vedení včetně certifikátu, aby váš management rozuměl novým povinnostem. Spojte se s námi na office@arws.cz a získejte právní řešení na míru.
Kdo nese odpovědnost, když AI udělá chybu?
Toto je klíčová otázka pro každého ředitele. Jsme svědky právního paradoxu, tzv. "tlaku na odpovědnost". Na jedné straně soudy (zatím především v USA) začínají dovozovat odpovědnost přímo u dodavatele AI za diskriminační výsledky jeho nástroje.
Na straně druhé se titíž dodavatelé ve svých smlouvách snaží veškerou odpovědnost přenést na uživatele – tedy na vaši firmu.
Pro vás to znamená, že jste "chyceni uprostřed". Hrozí vám, že budete žalováni (např. vyloučeným dodavatelem) za chybu "černé skříňky", kterou vám dodal třetí subjekt. Když se obrátíte na dodavatele AI, ten jen poukáže na smlouvu, která ho z odpovědnosti vyvazuje.
Tím ale rizika nekončí. Pokud AI trénujete na datech z nabídek, můžete snadno porušit i GDPR, protože tyto materiály často obsahují osobní údaje zaměstnanců dodavatele.
Toto je čistě smluvní problém, kterému se dá předejít. Klíčem je příprava nebo revize smluv s dodavateli AI. Naši právníci zajistí, aby odpovědnost byla jasně vymezena a aby vás dodavatel nenechal "na holičkách". Potřebujete připravit nebo zrevidovat smlouvu na dodávku AI? Kontaktujte nás na office@arws.cz.
FAQ – Právní tipy k odpovědnosti
1. Co když náš dodavatel AI sídlí mimo EU?
Právní riziko se zvyšuje. Vymáhání odpovědnosti je složitější a musíte řešit přeshraniční předávání dat podle GDPR. AI Act se navíc vztahuje na všechny systémy uvedené na trh v EU, bez ohledu na sídlo dodavatele. Pro řešení mezinárodních smluv se obraťte na náš tým na office@arws.cz.
2. Co znamená "vendor lock-in" a jak souvisí s AI?
Jedná se o situaci, kdy se stanete technologicky zcela závislými na dodavateli "černé skříňky". Pokud svá data a procesy svěříte neprůhlednému algoritmu, nemůžete přejít k jinému dodavateli bez obrovských nákladů. Tomu předcházíme ve smlouvách požadavky na interoperabilitu. Chcete se vyhnout závislosti na dodavateli? Napište nám na office@arws.cz.
Nákup AI s mezinárodním prvkem: Role ARROWS International
Nákup AI softwaru je globální disciplína. Vaše firma velmi pravděpodobně nakupuje nástroje od globálních poskytovatelů se sídlem v USA nebo jinde ve světě. Přestože Evropská komise podporuje přeshraniční spolupráci, právní prostředí se komplikuje různými národními regulacemi.
Zde je klíčová naše mezinárodní přítomnost. Díky deset let budované síti ARROWS International prakticky denně řešíme problematiku s mezinárodním prvkem.
Ať už jde o vyjednávání licenčních podmínek s americkým dodavatelem softwaru, zajištění souladu s AI Actem a GDPR při hostování dat v cloudu, nebo řešení sporů v jiné jurisdikci, náš mezinárodní tým je připraven vám poskytnout plnou právní podporu. Pro právní pomoc s mezinárodním přesahem nás kontaktujte na office@arws.cz.
Smluvní a implementační pasti
Největší rizika často nevznikají u ÚOHS, ale uvnitř firmy nebo ve špatně nastavené smlouvě s dodavatelem.
|
Rizika a sankce |
Jak pomáhá ARROWS |
|
Nejasná odpovědnost ve smlouvě. Dodavatel AI se ve smlouvě zříká odpovědnosti za chyby a diskriminační výstupy. Riziko: Zůstanete s plnou právní i finanční odpovědností. |
Příprava a revize smluv. Využíváme mezinárodní standardy (jako jsou Vzorové smluvní doložky EU pro AI) k vyjednání férové odpovědnosti dodavatele. |
|
Porušení GDPR. Trénování AI na osobních údajích (např. z nabídek) bez právního titulu nebo Posouzení vlivu (DPIA). Riziko: Pokuta od ÚOOÚ, žaloby subjektů údajů. |
GDPR a AI compliance audit. Zpracujeme právní analýzu (DPIA) a nastavíme procesy tak, aby byly v souladu s GDPR i AI Actem. Chcete mít jistotu v GDPR? Kontaktujte nás na office@arws.cz. |
|
Nekontrolované používání AI ("Shadow IT"). Zaměstnanci používají různé AI nástroje bez vědomí vedení a vkládají do nich citlivá data firmy. Riziko: Únik obchodního tajemství, porušení mlčenlivosti. |
Vyhotovení interních směrnic. Připravíme jasnou a praktickou interní směrnici pro bezpečné používání AI ve vaší firmě, která definuje schválené nástroje a zakázané postupy. Potřebujete nastavit interní pravidla pro AI? Napište na office@arws.cz. |
|
Nákup systému bez "lidského dohledu". Spoléhání se na plně automatizované rozhodování, přestože AI Act u vysoce rizikových systémů vyžaduje lidskou kontrolu. Riziko: Systém je nelegální, právní odpovědnost managementu. |
Odborná školení pro zaměstnance či vedení. Vysvětlíme managementu jeho nové povinnosti a připravíme právní stanovisko k legálnosti nákupu daného AI řešení. |
Jak bezpečně nakupovat a používat AI: Návod pro vedení firem
Zavedení AI do nákupu nemusí být právní minové pole. Stačí dodržet několik praktických kroků, které vám pomohou proces řídit.
Krok 1: Proveďte interní audit. Zmapujte, jaké AI nástroje už ve firmě reálně používáte, včetně tzv. "stínového IT", které si zaměstnanci našli sami.
Krok 2: Vytvořte jasná pravidla. Základem je interní směrnice pro používání AI. Musí definovat, které nástroje jsou schválené, jaká data do nich zaměstnanci nesmí vkládat a kdo nese odpovědnost.
Krok 3: Důkladně prověřte dodavatele. Než AI nástroj koupíte, ptejte se: Jak zajišťujete nediskriminaci? Kde budou uložena naše data? Jaká je vaše smluvní odpovědnost za chyby algoritmu?
Krok 4: Ošetřete smlouvy. Nespokojte se se standardními podmínkami dodavatele. Evropská komise již dokonce publikovala Vzorové smluvní doložky (MCC-AI), které představují zlatý standard, jenž experti ARROWS znají a implementují.
Závěr: AI jako strategická výhoda, nikoli právní noční můra
Umělá inteligence je nezbytná pro udržení konkurenceschopnosti na stále složitějším trhu. Otázka dnes již nezní "jestli" AI používat, ale "jak" ji používat bezpečně a v souladu se zákonem.
Právní rizika plynoucí z ZZVZ, AI Actu, GDPR a smluvní odpovědnosti jsou reálná. Jsou však stoprocentně řiditelná, pokud k nim přistoupíte proaktivně a s expertním právním vedením.
Nečekejte na první problém, kontrolu z ÚOHS nebo na žalobu od nespokojeného dodavatele. AI přináší inovace, ale i nové právní výzvy. Náš tým expertů v ARROWS je připraven vám pomoci nastavit bezpečný a efektivní rámec pro váš smart procurement. Neváhejte se obrátit na naši kancelář – office@arws.cz – a domluvte si úvodní konzultaci k vaší situaci.
FAQ – Nejčastější právní dotazy k AI ve veřejných zakázkách
1. Je náš nový software pro hodnocení dodavatelů "vysoce rizikový" dle AI Actu?
Velmi pravděpodobně ano. AI systémy používané k "hodnocení způsobilosti" osob pro "veřejné služby nebo dávky" (což zahrnuje i veřejné kontrakty) spadají dle Přílohy III AI Actu do kategorie vysoce rizikových. To s sebou nese přísné povinnosti, včetně lidského dohledu. Pokud řešíte klasifikaci vašeho AI, kontaktujte nás na office@arws.cz.
2. Co přesně znamená "black-box" (černá skříňka) a proč je to u zakázek problém?
Jde o AI systém, u kterého nelze spolehlivě vysvětlit, jak dospěl ke svému rozhodnutí. To je v přímém rozporu se zásadou transparentnosti ZZVZ, která vyžaduje plně přezkoumatelné a odůvodněné hodnocení. Pro posouzení transparentnosti vašich procesů nám napište na office@arws.cz.
3. Může nás ÚOHS pokutovat za diskriminaci, i když ji "způsobila" AI?
Jednoznačně ano. Jako zadavatel nesete plnou odpovědnost za nástroje, které používáte. Pokud váš AI nástroj diskriminuje (i nezáměrně), jedná se o porušení zákona z vaší strany, za které hrozí sankce. Pokud řešíte hrozbu kontroly ÚOHS, kontaktujte nás na office@arws.cz.
4. Jaký je rozdíl mezi AI Actem a GDPR při nákupu AI?
Zjednodušeně: GDPR chrání osobní údaje, které AI může zpracovávat. AI Act reguluje bezpečnost, transparentnost a spolehlivost samotného AI systému jako produktu. Tyto regulace platí souběžně a musíte splnit obě. Pro komplexní compliance audit (GDPR + AI Act) nám napište na office@arws.cz.
5. Proč potřebujeme interní směrnici pro používání AI?
Protože vaši zaměstnanci již AI pravděpodobně používají ("shadow IT"). Bez směrnice riskujete únik citlivých dat, obchodního tajemství a porušení compliance. Směrnice nastavuje jasná a bezpečná pravidla. Pro přípravu interní směrnice na míru nás kontaktujte na office@arws.cz.
6. Jak ve smlouvě ošetřit odpovědnost dodavatele AI?
Smlouva musí jasně definovat odpovědnost dodavatele za škody způsobené chybou AI, garance za kvalitu dat, práva na audit algoritmu a povinnosti součinnosti při kontrole. Není bezpečné spoléhat na standardní podmínky dodavatele. Pokud řešíte smlouvu s dodavatelem AI, kontaktujte nás na office@arws.cz.
Nechcete tenhle problém řešit sami? Advokátní kanceláři ARROWS věří více než 2000 klientů a jsme oceněni jako Právnická firma roku 2024. Podívejte se ZDE na naše reference a bude nám ctí pomoci vám při řešení vašeho problému. Poptávka je zdarma.