Umělá inteligence v HR:

Praktický průvodce pro české firmy od právníků

4.3.2025

Digitalizace a nástup umělé inteligence (AI) zásadně proměňují oblast řízení lidských zdrojů. AI dnes dokáže zrychlit administrativu, pomoci s náborem i zefektivnit školení zaměstnanců. Podle nedávného průzkumu podporuje využití AI polovina českých společností – nejčastěji právě v administrativě, personalistice a marketingu​. Firmy od AI očekávají především automatizaci opakujících se úkolů a rychlejší zpracování dat, zároveň ale vnímají výzvy jako zajištění bezpečnosti dat a nedostatek kvalifikovaných odborníků. Jen 14 % firem plánuje AI nasadit ve velkém, třetina je otevřená cílenému využití v konkrétních oblastech a téměř polovina zatím nemá jasný postoj​. I to ukazuje, že AI v HR je na vzestupu, ale mnoho podniků teprve zvažuje rizika a přínosy. Následující článek proto nabízí praktického průvodce: představíme konkrétní možnosti využití AI v HR, upozorníme na právní rizika (od ochrany osobních údajů po diskriminaci) a dáme doporučení, jak v české firmě AI eticky a bezpečně zavést.

Autor článku: ARROWS advokátní kancelář (JUDr. Jakub Dohnal, Ph.D., LL.M., office@arws.cz, +420 245 007 740)

Konkrétní oblasti využití AI v HR

AI proniká do různých částí životního cyklu zaměstnanců – od náboru po rozvoj. Níže popisujeme nejčastější oblasti, kde může personalistům pomoci:

Rekrutace a výběr zaměstnanců

Nábor nových lidí je pro mnoho firem jednou z prvních oblastí, kde AI nasazují.

Automatizovaný prescreening životopisů: AI systémy dokáží procházet stovky životopisů během chvilky, vyhledávat klíčová slova nebo potřebné kvalifikace a předběžně tak třídit kandidáty. Tím personalistům šetří čas a pomáhá identifikovat nejvhodnější uchazeče bez lidských předsudků. Moderní nástroje umí plánovat pohovory a koordinovat komunikaci s kandidáty – například automaticky obeslat vybrané uchazeče s pozvánkou na interview, navrhnout vhodné termíny dle kalendářů nebo zaslat online testy. 

Chatboti a voiceboti pak zajišťují první kontakt: rychle odpovídají na časté dotazy zájemců o práci kdykoliv, i mimo pracovní dobu​. 

Podle zkušeností personálních agentur probíhá až 47 % konverzací s náborovým chatbotem po večerech nebo o víkendech – kandidáti tedy nemusejí čekat na pracovní hodiny a odpovědi dostanou ihned​. 

To zlepšuje jejich zážitek z náboru a zároveň odbourává rutinní dotazy z agendy HR týmu. AI také pomáhá s tvorbou inzerátů – generuje texty a dokonce i obrázky k pracovním nabídkám, které pak firma může použít na kariérních stránkách či sociálních sítích​. 

Díky AI tak lze oslovit širší okruh kandidátů atraktivním inzerátem vytvořeným rychle a na míru dané pozici. Při všech těchto aplikacích je však klíčové myslet na to, aby algoritmy nezvýhodňovaly či neznevýhodňovaly určité skupiny uchazečů – k tomu se ještě dostaneme v části o bias a diskriminaci.

Většina uvedených aplikací AI v HR je v souladu s AI Actem, pokud jsou implementovány eticky a transparentně. Je však důležité zajistit, aby nedocházelo k manipulaci, zneužívání zranitelnosti, sociálnímu hodnocení nebo rozpoznávání emocí zaměstnanců, což jsou praktiky zakázané AI Actem. Doporučuji pečlivě posoudit každou aplikaci AI v HR z hlediska souladu s AI Actem a případně konzultovat s ARROWS.

Automatizace HR procesů

Personalisté tráví značnou část času opakujícími se administrativními úkoly – právě zde může AI výrazně pomoci.

  • Zpracování běžné personální agendy: AI dokáže automaticky zpracovat formuláře a žádosti (např. žádost o dovolenou, změnu osobních údajů) a zadat je do interních systémů. Chatbot pro interní HR podporu zvládne odpovídat zaměstnancům na dotazy ohledně benefitů, mezd či firemních politik, čímž uleví HR oddělení.
  • Plánování směn a rozvrhů: Pokročilé algoritmy umí optimálně rozvrhnout směny zaměstnanců na základě dat o docházce, dostupnosti a potřebách provozu. To firmám ušetří čas při tvorbě rozpisů a zároveň zohlední preference pracovníků, pokud jsou k dispozici.
  • Onboarding nováčků: AI může provést nového zaměstnance základními úkoly při nástupu – od vyplnění vstupních dokumentů, seznámení s interními předpisy až po virtuální prohlídku pracoviště formou interaktivního chatbota.
  • Analýze HR dat a reportingu – např. automaticky generují pravidelné reporty o fluktuaci, nemocnosti či mzdových nákladech a identifikují v nich vzorce či anomálie, kterým by měl management věnovat pozornost. Výsledkem je zrychlení procesů a omezení chyb způsobených rutinní ruční prací.

Podle průzkumů patří právě automatizace opakujících se úkolů mezi největší přínosy AI v HR​. 

Firmy tak mohou ušetřený čas věnovat strategičtějším aktivitám, kde je lidský úsudek a empatie nenahraditelná.

Hodnocení výkonu zaměstnanců

Oblast hodnocení a řízení výkonu se díky AI také posouvá do nové éry. Tradiční roční hodnocení zaměstnanců doplňují průběžné analýzy dat o výkonu, které mohou být zčásti automatizované.

Analýza pracovních výsledků: U obchodních týmů může AI sledovat prodeje a KPI v reálném čase a upozorňovat manažery na výkyvy – například identifikovat zaměstnance s klesajícími čísly, aby mohl včas dostat podporu nebo školení. V zákaznických centrech některé systémy pomocí AI vyhodnocují kvalitu telefonních hovorů (tone of voice, klíčová slova) či rychlost vyřízení požadavků a dávají pracovníkům okamžitou zpětnou vazbu.

Prediktivní HR analytika dokonce slibuje předvídat, kteří zaměstnanci jsou v riziku odchodu (tzv. flight risk) na základě různých ukazatelů – zapojení do projektů, absencí, nálady v týmu apod. Manažeři pak mohou proaktivně jednat, například nabídnout kariérní posun nebo řešit spokojenost dřív, než hodnotný kolega podá výpověď. Tyto nástroje mohou značně zpřesnit a zrychlit práci s talenty. Na druhou stranu je nutné opatrnosti: “černá skříňka” (black-box) algoritmus, který by bez jasných kritérií sám rozhodoval o povýšení či výši bonusu, je pro firmu rizikový jak z hlediska fairness, tak právně. Není náhodou, že chystaný evropský AI Act řadí systémy pro hodnocení výkonu a chování pracovníků mezi tzv. vysoce rizikové a klade na ně přísné požadavky​. 

Znamená to, že v praxi by vždy měl mít poslední slovo člověk – AI by měla sloužit jako podpůrný nástroj poskytující data a doporučení, ale finální rozhodnutí (např. koho povýšit či jak hodnotit) musí učinit vedoucí s ohledem i na kontext a lidský pohled.

Sledování zaměstnanců

Monitoring zaměstnanců je citlivá oblast, kde technologie obecně pronikají stále více – a AI přidává nové možnosti, ale i kontroverze. Firmy mohou využívat AI pro sledování docházky a pracovní doby – například kamera s rozpoznáváním obličejů při příchodu (namísto píchacích hodin) nebo automatické vyhodnocování logů přihlášení do systému pro evidenci práce z domova.

Některé společnosti zkoušejí nástroje, které monitorují aktivitu na počítači (stisk kláves, pohyb myši, otevřené aplikace) a vyhodnocují produktivitu zaměstnance. AI dokáže analyzovat velké objemy takových dat a hledat vzorce – třeba upozornit, že určitý zaměstnanec často tráví čas nepracovními aktivitami online, nebo naopak identifikovat přetížené pracovníky, kteří si ani nedávají pauzy.

V logistice se využívají AI systémy pro sledování vozidel a řidičů (GPS trackery kombinované s algoritmy na optimalizaci tras a odhalování odchylek), ve výrobě zase kamerové systémy kontrolující dodržování bezpečnostních pravidel. Moderní AI kamery dovedou například automaticky rozpoznat, zda pracovníci nosí helmu a vestu, a upozornit na porušení předpisů. Takové automatizované audity bezpečnosti mohou zabránit úrazům.

Dále existují experimenty s analyzováním komunikace – např. AI nástroj může vyhodnocovat anonymizované souhrny e-mailů či chatů v týmu a měřit „náladu“ nebo zapojení (sentiment analysis), aby HR mohlo včas zachytit nespokojenost na pracovišti. Tyto možnosti ale narážejí na hranice soukromí. V českém prostředí zákon jasně stanovuje, že zaměstnavatel nesmí bez vážného důvodu narušovat soukromí zaměstnance systematickým sledováním či kontrolou komunikace. I opodstatněný monitoring pak musí být přiměřený a zaměstnanci o něm musejí být předem informováni – detaily rozebereme v právní části​. 

Prozatím platí, že AI může v monitoringu pomoci – ale firmy musí velmi pečlivě vážit, co a jakým způsobem sledují, aby nepřekročily zákonné limity a neztratily důvěru svých lidí.

Školení a rozvoj

Umělá inteligence dokáže personalizovat a zefektivnit také vzdělávání zaměstnanců. Tradiční školení mnohdy všem nabízí totéž, zatímco AI umí analyzovat potřeby a výkon jednotlivců a podle toho navrhnout rozvojový plán na míru. Například zaměstnanec v zákaznickém servisu, který zápasí s určitou softwarovou dovedností, může díky AI obdržet doporučení konkrétního e-learningového modulu nebo koučinku právě v této oblasti. AI nástroje sledují, jak si kdo vede ve znalostních testech či při plnění úkolů, a doporučují relevantní vzdělávací programy podle zjištěných mezer​. 

Tento personalizovaný přístup zvyšuje efektivitu učení – lidé se neučí zbytečně to, co už umí, ale zaměří se na to, co potřebují zlepšit. Některé firmy již využívají chatboty jako virtuální lektory: zaměstnanec se může chatbota zeptat na cokoliv (např. „Jak správně vyplnit cestovní příkaz?“ nebo „Co dělat při reklamaci od zákazníka?“) a AI mu obratem poskytne odpověď včetně odkazů na příslušné interní směrnice či materiály. To umožňuje učení just-in-time – člověk získá potřebnou znalost ve chvíli, kdy ji řeší.

AI také umí generovat školicí obsah – od automatického vytváření prezentací na základě dodaných podkladů, přes překlady a lokalizaci kurzů, až po simulace situací ve virtuální realitě pro nácvik (např. trénink rozhovoru s klientem v simulovaném prostředí). Výsledkem je rychlejší a levnější tvorba tréninků, které lze snadno přizpůsobit různým rolím.

U velkých firem se stovkami či tisíci zaměstnanci tak AI pomáhá škálovat rozvoj – poskytovat každému zaměstnanci „kouče“ na dosah ruky prostřednictvím aplikace či intranetu. Důležité ale je zajistit, aby doporučení AI v oblasti rozvoje byla v souladu se strategickými potřebami firmy a aby nedocházelo k nežádoucímu „škatulkování“ zaměstnanců (např. že by algoritmus někomu přestal nabízet kariérní postup jen na základě předchozích výsledků). Proto i zde má mít HR poslední slovo a AI brát jako pomocný nástroj.

Na koho se můžete obrátit:

Právní aspekty AI v HR

Nasazení AI v personalistice přináší nejen technologické, ale i právní výzvy. Zaměstnavatelé musí respektovat řadu právních předpisů – od ochrany osobních údajů (GDPR) přes pracovněprávní ochranu zaměstnanců až po zákazy diskriminace. Níže rozebíráme klíčové právní aspekty, na které by se české firmy měly zaměřit.

Ochrana osobních údajů a GDPR

Data zaměstnanců jako osobní údaje: Většina HR agendy se točí okolo osobních údajů zaměstnanců – ať už jde o životopisy kandidátů, informace o docházce, výkonnosti či školeních. Podle definice GDPR je osobním údajem jakákoliv informace o identifikované nebo identifikovatelné fyzické osobě​. 

Pokud tedy při využití AI dochází ke zpracování údajů o konkrétních zaměstnancích (což ve většině HR scénářů ano), je nutné dodržet všechny povinnosti správce podle GDPR.

Právní základ zpracování: Firma musí mít pro zpracování dat jasný právní důvod. V kontextu HR půjde nejčastěji o plnění smlouvy (např. zpracování mzdy, což je nezbytné pro pracovní smlouvu) nebo oprávněný zájem zaměstnavatele (např. zefektivnění náboru pomocí AI). Pokud se firma spoléhá na oprávněný zájem, měla by provést tzv. balanční test – zdokumentovat, že její zájem (např. automatizace náboru) nepřeváží nad právy a svobodami zaměstnanců​. 

Transparentnost a informace: Zaměstnanci a uchazeči musí být informováni, jaké údaje a k jakému účelu AI zpracovává. GDPR (čl. 13) ukládá povinnost poskytnout subjektu údajů jasné informace, včetně toho, že dochází k automatizovanému rozhodování či profilování. Pokud firma nasadí AI, měla by proto aktualizovat informační memoranda pro zaměstnance, interní zásady zpracování údajů a třeba i formulace v pracovních smlouvách nebo souhlasech. Zaměstnanci mají nadále svá práva podle GDPR – právo na přístup k údajům, opravu nepřesností, případně vznést námitku proti zpracování nebo požadovat výmaz. Firma musí zajistit, že i při použití AI mohou lidé tato práva uplatnit. Například když AI systém vyhodnocuje výkonnost, měl by zaměstnanec mít možnost zjistit, jaké údaje o něm systém eviduje a případně je nechat opravit.

Smlouva s dodavatelem AI: Často jde o to, že AI nástroj pro HR dodává externí firma (například software pro nábor na bázi AI). V takovém případě je dodavatel typicky v roli zpracovatele osobních údajů jménem vaší firmy (správce). GDPR vyžaduje mít se zpracovatelem uzavřenou zpracovatelskou smlouvu a zavázat ho k dodržování pravidel ochrany dat​. 

Firma by si měla ohlídat, že poskytovatel AI služby údaje zabezpečí, nebude je používat k jiným účelům a umožní firmě plnit povinnosti vůči subjektům údajů. Pozor také na data, na nichž se AI učí: pokud dodavateli poskytnu vaše HR data k “trénování” modelu, i to je zpracování osobních údajů a musíte mít právní základ a smluvní ošetření.

Posouzení rizik a DPIA: Regulace zdůrazňuje posoudit, zda nasazení nové technologie nepřináší vysoká rizika pro práva zaměstnanců. AI je často považována za nový druh zpracování, potenciálně vysoce rizikový, takže se může uplatnit povinnost provést DPIA (posouzení vlivu na ochranu osobních údajů)​. 

Například když chce firma zavést algoritmus pro hodnocení uchazečů, měla by dopředu zanalyzovat rizika – co když algoritmus neoprávněně někoho vyloučí, co únik dat, atd. Pokud DPIA odhalí vysoká rizika, která nelze zmírnit, musí se konzultovat Úřad pro ochranu osobních údajů (ÚOOÚ). Ať tak či tak, zapojení podnikového Pověřence pro ochranu osobních údajů (DPO) (pokud ho firma má) je při nasazování AI v HR vysoce doporučeno.

Bezpečnost dat: AI systémy bývají datově náročné, někdy pracují i v cloudu – o to důležitější je dbát na kybernetickou bezpečnost. Únik citlivých údajů o zaměstnancích (hodnocení, plat, osobní spisy) by mohl mít pro firmu vážné následky. GDPR i Zákoník práce ukládají zaměstnavateli povinnost chránit osobní údaje zaměstnanců před zneužitím. V praxi to znamená zavést technická a organizační opatření – šifrování databází, řízení přístupu (jen oprávnění uživatelé), pravidelné audity, školení administrátorů AI nástrojů apod. Pokud by AI například generativně odpovídala na dotazy a někdo do ní vložil citlivé personální údaje (třeba seznam platů), může dojít k jejich odeslání na servery poskytovatele – i to je bezpečnostní riziko, na které je třeba zaměstnance upozornit (viz dále v doporučeních).

Dodržování GDPR se nevyplatí podcenit – sankce za porušení mohou dosáhnout až 20 milionů EUR nebo 4 % celosvětového obratu firmy​. 

Stejně důležitá je však reputace zaměstnavatele: skandál s únikem dat či stížnosti zaměstnanců na porušování soukromí mohou poškodit důvěru a firemní kulturu.

(tým ARROWS advokátní kanceláře v Olomouci)

Diskriminace a bias v AI

Riziko algoritmické diskriminace: AI v HR slibuje objektivitu, protože rozhoduje na základě dat. Avšak bez správných opatření může naopak přenášet a zesilovat předsudky, které v datech jsou. Klasickým příkladem je náborový algoritmus, který se „naučí“ z historických dat preferovat určitý typ kandidátů. Pokud například v minulosti firma najímala převážně muže na IT pozice, může AI převzít tento vzorec a začít systematicky znevýhodňovat životopisy žen – aniž by to někdo výslovně zamýšlel. Známým případem je experiment Amazonu, který si vyvinul interní AI na hodnocení životopisů: po čase zjistili, že dává nižší skóre uchazečkám, protože historická data byla „podjatá“ vůči mužům​. 

Algoritmus například penalizoval zmínky typu „kapitánka ženského šachového klubu“ jen proto, že slovo „ženského“ se v datech úspěšných kandidátů nevyskytovalo​. 

Takové chování je samozřejmě nežádoucí a v kontextu pracovního práva nepřípustné.

Zákaz diskriminace: Český zákoník práce i antidiskriminační zákon výslovně zakazují diskriminaci v zaměstnání na základě chráněných znaků, jako je pohlaví, věk, rasový či etnický původ, víra, sexuální orientace aj. To platí pro přijímání do zaměstnání, odměňování, povyšování i ukončování pracovního poměru. Pokud by rozhodnutí učiněné AI vedlo k neodůvodněnému znevýhodnění osoby kvůli některému z těchto znaků, nese za to odpovědnost zaměstnavatel – stejně jako kdyby diskriminoval přímo manažer při pohovoru. Firmy tedy musí pečlivě hlídat, jak AI rozhoduje, a před nasazením otestovat, zda nevykazuje bias. Například u nástroje na screening CV lze provést testy s fiktivními profily (žena vs. muž se stejnou kvalifikací apod.) a ověřit, že výsledky nejsou systematicky odlišné.

Dále je vhodné omezit používání takových vstupů, které by mohly sloužit jako proxy pro citlivé znaky – typicky adresa bydliště (může korelovat s etnickou menšinou), délka rodičovské dovolené (může zvýhodnit muže oproti ženám), fotografie kandidáta apod.

Povinnosti zaměstnavatelů: V praxi by AI systém nikdy neměl činit nevratné rozhodnutí zcela sám. Evropské právo (GDPR čl. 22) zakazuje, aby lidé byli vystaveni čistě automatizovanému rozhodnutí s významným dopadem, pokud neexistují speciální záruky. Příkladem by bylo, kdyby algoritmus zcela sám, bez lidského posouzení, rozhodl o přijetí či nepřijetí uchazeče – takový postup je (s výjimkami) zakázán, protože zásadně ovlivňuje danou osobu​. 

Firma by tedy měla zajistit, že vždy je do procesu zapojen člověk, který může doporučení AI přehodnotit. Tím se nejen splní zákonný požadavek, ale i sníží riziko diskriminace – lidský personalista může odhalit podezřelý vzorec (např. „AI mi vyřadila všechny ženy, to není v pořádku“) a zasáhnout.

Trénování a ladění modelů: Odpovědní dodavatelé AI dnes kladou důraz na tzv. etické AI – modely navržené tak, aby minimalizovaly bias. Pro firmu, která si vyvíjí vlastní AI řešení, to znamená zahrnout do vývoje fázi ladění spravedlnosti (fairness). Např. lze upravit váhy algoritmu nebo doplnit vyrovnávací mechanismy, pokud se zjistí, že určitá skupina dopadá hůře bez legitimního důvodu. Pokud kupujete AI produkt od třetí strany, ptejte se dodavatele, jak ošetřil otázku bias a zda prováděl testy diskriminace.

Monitoring rozhodování AI: Zavedením AI to nekončí – je třeba průběžně sledovat výstupy. Doporučuje se vést si záznamy (logy) o tom, jak AI rozhodovala, a pravidelně je analyzovat z hlediska třeba poměru přijatých/odmítnutých podle pohlaví, věku atd. K tomu může pomoci i povinné posouzení dopadů na základní práva (tzv. ALTAI – Assessment List for Trustworthy AI), které bude zřejmě vyžadovat nový AI Act pro vysoce rizikové systémy. Stručně řečeno, firma musí na AI dohlížet podobně, jako dohlíží na své manažery – nastavovat jí mantinely a kontrolovat, že je dodržuje. Ignorovat tuto povinnost se nevyplatí: kromě pokut hrozí i soudní spory ze strany odmítnutých uchazečů nebo zaměstnanců, kteří by se cítili diskriminováni, a také ztráta dobré pověsti.

Monitorování zaměstnanců a jejich práva

Právo na soukromí vs. kontrola zaměstnavatele: Jak jsme nastínili výše, moderní technologie dávají zaměstnavatelům bezprecedentní možnosti sledovat, co zaměstnanci dělají. Z hlediska práva je však soukromí zaměstnance chráněno a nelze ho narušovat nad míru. Český Zákoník práce (§ 316) říká, že zaměstnavatel smí kontrolovat používání svých výrobních a pracovních prostředků (počítáčů, telefonů, vozidel atd. poskytnutých zaměstnanci) pouze přiměřeným způsobem a v nezbytně nutném rozsahu​. 

To znamená, že nelze plošně a neomezeně monitorovat veškerou činnost zaměstnance – kontrola musí mít rozumný důvod (např. ochrana majetku, bezpečnosti, obchodního tajemství) a musí být co nejméně invazivní. Skryté sledování komunikace zaměstnance (čtení soukromých e-mailů, odposlech hovorů) je výslovně zakázáno, pokud k němu není závažný důvod spočívající ve zvláštní povaze činnosti zaměstnavatele​. 

Takovým důvodem by mohla být např. nutnost předcházet úniku přísně tajných informací v určitém specifickém odvětví, ale v běžné firmě k němu většinou není legitimní důvod. I tam, kde existuje (např. bezpečnostní agentura může mít důvod monitorovat, zda strážný skutečně obchází areál), platí zásada proporcionality – sledovat jen to, co je nutné, a ne víc.

Povinnost informovat: Klíčové je, že zaměstnavatel musí zaměstnance předem informovat o jakémkoliv monitoringu, jeho rozsahu a způsobech. Nestačí tedy mít to schované někde v interní směrnici – zaměstnanci musí být prokazatelně seznámeni s tím, zda a jak jsou sledováni.

Například pokud firma nasadí AI, která analyzuje e-maily z hlediska klíčových slov (byť třeba jen kvůli kyberbezpečnosti), musí zaměstnance upozornit, že firemní pošta je pod dohledem a jakých dat se to týká. Zákoník práce nevyžaduje, aby s tím zaměstnanci souhlasili (souhlas nelze vynucovat), ale musí o tom vědět.

AI a monitoring: Použití AI na straně zaměstnavatele na těchto povinnostech nic nemění – je jedno, zda kontrolu provádí člověk, nebo algoritmus. Pokud například AI vyhodnocuje záznamy z kamer a hlásí podezřelé chování, platí stejné limity jako pro běžné kamerové systémy. Navíc při použití AI jde opět o zpracování osobních údajů, takže se uplatní GDPR – například rozpoznávání tváře na kameře je biometrický údaj, který má zvláštní citlivý status.

Evropský dohled: Nejen české soudy, ale i Evropský soud pro lidská práva se opakovaně vyjádřil k monitorování zaměstnanců. V známém případu Bărbulescu vs. Rumunsko ESLP konstatoval, že propuštění zaměstnance za používání firemního emailu k soukromým účelům bylo neoprávněné, protože zaměstnanec nebyl předem jasně informován o rozsahu monitoringu​. 

To je pro firmy důležité ponaučení: i když zaměstnanec porušil pravidla (využíval firemní počítač soukromě), nelze důkazy získat skrytým sledováním, o němž nevěděl. Závěrem, při zavádění AI nástrojů na monitoring (docházkových kamer, sledování počítačů atd.) dbejte na zákonné mantinely.

Nastavte monitoring tak, aby byl cílený, ne plošný; evidujte jen nezbytné údaje; určitě vylučte monitorování prostor, kde to zákon zakazuje (šatny, toalety, místa odpočinku – tam má zaměstnanec absolutní soukromí). Vždy zaměstnance otevřeně informujte, co se sleduje a proč. Zvažte i etickou stránku – přehnaná kontrola může narušit vztahy na pracovišti. AI v monitoringu využívejte spíše pro bezpečnost a skutečně závažné důvody, ne pro mikromanagement každého kroku zaměstnance.

Je tedy nezbytné, aby zaměstnavatelé před implementací technologií rozpoznávání obličejů provedli důkladnou analýzu souladu s právními předpisy a zvážili, zda je takové zpracování biometrických údajů nezbytné a přiměřené vzhledem k účelu, kterého chtějí dosáhnout. ARROWS advokáti, specialistné na propojení AI, HR a GDPR vám s tím rádi pomohou. Zkušenosti jsou. V roce 2018 proběhla na to téma kontrola v Metrostavu.

Vzhledem k tomu, že právní rámec v této oblasti se může vyvíjet, je vhodné sledovat aktuální stanoviska ÚOOÚ a případné legislativní změny, které by mohly ovlivnit možnosti a podmínky zpracování biometrických údajů v soukromém sektoru.

Napište si o e-book Zaměstnanci bez starostí ZDE

Zodpovědnost za rozhodnutí učiněná AI

Kdo nese odpovědnost: Představme si situaci – AI systém vybere kandidáta, kterého firma přijme, nebo naopak doporučí propustit určitého zaměstnance. Kdo je právně odpovědný za toto rozhodnutí? Z pohledu práva vždy zaměstnavatel. AI není právní subjekt a neodpovídá za své činy – je to nástroj, podobně jako třeba software pro účetnictví. Pokud dojde k pochybení (diskriminace, neoprávněné ukončení smlouvy apod.), odpovědnost vůči postiženému zaměstnanci či uchazeči ponese firma, nikoliv dodavatel AI ani „počítač“. Je proto v zájmu zaměstnavatele si rozhodování AI pod kontrolou udržet.

Automatizovaná rozhodnutí v pracovněprávních vztazích: Jak už bylo zmíněno, čistě automatizovaná rozhodnutí s velkým dopadem na jednotlivce GDPR v zásadě zakazuje. V HR sem spadají rozhodnutí typu přijetí/nepřijetí do zaměstnání, povýšení/nepovýšení, výpověď, výrazná změna platu či bonusů apod. Firma by se neměla nikdy ocitnout v situaci, že rozhodnutí „udělala AI a nikdo jiný to neviděl“. Jednak by to bylo právně napadnutelné, jednak by bylo obtížné takové rozhodnutí obhájit – jak byste před soudem vysvětlili, proč byl někdo propuštěn, když odpověď by zněla „to rozhodl algoritmus a my vlastně nevíme proč“?

Požadavek lidského dohledu: Dobrou praxí (a brzy i zákonnou povinností podle AI Act) je zajistit nad AI lidský dohled (human oversight)​. To znamená určit osoby, které rozumějí fungování systému, mohou do něj v případě potřeby zasáhnout nebo ho vypnout a které hlavně přebírají finální rozhodování v kritických momentech. Například AI může navrhnout pořadí kandidátů, ale personalista si musí projít top výběr a potvrdit nebo upravit rozhodnutí. Při využití AI pro kontrolu docházky může AI označit podezřelé vzorce (časté pozdní příchody), ale vedoucí si musí s daným zaměstnancem promluvit a zjistit důvody dříve, než podnikne sankce.

Auditovatelnost a vysvětlitelnost: Odpovědnost souvisí i s tím, že firma by měla být schopna doložit důvody rozhodnutí. U AI často mluvíme o problému „vysvětlitelné AI“ (explainable AI) – zejména u algoritmů tzv. černých skříněk je složité zpětně rozklíčovat, proč se rozhodly tak, jak se rozhodly. Pokud ale na rozhodnutí závisí kariéra člověka, je fair mu umět poskytnout vysvětlení. Pro firmu to znamená preferovat AI nástroje, které jsou transparentní nebo poskytují tzv. explanation interface – např. zobrazí skóre kandidáta s odůvodněním „nesplňuje požadavek XY“ místo prostého „zamítnuto“. Také je vhodné uložit protokoly (logy) o činnosti AI​, aby bylo možné dohledat, jak k určitému výsledku dospěla.

Reklamace rozhodnutí AI: Pokud zaměstnanec nebo uchazeč zpochybní rozhodnutí, na kterém se podílela AI (např. má podezření, že byl algoritmem diskriminován), měl by mít možnost to řešit stejně, jako by šlo o rozhodnutí manažera. Firma by měla mít interní proces, jak takovou stížnost prověřit – typicky zapojit HR a IT experty, kteří zanalyzují, zda AI nepochybila. V krajním případě by pak spor řešil soud či inspektorát práce a firma by musela obhájit své postupy.

Dodavatel vs. uživatel: Samozřejmě, odpovědnost navenek nese zaměstnavatel, ale pokud selhání způsobila chyba v AI nástroji, může si firma následně nárokovat škodu po dodavateli (pokud porušil smlouvu apod.). I proto se vyplatí volit renomované a prověřené AI systémy a mít smluvně ošetřené, co se stane, když nástroj nebude fungovat dle očekávání (včetně právních závazků dodavatele v oblasti compliance). Aktuálně také EU projednává speciální pravidla pro odpovědnost za AI (tzv. AI Liability Directive), která by měla usnadnit poškozeným domoci se náhrady škody – i to je signál pro firmy, že odpovědnost je brána vážně.

Závěr je jasný: za AI si ručí firma sama a podle toho k ní musí přistupovat – jako k nástroji, který je potřeba pečlivě nastavit, kontrolovat a v případě potřeby korigovat.

Praktická doporučení pro české firmy

Zavedení AI do HR je více než jen technický projekt – vyžaduje také nastavení správných interních pravidel, etického rámce a komunikace se zaměstnanci. Níže uvádíme doporučení, která pomohou využívat AI v HR odpovědně a v souladu s právem.

Nastavení interních pravidel pro AI v HR

Strategie a politika AI: Prvním krokem by mělo být vypracování interní strategie pro využívání AI. Vedení firmy by si mělo ujasnit, v jakých oblastech chce AI použít, jaké cíle tím sleduje (např. zrychlení náboru, snížení administrativní zátěže) a jaké jsou limity. Na to navazuje vytvoření interní politiky nebo směrnice, která stanoví pravidla pro používání AI v HR.

Měla by odpovědět na otázky: Kdo odpovídá za provoz a dohled nad AI nástroji? Jaké typy rozhodnutí smí AI dělat samostatně a kde je nutná eskalace na člověka? Jak se bude testovat a schvalovat nasazení nového AI nástroje? Jak se budou monitorovat jeho výstupy a řešit případné problémy? Taková směrnice zajistí, že všichni v HR týmu budou postupovat konzistentně a uvědoměle.

AI governance v praxi: Doporučuje se zřídit například interní komisi nebo radu pro řízení AI ve firmě​. Ta by mohla zahrnovat zástupce HR, IT, právního oddělení a managementu. Jejím úkolem by bylo schvalovat nové AI nástroje, dohlížet na jejich provoz a řešit etické dilemata, která se mohou objevit. V menší firmě to může být třeba jen pravidelná porada HR manažera s IT a právníkem nad používáním AI. Důležité je, aby se AI nevymkla kontrole jednoduše tím, že by ji někdo „potajmu” zavedl bez vědomí ostatních a bez ošetření rizik.

Evidence a audit: Veďte si přehled všech AI systémů, které v HR používáte, včetně popisu jejich funkce, dodavatele, zpracovávaných dat a přijatých opatření proti rizikům. Tato evidence se hodí jak pro interní potřeby (snadno zjistíte, co kde běží), tak pro případnou komunikaci s úřady nebo při auditu (máte připraveno, jak plníte požadavky GDPR, AI Act apod.).

Postupy při selhání: Definujte, co dělat, když AI nástroj selže nebo způsobí incident – například když náborový algoritmus začne dávat podivné výsledky. Mělo by být jasné, kdo má pravomoc systém pozastavit, koho informovat (management, DPO, IT bezpečnost) a jak provést nápravu. Předejdete tím chaosu v krizové situaci.

Etické směrnice a kodexy pro AI

Kromě tvrdých pravidel se osvědčuje stanovit i etické principy, které bude firma při AI následovat. Lze navázat na existující firemní hodnoty nebo etický kodex a rozšířit je o AI. Některé organizace přijímají etickou chartu AI, kde se zavazují k určitým zásadám – např.: „AI budeme využívat transparentně a spravedlivě; rozhodnutí AI vždy podléhají lidskému přezkumu; dbáme na soukromí a bezpečnost dat; zajišťujeme rovné zacházení a nediskriminaci; jsme odpovědní za dopady AI na naše zaměstnance.“ Taková prohlášení nejen pomáhají vnitřně, ale mohou sloužit i navenek k budování důvěry (např. u kandidátů může firma komunikovat, že při náboru používá AI eticky a v souladu s GDPR).

Inspirace zvenčí: Existuje řada rámců a doporučení, o něž se lze opřít. Evropská komise vydala Ethics Guidelines for Trustworthy AI (2019), které definují principy jako lidský dohled, technická robustnost, soukromí, transparentnost, diverzita a nediskriminace či odpovědnost. OECD má své Principy AI a například i americká vláda publikovala Blueprint for an AI Bill of Rights (2022) chránící práva zaměstnanců v souvislosti s AI​. 

Pro HR specificky existují doporučení od profesních organizací (SHRM, CIPD aj.), často zdůrazňující tři pilíře: zákonnost, etika a inkluze. Firma nemusí vymýšlet vše od nuly – lze převzít osvědčené principy jako: „AI nesmí porušovat práva zaměstnanců, musí být nasazována s jejich důvěrou a ku prospěchu obou stran, rozhodnutí AI musí být vysvětlitelná a přezkoumatelná, nové technologie budeme zavádět citlivě a s ohledem na dopad na lidi“ apod.. 

Jak zdůrazňuje prezident oborové organizace ABSL Jaromír Staroba, je důležité, aby firmy sledovaly globální vývoj regulací a vedly své inovační týmy podle etických směrnic​. Prakticky to znamená školit vývojáře i uživatele AI o etických rizicích, konzultovat nasazení AI s různými stakeholdery (např. s odbory, pokud existují) a vyhýbat se řešením, u nichž není zřejmé, jak fungují. Staroba varuje před “black-box” AI nástroji pro HR bez dokumentace a transparentnosti – takovým je lepší se vyhnout​. 

Místo toho upřednostňovat řešení, která umožňují audit a kde dodavatel otevřeně sdílí informace o algoritmu (alespoň na úrovni vysvětlení, ne nutně zdrojového kódu).

Kultura a hodnoty: Zaveďte téma AI i do firemní kultury. Pokud firma zdůrazňuje péči o zaměstnance, měla by k AI přistupovat s tím, že má sloužit lidem, ne je nahrazovat či nadměrně kontrolovat. Etické využití AI se stane reálným, když ho budou podporovat sami zaměstnanci – což nastane tehdy, pokud uvidí, že jim AI pomáhá a neubližuje. Proto budujte kulturu, kde inovace jdou ruku v ruce s odpovědností.

Kdo další Vám s tím pomůže:

Komunikace se zaměstnanci o AI

Transparentnost vůči zaměstnancům: Aby zaměstnanci přijali AI pozitivně, musí rozumět, proč a jak je využívána. Je proto zásadní otevřeně komunikovat už od počátku. Plánujete-li nasadit AI do náboru nebo interních procesů, informujte o tom zaměstnance předem. Vysvětlete, jaké úkoly bude AI vykonávat (např. „chatbot bude odpovídat na vaše dotazy v oblasti mezd“ nebo „nový systém bude analyzovat docházku a navrhovat směny“) a zdůrazněte, co z toho lidé budou mít – rychlejší služby HR, méně administrativy pro ně apod. Také ubezpečte, že AI nebude zneužita – např. že neslouží k nepřiměřenému sledování či hodnocení bez kontextu. Pokud zavádíte AI do náboru, můžete to komunikovat i kandidátům (např. v inzerátu zmínit, že prvotní výběr provádí algoritmus pro zajištění férovosti).

Školení a osvěta: Ne každý HR specialista nebo manažer rozumí tomu, co AI skutečně obnáší. Proto je vhodné uspořádat interní školení či workshopy o AI v HR – představit možnosti, ale i rizika (soukromí, bias) a nastínit nové procesy. Zapojte do toho jak HR tým, tak vedoucí pracovníky a klidně i širší zaměstnance, pokud se jich to týká (např. školení pro manažery, jak správně využívat výstupy AI při hodnocení podřízených). Cílem je odbourat strach z neznámého – mnozí zaměstnanci mohou mít obavy, zda je AI nebude „špehovat“ nebo dokonce nenahradí. Otevřená diskuse pomůže vyjasnit, že AI je nástroj, který má lidem usnadnit práci, ne je trestat.

Zapojení zaměstnanců do návrhu: Pokud je to možné, zapojte zástupce zaměstnanců (třeba z různých oddělení) do pilotního zavádění AI. Mohou dát cennou zpětnou vazbu, upozornit na praktické problémy a zároveň budou fungovat jako ambasadoři, kteří pak novinku lépe vysvětlí kolegům.

Politika k AI pro zaměstnance: Kromě využití AI zaměstnavatelem je tu i otázka používání veřejně dostupné AI zaměstnanci (např. ChatGPT v práci). Je dobré zaměstnancům komunikovat jasné pokyny: co smí a nesmí zadávat do externích AI nástrojů. Například upozornit, aby nevkládali citlivé firemní informace do veřejných AI služeb, které by je mohly uložit či zneužít​. 

Vysvětlete to srozumitelně – např. „Cokoliv napíšete do AI generátoru, může být uloženo a potenciálně se to dostane k cizím lidem, proto je zakázáno zadávat tam osobní údaje kolegů, zákazníků či neveřejné informace o firmě.“​. 

Zaměstnanci často netuší, jak tyto technologie fungují, proto je edukace klíčová.

Komunikace při chybě AI: Pokud dojde k nějakému incidentu (třeba AI špatně zařadí výkonného zaměstnance do kategorie „slabý výkon“), komunikujte to otevřeně a omluvte případné chyby. Ukažte, že si uvědomujete limity AI a že budete dělat maximum pro nápravu a férovost. Tím udržíte důvěru – lidé ocení, když firma přizná, že technologie není neomylná a staví lidský úsudek na první místo.

Budoucí vývoj a připravovaná legislativa

Oblast AI se vyvíjí velmi dynamicky – a s ní i legislativa, která se snaží udržet krok. V následujících letech čekají firmy zásadní změny v regulaci AI, zejména z úrovně Evropské unie, které je dobré sledovat a připravit se na ně.

AI Act a regulace AI v EU

Nejvýznamnější připravovanou úpravou je Nařízení o umělé inteligenci (AI Act), které na úrovni EU prošlo schválením v roce 2024 a postupně vstoupí v účinnost (plné uplatnění se očekává kolem roku 2026)​. AI Act zavádí komplexní rámec pro regulaci AI s přístupem založeným na rizikovosti. Jednotlivé aplikace AI řadí do kategorií: zakázané použití (např. tzv. sociální scoring občanů), vysoce rizikové systémy, systémy s omezeným rizikem a minimálním rizikem​. 

Právě AI v HR (nábor, řízení a sledování zaměstnanců) je podle definic zákona hodnocena jako vysoce riziková oblast​. 

To znamená, že na AI nástroje použité například pro výběr uchazečů, rozhodování o povýšení či ukončení pracovního poměru, hodnocení výkonu nebo monitorování chování zaměstnanců se budou vztahovat přísné požadavky​. 

Povinnosti pro firmy (uživatele AI): AI Act rozlišuje povinnosti pro poskytovatele AI systémů a pro jejich uživatele (tzv. deployery). V roli deployera bude typicky firma, která nasadí např. kupovaný AI software na nábor. Mezi klíčové povinnosti uživatele vysoce rizikového AI bude patřit: zajistit adekvátní lidský dohled nad systémem, důkladně se řídit pokyny výrobce, validovat vstupní data (tzn. hlídat kvalitu a reprezentativnost dat, kterými AI „krmíme“), monitorovat výsledky AI při provozu a hlásit případné závažné incidenty nebo pochybení dodavateli​. 

Dále vést záznamy (logy) o činnosti AI​ a dokonce provést posouzení dopadů na základní práva (aby se prokázalo, že systém neškodí lidským právům, např. nediskriminuje)​. Firmy také budou muset informovat své zaměstnance (nebo jejich zástupce) o tom, že jsou při práci nebo v náboru podrobeni rozhodování AI systému​. To opět zdůrazňuje princip transparentnosti.

Sankce podle AI Act: Nedodržení povinností u vysoce rizikových systémů bude postihováno pokutami – v návrhu se uvádí až 20 milionů EUR nebo 4 % ročního obratu (podobně jako GDPR). Je tedy zřejmé, že EU bere využití AI v HR velmi vážně a chce předejít zneužívání či nepromyšlenému nasazení, které by mohlo poškodit zaměstnance.

Co dělat už teď: Ačkoliv AI Act teprve bude uváděn do praxe, firmy by už nyní měly začít s přípravami. Doporučuje se provést audit všech AI či pokročilých algoritmů, které ve firmě používáte nebo hodláte použít – zjistit, zda spadají do definice AI Act (ta je poměrně široká) a zda náhodou nespadají do vysoce rizikové kategorie (pokud se týkají zaměstnanců, je velká šance, že ano). Dále sledovat vývoj prováděcích předpisů a standardů, které EU k AI Act chystá – budou upřesňovat technické detaily, například jak přesně provádět ty posudky dopadů či jak evidovat použití AI​. 

Firmy by měly aktualizovat vnitřní postupy tak, aby byly v souladu s novými požadavky – to zahrnuje třeba zavedení zmíněného lidského dohledu, zajištění školení pro osoby pracující s AI, úpravu smluv s dodavateli (aby oni plnili, co mají) a podobně​. 

Kdo začne včas, získá konkurenční výhodu, protože nebude muset na poslední chvíli narychlo předělávat procesy. AI Act se může jevit jako administrativní zátěž, ale jeho cíl je obdobný jako GDPR – zvýšit důvěru v technologie tím, že se používají odpovědně. Pro firmy to může ve výsledku znamenat, že dobře nastavené AI procesy jim dají náskok (budou moci využívat AI naplno, aniž by se bály právních problémů).

Další legislativní vývoj

Kromě AI Actu se diskutují i další úpravy související s AI. Evropská komise připravuje třeba směrnici o odpovědnosti za AI (tzv. AI Liability Directive), která doplní pravidla pro vymáhání náhrady škody způsobené provozem AI – to může posílit postavení zaměstnanců, pokud by se cítili poškozeni rozhodnutím AI (usnadní se jim důkazní pozice). V oblasti pracovního práva můžeme očekávat, že se téma AI promítne do agend inspekcí práce a možná i do kolektivního vyjednávání. Odbory v některých zemích už volají po právu na odloučení (right to disconnect) ve vztahu k AI – aby pracovníci nebyli hodnoceni jen suchými metrikami 24/7.

Také se mluví o právu na vysvětlení rozhodnutí AI a právu odmítnout být hodnocen automatizovaně. Některé z těchto principů už fakticky máme díky GDPR, ale lze čekat jejich posilování. Česká legislativa bude muset implementovat evropské normy – např. upravit kompetence ÚOOÚ, inspektorátů práce a případně zakotvit některé povinnosti do Zákoníku práce či zákona o zaměstnanosti (např. ohledně informování uchazečů/zaměstnanců o AI).

Dynamika odvětví: AI technologie se vyvíjejí rychle a právní rámec se jim bude neustále přizpůsobovat. Firmy by proto měly sledovat novinky – účastnit se seminářů, číst odborné články, případně využít služeb právních poradců specializovaných na IT právo a HR. Vyplatí se také sdílet zkušenosti v oboru – např. v rámci profesních setkání HR manažerů si vyměňovat poznatky, jak kdo řeší AI a co se mu osvědčilo.

Etika jako trvalé téma: Kromě zákonů bude tlak i od veřejnosti a zaměstnanců samotných. Generace nastupující na trh práce (Millennials, Gen Z) jsou citlivé na hodnoty a budou se ptát, jak firma AI používá. Může se stát součástí employer brandingu říkat „my AI využíváme zodpovědně“. Na horizontu jsou rovněž úvahy o kolektivních právech – např. zda zaměstnanci mají spolurozhodovat o zavedení AI na pracovišti (skrze rady zaměstnanců) apod. To vše jsou otázky, které příští roky přinesou.

Závěrem

Umělá inteligence nabízí HR oddělením skvělé možnosti, jak zefektivnit práci a učinit rozhodování datově podloženějším. Českým firmám může pomoci rychleji najít talenty, lépe motivovat a rozvíjet zaměstnance a udržet konkurenceschopnost. Zároveň ale není všelékem – vyžaduje pečlivé zavedení, průběžnou kontrolu a hlavně respekt k lidem, kterých se týká. Právní rizika nejsou zanedbatelná: od pokut za porušení GDPR, přes žaloby kvůli diskriminaci, až po poškození pověsti zaměstnavatele. Tento praktický průvodce zdůraznil, že klíčem je vyváženost – využívat AI tam, kde přináší jasné benefity, ale vždy s rozumem, lidským dohledem a v intencích zákona i etiky. Pokud firma přistoupí k AI jako k nástroji, který slouží lidem (a ne naopak), může z něj v HR získat maximum při minimálním riziku. Budoucnost HR bude zřejmě patřit chytré spolupráci lidí a strojů – připravme se na ni zodpovědně a s otevřenýma očima.

Zajímají vás novinky v pracovním právu v roce 2025? JUDr. Kořenářová pro vás připravila webinář. 

Proč si vybrat právě nás?

Naše služby využívají firmy všech velikostí, protože vědí, že jim poskytujeme komplexní řešení v oblasti pracovního práva. Například:

  • Na míru šitá pracovní dokumentace: Připravíme vám pracovní smlouvy, interní směrnice a další klíčové dokumenty přesně podle potřeb vaší firmy.
  • Prevence sporů a právních komplikací: Pomůžeme vám předejít sporům a snižovat rizika právních problémů na pracovišti.
  • Srozumitelnost bez právnického žargonu: Vysvětlíme vám vše jednoduše a přehledně, bez zbytečné komplikované terminologie.

Víme, že rozhodnout se pro právní služby není vždy jednoduché. Proto vám chceme představit, jak pracujeme.

Chcete si nejdřív ověřit, že naše práce je přesně to, co potřebujete? Připravili jsme pro vás zdarma e-book, který demonstruje, jak precizně a efektivně řešíme pracovní záležitosti. V e-booku najdete:

✅ Praktické rady, které můžete ihned využít při správě pracovněprávních vztahů.
✅ 20 konkrétních tipů, jak předejít sporům a problémům na pracovišti.
✅ Ukázku našeho přístupu: jak srozumitelně a jednoduše předáváme odborné znalosti v oblasti pracovního práva.

Napište si o e-book Zaměstnanci bez starostí ZDE

Nechcete tenhle problém řešit sami? Věří nám více než 2000 klientů a jsme oceněni jako Právnická firma roku 2024. Podívejte se ZDE na naše reference.