Evropská unie přijala vůbec první komplexní právní úpravu umělé inteligence – tzv. AI Act (Akt o umělé inteligenci, nařízení (EU) 2024/1689). Toto nařízení zavádí harmonizovaná pravidla pro vývoj, uvádění na trh a používání AI napříč členskými státy a sleduje cíl podporovat inovace při současném zajištění ochrany zdraví, bezpečnosti a základních práv.
AI Act staví na rizikovém přístupu – rozlišuje systémy AI podle míry rizika, které představují. Stanoví se kategorie minimálního rizika, nízkého rizika s povinností transparentnosti, vysoce rizikové AI systémy (podléhající přísným požadavkům) a nepřijatelné riziko, tj. praktiky AI, které jsou zakázané.
Právě těmto zakázaným praktikám AI a jejich praktickým dopadům se článek věnuje, včetně nejnovějších pokynů Evropské komise k výkladu těchto zákazů.
Autor článku: ARROWS advokátní kancelář (JUDr. Jakub Dohnal, Ph.D., LL.M., office@arws.cz, +420 245 007 740)
AI Act byl schválen v červnu 2024 a účinnost zákazu zakázaných praktik nastala již 2. února 2025 (). To znamená, že od tohoto data platí přímý zákaz využívání určitých nebezpečných aplikací AI bez ohledu na odvětví. Porušení těchto zákazů může být sankcionováno velmi vysokými pokutami – až 35 mil. EUR nebo 7 % celosvětového ročního obratu firmy, podle toho, co je vyšší.
Je tedy zásadní, aby se firmy a organizace seznámily s tím, které AI praktiky jsou v EU nepřípustné, jak se vyhnout jejich porušení a jak zajistit soulad (compliance) s novými pravidly. V dalším textu proto přinášíme přehled zakázaných praktik AI podle AI Act, podrobnější rozbor vybraných zákazů (zejména manipulativní techniky a rozpoznávání emocí) s odkazy na konkrétní články AI Act, přiblížení pokynů Evropské komise k těmto zákazům a doporučení pro praxi firem. Na závěr nastíníme, jak může advokátní kancelář pomoci klientům v oblasti regulace AI.
AI Act v článku 5 zakazuje osm typů praktik využití umělé inteligence, které jsou považovány za „nepřijatelné riziko“ – tedy v rozporu s hodnotami EU a základními právy, a tudíž zcela nepovolitelné. Jde o tyto zakázané postupy v oblasti AI:
Jak je patrné, zakázané praktiky AI zahrnují především takové manipulace, sledování a profilování, jež podkopávají lidskou autonomii nebo mohou vést k diskriminaci a újmě. Níže se podrobněji zaměříme na dvě oblasti, které AI Act výslovně zakazuje a na něž se soustředí i pokyny Komise – manipulativní techniky a rozpoznávání emocí.
AI Act zakazuje AI systémy, které využívají podprahových, manipulativních nebo klamavých technik k ovlivnění lidí způsobem, jenž závažně naruší jejich schopnost rozhodovat se a způsobí jim újmu.
Jde o praktiky manipulace „mimo vědomí“ člověka – například skryté podprahové vzkazy, nepozorované ovlivňování emocí, či AI, která člověka úmyslně klame o své povaze nebo záměrech. Klíčové je, že takové techniky zásadně ovlivní chování osoby, která pak učiní rozhodnutí, jež by za normálních okolností neučinila, a dojde ke škodě.
Do této kategorie spadají různé formy klamavé či skryté manipulace za pomoci AI. Není podstatné, zda vývojář AI zamýšlel někoho podvést – zákaz se uplatní už tehdy, pokud systém objektivně používá tyto manipulativní techniky a může způsobit významnou újmu.
Typickým příkladem je AI chatbot, který se vydává za reálnou osobu (např. přítele či příbuzného) a přesvědčí oběť k nějakému úkonu v její neprospěch (třeba vylákání peněz) – taková deceptivní AI způsobující újmu je jednoznačně zakázána.
Dalším příkladem může být AI generující obrazový či audiovizuální obsah (tzv. deepfake) bez upozornění, že jde o uměle vytvořené dílo, pokud tím dochází k ošálení člověka. Subliminální techniky pak mohou mít podobu například vložení extrémně rychle blikajících textů nebo snímků do videa, jež jsou vědomě nepostřehnutelné, ale mozek je podvědomě zpracuje a ovlivní diváka. I to by spadalo do této zakázané praktiky.
Evropská komise ve svých Pokynech k zakázaným praktikám AI (viz dále) podrobně vysvětluje, co vše může být považováno za manipulativní či klamavou techniku.
Například pojem „podstatné narušení chování“ člověka Komise vykládá v souladu s právem na ochranu spotřebitele – obdobně jako „materiální narušení ekonomického chování“ při nekalých obchodních praktikách dle směrnice 2005/29/ES.
Důležitým rozlišujícím kritériem je, zda AI jde nad rámec „povoleného přesvědčování“. Legitimní ovlivňování (např. běžná reklama) je takové, které transparentně prezentuje informace či argumenty, třeba i apeluje na emoce, ale neuchyluje se ke skryté manipulaci.
Naproti tomu AI praktiky, které využívají kognitivních biasů, emocionálních slabin či jiných zranitelností člověka bez jeho vědomí, spadají do zakázané manipulace.
Pokyny Komise uvádějí několik konkrétních scénářů. Krom výše zmíněného chatbota uvádějí například AI generující deepfake videa, která pokud jsou jasně označena jako umělá (např. vodoznakem či varovným textem), výrazně snižují riziko záměrné klamavosti a škodlivé manipulace.. To je pro praxi důležitá rada: důslednou transparentností (označením AI obsahu, informováním uživatelů, že komunikují se strojem apod.) lze předejít naplnění skutkové podstaty tohoto zákazu.
Pro firmy vyvíjející AI systémy interagující s lidmi to znamená, že by vždy měly uživatele informovat, že jednají s AI (což je ostatně i samostatná povinnost dle AI Act pro veškeré AI k interakci s lidmi. Stejně tak je třeba se vyhnout jakýmkoli skrytým „nástrojům přesvědčování“, které uživatel nemůže vědomě odhalit.
Shrnuto, jakákoli AI, která potají manipuluje uživatelem k jeho neprospěchu, nemá v EU místo. Firmy by měly své AI aplikace posoudit – například některé agresivní marketingové algoritmy či „dark patterns“ využívající AI by mohly spadat do této kategorie, pokud by u spotřebitelů vyvolaly rozhodnutí ke koupi či jednání vedoucí k újmě, které by za normálních okolností neučinili. Pokud AI projekt byť jen vzdáleně hraničí s touto definicí, je nezbytné jej překlasifikovat či upravit, aby bylo zajištěno, že nejde o podprahovou manipulaci (např. vnést do procesu více informovanosti uživatele, vložit možnost volby, zajistit souhlas atp.). V případě pochybností je vhodné řídit se konzervativním přístupem nebo vyhledat právní radu.
Druhou specifickou zakázanou praktikou je AI pro rozpoznávání emocí v zaměstnání a školství. Článek 5(1)(f) AI Act zakazuje uvádět na trh či používat systémy AI k odvozování emocí fyzické osoby na pracovišti a ve vzdělávacích institucích (škole).
Výjimku mají jen systémy určené ze zdravotních nebo bezpečnostních důvodů. V praxi to znamená, že např. AI kamera sledující výraz tváře zaměstnance či studenta, aby vyhodnotila jeho emocionální stav (zda je naštvaný, znuděný, smutný apod.), je nepřípustná. Firmy tedy nesmí nasadit AI ke sledování nálady či emocí svých pracovníků při práci, a stejně tak školy nesmí monitorovat emoční projevy žáků pomocí AI.
Motivací tohoto zákazu je ochrana lidského soukromí a důstojnosti – emoční projevy jsou vysoce intimní sférou, a jejich automatizované vyhodnocování v pracovně-právním či vzdělávacím kontextu může vést k nátlaku či diskriminaci. Pokyny Evropské komise zdůrazňují, že tento zákaz se týká jakýchkoli AI systémů, které identifikují nebo interpretují emoce či záměry osoby v těchto prostředích. Pojem „emoce a záměry“ je přitom vykládán široce, neměl by být zužován jen na několik základních emocí. Je podstatné, že typicky půjde o AI analyzující biometrické údaje (výrazy obličeje, tón hlasu, gesta, fyziologické projevy).
Pokud by AI vyvozovala emoční stav jen z textu (např. analýza slov v e-mailu), nespadalo by to pod tento zákaz, neboť textové údaje nejsou biometrické. Nicméně jakékoli snímání a vyhodnocování výrazů tváře, hlasové intonace, pohybů těla, srdečního tepu apod. pro účely zjištění emocí v práci či škole je zakázané.
Praktické dopady tohoto zákazu: Zaměstnavatelé musí přehodnotit případné nasazení AI monitoringu zaměstnanců. Například aplikace hodnotící „míru úsměvu“ prodavačů při kontaktu se zákazníky nebo AI sledující stres či spokojenost zaměstnanců přes webkameru by spadaly pod zákaz a nesmí být používány.
Výjimku mají pouze systémy nasazené pro bezpečnost či zdraví – např. AI monitorující známky únavy nebo úzkosti u řidičů či operátorů nebezpečných strojů, aby zabránila úrazu. Podobně třeba AI asistent sledující hlasové projevy pracovníka z hlediska zdravotního (detekce známek stresu vedoucích k infarktu) by mohl spadat do povolené výjimky zdravotního důvodu. Vždy však platí, že účel musí být skutečně bezpečnostní nebo zdravotní a nikoli třeba zvyšování produktivity či kontroly loajality – takové účely jsou mimo výjimku.
Firmy by měly velmi obezřetně posoudit jakékoli technologie, které „čtou“ emoce zaměstnanců či studentů. Pokud například HR oddělení uvažovalo o nasazení AI pro analýzu video pohovorů uchazečů (tzv. AI pohovory, které sledují mimiku kandidáta kvůli odhadům osobnosti), je třeba upozornit, že v EU by taková praxe mohla porušit čl. 5(1)(f), pokud by šlo o hodnocení emocí kandidáta v pozici potenciálního zaměstnance.
Obdobně jakékoli „emotion AI“ nástroje pro hodnocení nálady týmů, zákaznické spokojenosti přes emoční reakce zaměstnanců apod. jsou problematické. Alternativou může být zaměřit se na objektivní metriky výkonnosti či spokojenosti (např. anonymní dotazníky) místo skrytého snímání emocí, nebo využít jiné technologie spadající mimo definici AI Act (pokud by šlo o deterministický software bez strojového učení – ovšem i tak platí ochrana soukromí dle GDPR).
Z regulatorního hlediska spadá rozpoznávání emocí mimo uvedené zakázané kontexty (např. AI, která analyzuje emoce zákazníků v obchodě pro marketing) do nižší kategorie rizika – konkrétně bylo zařazeno mezi vysoce rizikové AI systémy dle přílohy III AI Act, pokud se používá ke klasifikaci osob na základě biometrických údajů (tedy i emoce) pro přístup ke službám.
Tyto případy by pak vyžadovaly splnění přísných požadavků, ale nejsou absolutně zakázány. Pro běžnou firmu je však nejdůležitější vědět, že jakýkoli záměr využít AI k monitoringu emocionálního stavu vlastních zaměstnanců naráží na striktní zákaz a nelze jej realizovat.
Dne 4. února 2025, tedy krátce po nabytí účinnosti uvedených zákazů, vydala Evropská komise Pokyny k zakázaným praktikám umělé inteligence podle AI Act (dokument C(2025) 884 final). Tyto Pokyny Komise byly schváleny Komisí, byť formálně budou dokončeny po překladu do všech jazyků (). Jejich účelem je poskytnout výklad a praktické příklady k jednotlivým zákazům podle článku 5 AI Act a napomoci tak k jednotné a účinné aplikaci napříč EU.
Pokyny samy o sobě nejsou právně závazné (závazný výklad přísluší Soudnímu dvoru EU), ale mají významnou orientační hodnotu a lze očekávat, že je budou zohledňovat dozorové orgány i soudy. Pro firmy a organizace jsou tedy cenným vodítkem, jak Komise jednotlivé zákazy chápe.
Co Pokyny obsahují? Pro každý ze zakázaných postupů (a) až (h) Pokyny rozebírají hlavní prvky definice, uvádějí praktické příklady, a také vymezují, co naopak do daného zákazu nespadá. Dále nabízejí doporučení, jak se vyhnout poskytování či používání AI systémů způsobem, který by mohl být zakázaný.
Například u manipulativních technik (písm. a) Pokyny vysvětlují pojmy „podprahový“ vs. „manipulativní“ vs. „klamavý“ , rozlišují, co je ještě přípustné přesvědčování (lawful persuasion) a co již zakázaná manipulace , a doporučují opatření jako výslovné upozorňování na AI obsah (labeling), které může riziko manipulace zmírnit.
U zákazu rozpoznávání emocí Pokyny upřesňují, že se nevztahuje na zákaznické nebo soukromé použití (jde jen o pracoviště a školy) a obsahují scénáře, co je ještě povoleno – např. systémy pro zjištění úrovně stresu z bezpečnostních důvodů. Obdobně u dalších kategorií (exploatace zranitelných osob, sociální scoring, biometrická identifikace atd.) Pokyny nabízejí detailní rozbor.
Pro firmy je podstatné, že Pokyny Komise obsahují i konkrétní příklady z praxe. Mnohé jsme zmínili výše: např. manipulativní chatbot vydávající se za přítele, AI podsouvající nepostřehnutelné podněty nebo marketingová AI zneužívající závislost mladistvých na aplikaci – to vše Pokyny uvádějí jako typické zakázané praktiky.
Naopak také uvádějí příklady systémů, které do zakázaných kategorií nespadají, aby vymezily hranici. Např. u manipulace se zdůrazňuje, že běžná reklama či přesvědčování, které nevyužívá skryté klamavé triky, není tímto zákazem dotčeno.
U emoční analýzy se zas zmiňuje, že pokud AI nesplňuje všechny znaky zakázané praxe (např. není použita na zaměstnance), bude spadat do nižší kategorie rizika – typicky vysoce rizikové AI s povinnostmi místo absolutního zákazu.
Shrnutí významu Pokynů: Pro podniky a organizace pracující s AI jsou tyto pokyny cenné, neboť zvyšují právní jistotu. AI Act je poměrně obecný a technologicky neutrální, takže konkrétní posouzení, zda určitá AI aplikace spadá pod zákaz, může být složité. Díky Pokynům má nyní firma k dispozici interpretaci Komise, včetně praktických scénářů. Ačkoli Pokyny nejsou právně závazné, bylo by riskantní je ignorovat – odchylka od výkladu Komise by musela být obhájena případně před soudem. Doporučujeme proto firmám se s Pokyny seznámit (jsou veřejně dostupné) a případně konzultovat sporné případy s právníkem, aby si ověřily, že jejich AI činnosti jsou v souladu s duchem i literou regulace.
Jak již bylo uvedeno, zákazy zakázaných praktik AI jsou v platnosti od února 2025. Každá firma či organizace využívající AI by proto ihned měla provést inventuru svých systémů a aplikací a prověřit, zda náhodou některý nepředstavuje zakázanou praktiku dle čl. 5 AI Act. Na rozdíl od povinností pro tzv. vysoce rizikové AI (které mají delší přechodné období na implementaci), zde nebyla dána žádná odkladná lhůta – zákaz platí a je vymahatelný už nyní (). V každém členském státě budou dozor nad dodržováním mít orgány dozoru nad trhem (market surveillance authorities) a případně další regulátoři (např. úřady na ochranu osobních údajů, pokud jde o biometrické AI). Ty mohou provádět kontroly a uložit sankce. Jak jsme zmínili, sankce nejsou zanedbatelné – až 35 milionů eur nebo 7 % ročního obratu firmy.
V případě porušení zákazu čl. 5. Pro srovnání, je to stejná úroveň sankcí jako nejzávažnější porušení GDPR. Finanční, právní i reputační riziko je tedy enormní, pokud by firma byť nevědomky provozovala zakázanou AI.
1. Identifikace AI systémů a posouzení rizika: Prvním krokem je zmapovat všechny AI systémy a projekty ve firmě. AI Act má poměrně širokou definici „systému AI“, která zahrnuje nejen strojové učení, ale i logické/expertí systémy, Bayesovské modely atd. (tj. jakýkoli software využívající autonomní inteligentní postup pro konkrétní úkol) (). U každého takového systému je potřeba vyhodnotit, do které rizikové kategorie spadá.
Pokud by spadal do kategorie zakázaných praktik (viz seznam výše a detailní popis), je nutno okamžitě přijmout opatření – buď systém zásadně upravit, nebo přestat používat. Naproti tomu AI systémy spadající do vysoce rizikových budou muset do doby použitelnosti AI Act (pravděpodobně 2026) projít posouzením shody a splnit řadu technických a organizačních požadavků, ale nemusí být vypnuty. Zakázané jsou však nekompromisní – ty se nesmí provozovat vůbec.
2. Zacílení na kritické oblasti: Zejména se firmy musí zaměřit na oblasti marketingu, HR, bezpečnosti a analýzy dat, kde hrozí, že některé inovativní AI nápady by mohly narazit na čl. 5.
3. Úprava nebo ukončení rizikových AI aktivit: Pokud identifikujete AI systém, který by mohl spadat do zakázané kategorie, je třeba okamžitě jednat.
4. Školení a interní směrnice: Zaveďte interní procesy, které zajistí, že nové AI projekty budou před nasazením posouzeny z hlediska souladu s AI Act (podobně jako dnes se posuzují projekty z hlediska ochrany osobních údajů – DPIA). Školte své vývojáře, product managery a další relevantní zaměstnance o zakázaných praktikách. Je důležité, aby lidé v týmu věděli, že např. nápad „pojďme analyzovat zákazníkovi výraz tváře webkamerou a dle toho měnit nabídku“ je z právního pohledu nepřijatelný. Vytvořte kodexy a směrnice pro vývoj AI ve firmě, které budou obsahovat checklist zakázaných oblastí – vývojáři tak mohou už v zárodku zjistit, že určitým směrem se ubírat nesmí.
5. Sledování dalšího vývoje regulace: Oblast AI je dynamická – AI Act zmocňuje Komisi, aby v budoucnu upravovala detaily (např. rozšíření seznamu zakázaných praktik může nastat, pokud se objeví nové nebezpečné trendy). Sledujte proto aktualizace legislativy i výkladů. Již nyní Komise vydává vedle pokynů k zakázaným praktikám také pokyny k definici AI systému či jiné metodiky. Advokátní kancelář vám může pomoci s průběžným monitoringem (viz níže).
Abychom si ukázali praktická opatření, uvádíme několik scénářů a doporučení, jak předcházet porušení zákazů:
Dodržováním výše uvedených zásad a doporučení mohou firmy minimalizovat riziko, že se nevědomky dopustí zakázané praktiky. Kromě toho získají důvěru zákazníků i regulátorů, že AI používají eticky a odpovědně – což je ostatně jedním z cílů AI Act.
Regulace AI v EU je nová a komplexní. Firmy často nemají interní experty, kteří by obsáhli všechny právní požadavky (AI Act, GDPR, kyberbezpečnostní předpisy aj.) a současně rozuměli technické stránce AI systémů. Advokátní kancelář specializující se na právo technologií může v této situaci sehrát klíčovou roli partnera, který pomůže klientům předcházet problémům a využít AI bezpečně.
Regulace AI v EU (AI Act) představuje pro firmy výzvu, ale s odbornou pomocí je možné se v ní úspěšně zorientovat. Zakázané praktiky AI definované v AI Act chrání nás všechny před nejnebezpečnějšími způsoby zneužití AI – a dodržovat je je v zájmu jak společnosti, tak i vašeho podnikání (porušení by vedlo k tvrdým sankcím a ztrátě dobré pověsti). Advokátní kancelář vám pomůže nastavit procesy compliance, abyste mohli využívat inovativní AI technologie a zároveň plně dodržet právní regulaci. Díky tomu se budete moci soustředit na rozvoj svých AI projektů s vědomím, že jsou legální, etické a bezpečné.
Zajímají vás legislativní novinky v roce 2025? Připravili jsme si pro vás webinář.