
Umělá inteligence (AI) se stává hybnou silou inovací v mnoha odvětvích a farmaceutický průmysl není výjimkou. Od vývoje nových léků po optimalizaci klinických studií – AI nabízí revoluční možnosti. S těmito příležitostmi však ruku v ruce přichází i komplexní právní výzvy. Jako potenciální klienti advokátních kanceláří si možná kladete otázku: Jak se v této rychle se vyvíjející oblasti orientovat a minimalizovat rizika?
Autor článku: ARROWS advokátní kancelář (JUDr. Jakub Dohnal, Ph.D., LL.M., office@arws.cz, +420 245 007 740)
Představte si, že je možné zkrátit roky výzkumu a vývoje léků na pouhé měsíce. AI dokáže analyzovat obrovské objemy dat, identifikovat potenciální molekuly, předpovídat jejich účinky a optimalizovat výrobní procesy s dříve netušenou efektivitou. To nejen urychluje uvádění inovativních léčiv na trh, ale také snižuje náklady a zpřístupňuje medicínu širšímu okruhu pacientů. Pro farmaceutické společnosti to znamená konkurenční výhodu a pro pacienty naději na dříve nedostupné terapie.
AI má potenciál transformovat každý krok cesty léčiva:
Ačkoli jsou přínosy AI nepopiratelné, s jejich nástupem se objevují i otázky, na které současná právní úprava často nemá jednoznačné odpovědi. Právě zde se setkáváme s největšími výzvami pro vaše podnikání.
1. Odpovědnost za vadné léčivo vyvinuté AI: Kdo ponese následky?
Představte si situaci, kdy AI navrhne lék, který se po uvedení na trh ukáže jako škodlivý. Kdo je v tomto případě odpovědný? Je to vývojář AI? Farmaceutická společnost, která lék vyrobila a uvedla na trh? Nebo programátor, který AI systém napsal? Tato otázka je zásadní a její řešení je klíčové pro důvěru v AI v medicíně.
Česká a evropská legislativa týkající se odpovědnosti za vadné výrobky je komplexní. Běžně se uplatňuje objektivní odpovědnost výrobce, což znamená, že nemusí být prokázána jeho chyba. Avšak s AI se objevuje otázka, kdo je skutečným „výrobcem“ v kontextu autonomního rozhodování systému. Pokud by se prokázalo, že AI systém udělal „chybu“, je nutné posoudit, zda jde o chybu v designu, v datech, na kterých se AI učila, nebo v samotném algoritmu. Je AI nástrojem, nebo samostatným aktérem? A co když je chyba ve výsledku složité interakce mezi více AI systémy nebo mezi AI a člověkem?
Rizika a pokuty: Špatné určení odpovědnosti může vést k obrovským finančním sankcím, které mohou paralyzovat i velké společnosti. Dále hrozí poškození reputace firmy, které se buduje roky a může být zničeno během několika dnů. V krajním případě může dojít i k trestněprávní odpovědnosti pro jednotlivce odpovědné za uvedení vadného produktu na trh. Je klíčové mít jasno v tom, jaká rizika nesete a jak se proti nim efektivně bránit.
Právníci ARROWS se s problematikou odpovědnosti za vadné výrobky, včetně těch s AI komponenty, setkávají denně a jsou připraveni vám pomoci orientovat se v těchto složitých otázkách. Díky našim zkušenostem umíme identifikovat slabá místa ve smluvních ujednáních a navrhnout řešení, která minimalizují vaše rizika.
2. Duševní vlastnictví: Komu patří výtvor AI?
AI systémy jsou schopny generovat nové molekuly, algoritmy, postupy, ale dokonce i celé terapeutické plány. Kdo je pak vlastníkem duševního vlastnictví k těmto výtvorům? Může být AI autorem patentu?
Současné patentové právo je založeno na konceptu lidského vynálezce. Koncept „vynálezu“ nebo „díla“ vytvořeného AI je novinkou, která vyžaduje přehodnocení. Většina jurisdikcí v současnosti uznává za autora nebo vynálezce pouze fyzickou osobu. To znamená, že pokud AI vytvoří něco unikátního bez významného lidského zásahu, právní ochrana je nejistá. Bez jasného vlastnictví duševního vlastnictví hrozí ztráta investic do výzkumu a vývoje a právní spory s konkurenty, kteří by mohli vaše inovace volně využívat.
Rizika a pokuty: Nejistota v oblasti duševního vlastnictví může vést k arbitrážím, soudním sporům a ztrátě cenných inovací, pokud nebudou vaše práva řádně chráněna. Představte si, že AI objeví průlomovou molekulu, ale vy ji nemůžete patentovat, protože nevíte, kdo je „vynálezce“. Tím byste ztratili exkluzivitu a masivní investice.
S právníky ARROWS se můžete poradit, jak si zajistit ochranu duševního vlastnictví i v době, kdy hranice mezi lidským a strojovým tvořením mizí. Pomáháme klientům s vytvářením robustních smluvních rámců s vývojáři AI, které jasně definují vlastnictví IP práv k výstupům AI, a zároveň sledujeme vývoj v této oblasti, abychom pro vás nalezli nejlepší možná řešení.
3. Ochrana osobních údajů a kybernetická bezpečnost: Citlivá data v rukou AI
Farmaceutický výzkum a vývoj často pracuje s extrémně citlivými osobními údaji pacientů, včetně zdravotní historie, genetických informací, výsledků léčby a biometrických dat. AI systémy tyto údaje analyzují ve velkém měřítku, což s sebou nese obrovská rizika z hlediska ochrany osobních údajů (GDPR) a kybernetické bezpečnosti.
Nařízení GDPR klade přísné požadavky na zpracování osobních údajů, zejména těch citlivých. Patří sem principy minimalizace dat, účelového omezení, přesnosti, transparentnosti a odpovědnosti. Použití AI v medicíně často zahrnuje zpracování obrovských datových souborů, což zvyšuje riziko úniku dat, zneužití nebo neoprávněného přístupu.
Rizika a pokuty: Porušení GDPR může vést k astronomickým pokutám – až do výše 20 milionů EUR nebo 4 % celkového ročního obratu podniku, podle toho, která částka je vyšší. Kromě toho hrozí i poškození reputace a ztráta důvěry pacientů a partnerů, což může mít dlouhodobé negativní dopady na vaše podnikání. Zabezpečení dat před kybernetickými útoky je naprosto klíčové. Každý únik dat nebo kybernetický incident může mít fatální následky. Představte si, že by se dostaly na veřejnost citlivé zdravotní záznamy tisíců pacientů. Je to noční můra každé společnosti a hrozba, kterou je nutné brát velmi vážně.
Právníci ARROWS jsou experti na problematiku ochrany osobních údajů a kybernetické bezpečnosti a pomohou vám nastavit robustní systémy a procesy, abyste se vyhnuli těmto rizikům. Běžně řešíme otázky souladu s GDPR ve farmaceutickém průmyslu a s implementací AI, včetně vypracování posouzení vlivu na ochranu osobních údajů (DPIA), která jsou často nezbytná pro AI systémy pracující s citlivými daty.
4. Etické aspekty a diskriminace: Spravedlnost v algoritmickém světě
Kromě právních otázek přináší AI ve farmaceutickém průmyslu i řadu hlubokých etických dilemat, které je třeba aktivně řešit.
Algoritmy AI se učí z dat. Pokud jsou tato data zkreslená, neúplná nebo nereprezentativní, může AI reprodukovat, nebo dokonce prohlubovat existující diskriminaci a předsudky, které jsou v datech obsaženy. Například, pokud se AI učí z dat, která nereprezentují různé etnické skupiny, věkové kategorie nebo pohlaví, může se stát, že léčba navržená AI bude méně účinná pro některé populace nebo povede k chybným diagnózám. To vyvolává vážné etické otázky a může vést k právním sporům na základě diskriminace.
Zaujatost v AI modelech je velkým problémem, zejména ve zdravotnictví, protože systémy trénované na zkreslených nebo nereprezentativních datech mohou produkovat zkreslené výsledky, což vede k nerovnostem v diagnostice, léčbě a objevování léčiv.
Pokud je AI model postaven nebo trénován na zkreslených datech, může tato zkreslení projevovat ve svých výstupech a zhoršovat stávající nerovnosti. Pro zmírnění těchto rizik musí být AI modely trénovány na rozmanitých a reprezentativních datových souborech.
Je také důležité zajistit, aby procesy rozhodování AI byly transparentní a vysvětlitelné. Jedním z hlavních problémů je problém tzv. „černé skříňky“, kdy systémy AI, zejména modely hlubokého učení, fungují jako „černé skříňky“. To znamená, že jejich rozhodovací procesy jsou neprůhledné a pro člověka obtížně pochopitelné. Tato nedostatečná transparentnost je v medicíně obzvláště problematická, protože kliničtí pracovníci potřebují chápat, jak AI systémy dospěly ke svým doporučením, aby zajistili bezpečnost pacienta.
Koncept „černé skříňky“ AI, kde není jasné, jak systém dospěl k určitému rozhodnutí, je v medicíně nepřijatelný. Co když AI „rozhodne“ o tom, že určitý pacient nedostane specifickou léčbu? Jak můžeme zajistit, že toto rozhodnutí je spravedlivé, etické a odůvodnitelné? Pacienti i lékaři potřebují důvěru v to, že rozhodnutí AI jsou objektivní a založená na nejlepších dostupných informacích.
Pro zmírnění rizik a otázek odpovědnosti je klíčový lidský dohled neboli model „člověk ve smyčce“ (human-in-the-loop). EU AI Act vyžaduje, aby vysoce rizikové AI systémy podléhaly odpovídajícímu lidskému dohledu. To znamená, že lidé musí mít schopnost a pravomoc změnit rozhodnutí AI a zajistit, aby dohled byl smysluplný, nikoli jen symbolický. Ve farmaceutickém průmyslu musí AI doplňovat (nikoli nahrazovat) klinický a regulační úsudek.
Rizika a pokuty: Diskriminace je nejen eticky nepřijatelná, ale také trestná podle antidiskriminačních zákonů. Může vést k žalobám, obrovským pokutám a nenapravitelnému poškození pověsti. Je nezbytné zajistit, aby systémy AI byly navrženy a testovány tak, aby minimalizovaly riziko diskriminace a byly v souladu s etickými standardy. To zahrnuje pečlivý výběr a validaci trénovacích dat, transparentní algoritmy a mechanismy pro lidský dohled a kontrolu.
V ARROWS se zaměřujeme na etické aspekty AI a pomáháme klientům vyhnout se pastem spojeným s algoritmickou diskriminací, a to i prostřednictvím etických auditů AI systémů.
5. Regulace a schvalovací procesy: Nová pravidla pro nové technologie
Stávající regulační rámce pro schvalování léčiv a zdravotnických prostředků byly navrženy pro tradiční farmaceutický výzkum a vývoj. Příchod AI však vyžaduje jejich aktualizaci a přizpůsobení. Jak zajistit, že léky vyvinuté nebo testované AI jsou bezpečné a účinné? Jak ověřovat a validovat algoritmy, které se mohou v čase učit a měnit své chování? Existující klinické testy a postupy validace nemusí být pro AI dostatečné.
V rámci Nařízení o umělé inteligenci (AI Act), které má komplexně regulovat AI systémy s různou úrovní rizika budou systémy AI používané v medicíně a pro vývoj léčiv pravděpodobně spadat do kategorie „vysoce rizikových“, což znamená přísnější požadavky na transparentnost, lidský dohled, přesnost, kybernetickou bezpečnost a posuzování shody před uvedením na trh. Splnění těchto požadavků bude vyžadovat značné úsilí a investice.
Rizika a pokuty: Nedodržení nových regulačních požadavků může vést k zamítnutí schválení léčiv (což může znamenat ztrátu stovek milionů až miliard investic do vývoje), stažení produktů z trhu a masivním pokutám. Je nezbytné být připraven na tyto změny a proaktivně přizpůsobit vaše procesy výzkumu, vývoje a schvalování.
S právníky ARROWS budete mít vždy aktuální informace o nejnovějších regulačních změnách a budete moci včas reagovat. Právníci ARROWS neustále sledují vývoj regulace AI a její dopady na farmaceutický průmysl, a to jak na úrovni EU, tak i národní legislativy. Můžeme vám pomoci s interpretací nových předpisů a s přípravou na certifikační a schvalovací procesy.
Ačkoliv se právní krajina AI v léčivech teprve formuje, jedno je jasné: pasivní přístup se nevyplatí. Naopak, proaktivní právní poradenství vám umožní nejen minimalizovat rizika, ale také plně využít potenciál, který AI v medicíně nabízí.
Co byste měli zvážit a jak vám mohou právníci ARROWS pomoci?
Umělá inteligence v léčivech není hudbou budoucnosti, ale dynamickou realitou dneška. Ti, kdo včas pochopí a zvládnou právní výzvy, které s sebou přináší, získají obrovskou konkurenční výhodu. Budou schopni inovovat rychleji, efektivněji a s menšími riziky. Ti, kdo budou váhat, riskují ztrátu tržního podílu a potenciální právní potíže, které mohou ohrozit celou jejich existenci.
V ARROWS chápeme, že se v této rychle se měnící oblasti cítíte možná nejistí. Naším posláním je být vaším spolehlivým partnerem, který vám pomůže proplout složitostmi právní regulace AI. Jsme připraveni vás podpořit ve všech fázích – od strategického plánování a nastavení procesů, přes řešení konkrétních právních problémů, až po zastupování v případných sporech. Jsme vaší pojistkou pro inovace.
Nečekejte, až se problémy objeví. Buďte o krok napřed. Investice do právního poradenství v oblasti AI se vám mnohonásobně vrátí v podobě minimalizovaných rizik a maximálního využití potenciálu, který AI v medicíně nabízí.
Nechcete tenhle problém řešit sami? Věří nám více než 2000 klientů a jsme oceněni jako Právnická firma roku 2024. Podívejte se ZDE na naše reference.