Umělá inteligence ve zdravotnictví se rozvíjí velmi rychle. Algoritmy dnes pomáhají lékařům vyhodnocovat rentgenové snímky, analyzovat laboratorní výsledky nebo navrhovat možné diagnózy.
Tyto technologie mohou výrazně urychlit a zpřesnit diagnostiku. Zároveň ale vyvolávají důležitou právní otázku: kdo nese odpovědnost, když se AI ve zdravotnictví zmýlí a pacientovi vznikne újma? Je to lékař, nemocnice, nebo výrobce software?
AI jako nástroj, nikoli náhrada lékaře
V současné medicíně funguje AI především jako podpůrný nástroj pro lékaře. Může navrhnout diagnózu nebo upozornit na rizikové nálezy, ale konečné rozhodnutí o léčbě zůstává vždy na lékaři.
Používání umělé inteligence proto nezbavuje lékaře jeho profesní odpovědnosti. Lékař musí i nadále postupovat tzv. lege artis – tedy odborně správně a v nejlepším zájmu pacienta. Pokud by lékař bez dalšího převzal závěr AI, který je v rozporu s ostatními informacemi o pacientovi, může nést odpovědnost za pochybení při poskytování zdravotní péče stejně jako v jiných případech medicínské chyby.
Musí být pacient informován o využití AI?
Otázka informování pacientů o používání umělé inteligence v medicíně zatím nemá vždy jednoznačnou odpověď. Pokud AI používá pouze lékař jako podpůrný nástroj, obvykle není nutné pacienta o této technologii zvlášť informovat. Informování pacienta je však vhodné zejména v situacích, když AI zpracovává osobní údaje o zdravotním stavu pacienta, a když je pacient sám uživatelem AI aplikace nebo zdravotnického chatbota. V takovém případě by měl být pacient alespoň rámcově seznámen s tím, že při poskytování služby je využívána umělá inteligence.
Odpovědnost zdravotnického zařízení
Pokud při poskytování zdravotní péče dojde k pochybení a pacientovi vznikne škoda, může za ni odpovídat zdravotnické zařízení. Podle občanského práva totiž platí, že kdo při plnění své povinnosti použije vadnou věc, odpovídá za škodu způsobenou její vadou. Toto pravidlo se vztahuje i na zdravotnické služby. V praxi tedy může nést odpovědnost například nemocnice nebo klinika, která při léčbě použila vadný AI software nebo chybný algoritmus.
Odpovědnost vývojáře AI systému
Z právního hlediska je AI systém považován za výrobek, i když jde pouze o software. Vývojář nebo dodavatel technologie tak může nést odpovědnost za vadný výrobek, pokud byla škoda způsobena například chybou v programování, nedostatečným testováním systému nebo trénováním algoritmu na nekvalitních datech.
Pro poškozeného pacienta však bývá v praxi obtížné prokázat, že právě vada algoritmu způsobila zdravotní újmu. Vývojář může například tvrdit, že software fungoval správně, ale uživatel zadal nesprávná vstupní data.
Přinese nová regulace jasnější pravidla?
Evropská regulace umělé inteligence známá jako AI Act zavádí nové povinnosti pro systémy využívající AI ve zdravotnictví. Tyto technologie budou většinou spadat mezi tzv. vysoce rizikové AI systémy.
To znamená především přísnější požadavky na testování a bezpečnost algoritmů, kvalitu trénovacích dat, dokumentaci a transparentnost systému nebo lidský dohled nad rozhodováním AI.
Z pohledu odškodnění pacienta však regulace zatím nepřináší zásadní změnu. Odpovědnost za škodu se bude i nadále posuzovat podle stávajících pravidel občanského práva. Nová regulace tak především zpřísňuje povinnosti vývojářů a provozovatelů AI a umožňuje ukládat vysoké pokuty za jejich porušení.
Co z toho plyne pro pacienty?
Pokud vznikne pacientovi újma v důsledku chyby umělé inteligence ve zdravotnictví, odpovědnost se může rozdělit mezi lékaře, případně zdravotnické zařízení, anebo vývojáře nebo dodavatele AI systému.
Každý případ je proto nutné posuzovat individuálně. Klíčové je zjistit, zda byla chyba způsobena lidským rozhodnutím, vadou technologie, nebo kombinací obojího. Lze očekávat, že s rostoucím využíváním umělé inteligence v medicíně bude otázka odpovědnosti za chybu AI stále častější a právně složitější.
Pokud řešíte problém nesprávné diagnózy nebo léčebného postupu, na kterém se mohlo podílet využití AI, tak se na nás neváhejte obrátit.
