Sztuczna inteligencja w pracy lekarza – ryzyko i szansa

Sztuczna inteligencja w pracy lekarza – ryzyko i szansa

17 października 2025 0
pexels-onewayupfusion-2085831-1200x800.jpg

W dacie opracowania niniejszego artykułu (październik 2025) nadal nie ma polskich regulacji prawnych związanych ze stosowaniem sztucznej inteligencji podczas udzielania świadczeń opieki zdrowotnej.

W tym zakresie dla lekarzy istotne znaczenie ma art. 12 Kodeksu Etyki Lekarskiej, który obowiązuje od 1 stycznia 2025r.

Zgodnie z jego treścią lekarz może w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym korzystać z algorytmów sztucznej inteligencji przy spełnieniu następujących warunków:

1) poinformowania pacjenta, że przy stawianiu diagnozy lub w procesie terapeutycznym będzie wykorzystana sztuczna inteligencja;
2) uzyskania świadomej zgody pacjenta na zastosowanie sztucznej inteligencji w procesie diagnostycznym lub terapeutycznym;
3) zastosowania algorytmów sztucznej inteligencji, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty;
4) ostateczną decyzję diagnostyczną i terapeutyczną zawsze podejmuje lekarz.

istotne wątpliwości

Powyższa regulacja zmusza do zgłoszenia fundamentalnych wątpliwości i zadania sobie pytań:

– jaki powinien być zakres informacji przed uzyskaniem świadomej zgody pacjenta na zastosowanie sztucznej inteligencji ?

co w sytuacji, gdy pacjent nie wyrazi zgody na zastosowanie sztucznej inteligencji ?

– jak powinien zachować się lekarz, gdy pacjent cofnie ww. zgodę na stosowanie sztucznej inteligencji w trakcie leczenia?

– kto będzie dopuszczał „do użytku medycznego” algorytmy sztucznej inteligencji i nadawał odpowiednie certyfikaty?

czy ktoś kontroluje i weryfikuje prawidłowość działania algorytmów sztucznej inteligencji w medycynie?

– czy stosowanie przez lekarza algorytmów sztucznej inteligencji jest obecnie zabronione w trakcie diagnostyki / leczenia – z uwagi na brak definicji prawnej „algorytmów sztucznej inteligencji” oraz instytucji, która dopuszcza „do użytku medycznego” ?

ryzyko

Podstawowym ryzykiem związanym ze stosowaniem sztucznej inteligencji jest zbytnie „zawierzenie” algorytmowi. Słusznie ww. art. 12 KEL wskazuje, że ostateczną decyzję diagnostyczną i terapeutyczną zawsze podejmuje lekarz, która oznacza, że lekarz będzie ponosił pełna odpowiedzialność za ewentualne błędy algorytmów sztucznej inteligencji w trakcie diagnostyki i leczenia,

Łatwo wyobrazić sobie błędny opis zdjęcia obrazowego czy błędną diagnozę wykonaną przez sztuczną inteligencję wskazująca na rzekomą chorobę nowotworową / inne poważne schorzenie, powtórzoną pacjentowi przez lekarza. Może to prowadzić do obawy pacjenta o własne życie i zdrowie, a nawet do pogorszenia stanu zdrowia pacjenta, gdy dopiero później okaże się, że ww. diagnoza była błędna. Brak szczegółowych polskich przepisów i dobrej praktyki stosowania „otwiera” drogę do roszczeń cywilnych po stronie pacjenta, w szczególności domagania się zapłaty dużej kwoty tytułem zadośćuczynienia pieniężnego za krzywdę polegającą na wzbudzeniu nieuzasadnionego lęku o zdrowie i życie.

Możliwa jest także sytuacja odwrotna, gdy sztuczna inteligencja oceni dane zdjęcie obrazowe i wyniki badań jak dobre, a lekarz na tej podstawie nie rozpocznie dalszej diagnostyki lub innych koniecznych działań, a dopiero później okaże się, że skutkiem tego był np. rozwój choroby nowotworowej, czy trwałe nieodwracalne uszkodzenie ciała. W grę wchodzić może odpowiedzialność karna za spowodowanie ciężkiego uszczerbku na zdrowiu z art. 156 k.k. (zagrożone karą pozbawienia wolności od lat 3 do 20), czy narażenia pacjenta na bezpośrednie niebezpieczeństwo utraty życia albo ciężkiego uszczerbku na zdrowiu z art. 160 k.k. (zagrożone karą pozbawienia wolności od 3 miesięcy do 5 lat).

Nadto brak przepisów regulujących korzystanie ze sztucznej inteligencji może prowadzić do naruszenia zasad ochrony danych o stanie zdrowia oraz zagrożenia bezpieczeństwa i poufności w relacji pacjent – lekarz. Dane o stanie zdrowia „transferowane” do bliżej nieokreślonych systemów teleinformatycznych, serwerów, czy baz danych mogą przecież naruszać prywatność pacjenta i prawo do zachowania w tajemnicy informacji z nim związanych (art. 13 ustawy z 06.11.2008r. o prawach pacjenta i Rzeczniku Praw Pacjenta), narażać go na ryzyko, że ww. informacje trafią – bez wyraźnej i jednoznacznej zgody pacjenta do osób lub instytucji niepowołanych do posiadania, czy zarządzania takimi danymi (np. prywatne zakłady ubezpieczeń, firmy farmaceutyczne itd.).

adw. Karol Kolankiewicz

artykuł został pierwotnie opublikowany na stronie Okręgowej Izby Lekarskiej w Gdańsku  

 

————————-
Karol Kolankiewicz, adwokat; specjalizuje się w sprawach związanych z prawem medycznym, prawem karnym i ochroną danych osobowych. Od 2009r. prowadzi szkolenia z zakresu prawa medycznego m. in. dla Ośrodka Kształcenia NIL;

Ekspert – autor ponad 20 praktycznych kursów e-learningow’ych dla Receptanaprawo.pl, w tym:

Jakie informacje dla pacjenta ma obowiązek zamieścić placówka medyczna„, „Rejestracja medyczna – jakość usług i bezpieczeństwo pacjenta„, „Lekarz wobec agresji – ochrona w prawie karnym”, „5 najczęstszych błędów personelu w toku realizacji kontraktu z NFZ„, „Teleporada – jak unikać błędów przy udzielaniu świadczeń zdrowotnych?”,  „Kiedy lekarz może odstąpić od leczenia?”, czy „Rejestracja medyczna – podstawowe obowiązki i zadania

Współautor praktycznych publikacji m.in.:

„Jak bezpiecznie udostępniać dokumentację medyczną” (2024),

„Prawo medyczne dla lekarzy. Wybrane zagadnienia” (2021),

Gdy pacjent wzywa do zapłaty – jak się bronić przed roszczeniami? (2024)

ISPOZ 2017. Wszystkie prawa zastrzeżone.