Obserwuj nas na:
Pacjenci.pl > Zdaniem ekspertów > "Może zabić”. Lekarze ostrzegają przed ślepą wiarą w diagnozy AI
Anna Badurska
Anna Badurska 05.01.2026 15:54

"Może zabić”. Lekarze ostrzegają przed ślepą wiarą w diagnozy AI

"Może zabić”. Lekarze ostrzegają przed ślepą wiarą w diagnozy AI
Fot. Pexels

Przez lata symbolem trudnego pacjenta była osoba przychodząca na wizytę z plikiem wydruków z Google. Dziś lekarze mierzą się z nowym wyzwaniem: pacjentem uzbrojonym w analizę od ChatGPT czy Groka. Choć sztuczna inteligencja sprawia wrażenie nieomylnej i empatycznej, polscy medycy biją na alarm. Jeden z nich wprost ostrzega: ślepe zaufanie algorytmom „albo nie zadziała, albo zabije pacjenta”.

W polskich gabinetach lekarskich wrze. Coraz częściej zamiast opisu objawów, lekarze słyszą gotowe diagnozy wygenerowane przez modele językowe. Zjawisko to prowadzi do nowej osi napięcia – cyfrowej pewności siebie pacjenta zderzonej z latami doświadczenia klinicznego medyka.

  • Cyfrowa empatia lepsza od ludzkiej
  • Lekarze o eksperymentach na AI
  • Algorytm nie ponosi żadnej odpowiedzialności

leczenie biologiczne
 

Cyfrowa empatia: Dlaczego bot wygrywa z człowiekiem?

Głównym powodem, dla którego Polacy masowo „leczą się” u sztucznej inteligencji, nie jest tylko szybkość dostępu do informacji, ale sposób jej przekazu. Michał Podlewski na portalu X celnie punktuje to zjawisko:

„Dopiero zrozumiałem, czemu w kilku badaniach naukowych wyszło, że pacjenci postrzegali odpowiedzi AI jako bardziej empatyczne niż te udzielone przez lekarza”. 

Ta iluzja zrozumienia buduje złudne zaufanie – pacjent, który czuje się „wysłuchany” przez algorytm, zaczyna kwestionować zdanie lekarza, który w 15 minut musi postawić rzetelną diagnozę.

Zjawisko to jest szczególnie niebezpieczne w obszarze zdrowia psychicznego. Lek. Anna Bazydło, lekarka, rezydentka psychiatrii, często powołująca się w swoich mediach społecznościowych na zagrożenia jakie niesie AI, zauważa, że mechanizm działania chatbotów jest idealnie skrojony pod lęki pacjentów: 

„Rozmowy z przytakującymi na wszystko modelami językowymi już są wodą na młyn psychiatrii”. 

Pacjent szukający potwierdzenia swoich obaw u bota, który nigdy nie zaprzecza, wpada w spiralę autodiagnozy, z której lekarzowi bardzo trudno go później wyprowadzić.
 

„Albo zabije, albo nie zadziała” – lekarze o eksperymentach na AI

Medycy nie przyglądają się tej rewolucji biernie i sami testują narzędzia, którymi posiłkują się ich pacjenci. Jakub Kosikowski, rezydent onkologii klinicznej przeprowadził testy na trudnych przypadkach medycznych, a ich wyniki powinny być przestrogą dla każdego: 

„Na tą chwilę jakby zlecać leczenie zgodnie z odpowiedziami chatGPT, to albo leczenie będzie nieskuteczne, albo zabije pacjenta” – napisał na X.

Kosikowski dodaje ironicznie: „Czyli jeszcze mam robotę. Pytanie jak długo”.

To jednak nie tylko kwestia błędnych recept. Nowe funkcje AI, jak te wprowadzane przez model Grok, budzą przerażenie w kontekście zdrowia najmłodszych. Eksperci ostrzegają, że wyczyny sztucznej inteligencji (np. w zakresie generowania lub analizy obrazów) będą istotnie wpływać na stan psychiczny dzieci i młodzieży. Lekarze zadają kluczowe pytanie: gdzie kończy się pomoc, a gdzie zaczyna pole do popisu dla szarlatanów wykorzystujących technologię?

Algorytm nie bierze odpowiedzialności

Mimo że głosy takie jak Wojciecha Wiśniewskiego z Komitetu ds. Ochrony Zdrowia, jako członka Zarządu Fundacji Rzecznicy Zdrowia, przypominają, iż algorytmizacja może poprawiać skuteczność leczenia, to jednak pacjenci wciąż potrzebują kontaktu ze specjalistą. Kluczowym punktem sporu w gabinetach jest odpowiedzialność. Gdy pacjent domaga się leczenia zasugerowanego przez AI, zapomina o jednym: algorytm nie ponosi odpowiedzialności karnej ani cywilnej za błąd.

Konflikt narasta, gdy pacjent próbuje „negocjować” z lekarzem, opierając się na statystycznym prawdopodobieństwie wyliczonym przez bota. Dla medyka to sytuacja ekstremalnie trudna – musi on nie tylko leczyć, ale też walczyć z autorytetem „nieomylnej” maszyny, która dla pacjenta stała się powiernikiem tajemnic.

DEKALOG PACJENTA: Jak korzystać z AI i nie stracić zdrowia?

  1. AI nie widzi Twojego ciała. Algorytm operuje na tekście, nie widzi bladości skóry, nie słyszy świstów w płucach i nie zna Twojego zapachu.
  2. Potakiwanie to pułapka. Jak ostrzega Anna Bazydło, modele AI mają tendencję do zgadzania się z użytkownikiem, co w psychiatrii może pogłębiać zaburzenia.
  3. Ryzyko zgonu jest realne. Jakub Kosikowski wprost wskazuje, że leczenie według schematów ChatGPT w onkologii może zabić pacjenta.
  4. Brak odpowiedzialności prawnej. W razie tragedii po autodiagnozie AI, nie masz możliwości dochodzenia roszczeń od twórców oprogramowania.

Źródła:

  1. [Michał Podlewski (@trajektoriePL) o empatii AI w badaniach naukowych, portal X.
  2. Jakub Kosikowski (@kosik_md) o testach na przypadkach onkologicznych i ryzyku śmierci, portal X.
  3. Anna Bazydło (@a_bazydloMD) oraz Jakub Kosikowski o wpływie AI na psychiatrię dzieci i młodzieży, portal X.
Wybór Redakcji
zus
Koniec samowolki na L4. W 2026 roku ZUS zyska nowe narzędzia, tak Cię prześwietlą
ADHD
Leki na ADHD nie działają tak, jak przez lata sądzono. Nowe badania dają do myślenia
Lekarz e-rejestracja
Rewolucja w rejestracji wizyt. Teraz tak umówisz się do lekarza specjalisty
Donald Trump
Donald Trump chce „ładnej, rzadkiej krwi”. Nie słucha lekarzy
Rak płuca – statystyki, objawy i kluczowa rola profilaktyki
Słyszysz to przy oddychaniu lub kaszlu? Rak płuca potrafi „dawać o sobie znać” dźwiękiem
Kobieta z półpaścem
Co wiesz o półpaścu?
Pacjenci.pl
Obserwuj nas na: