Obserwuj nas na:
Pacjenci.pl > Zdaniem ekspertów > "Może zabić”. Lekarze ostrzegają przed ślepą wiarą w diagnozy AI
Anna Badurska
Anna Badurska 05.01.2026 15:54

"Może zabić”. Lekarze ostrzegają przed ślepą wiarą w diagnozy AI

"Może zabić”. Lekarze ostrzegają przed ślepą wiarą w diagnozy AI
Fot. Pexels

Przez lata symbolem trudnego pacjenta była osoba przychodząca na wizytę z plikiem wydruków z Google. Dziś lekarze mierzą się z nowym wyzwaniem: pacjentem uzbrojonym w analizę od ChatGPT czy Groka. Choć sztuczna inteligencja sprawia wrażenie nieomylnej i empatycznej, polscy medycy biją na alarm. Jeden z nich wprost ostrzega: ślepe zaufanie algorytmom „albo nie zadziała, albo zabije pacjenta”.

W polskich gabinetach lekarskich wrze. Coraz częściej zamiast opisu objawów, lekarze słyszą gotowe diagnozy wygenerowane przez modele językowe. Zjawisko to prowadzi do nowej osi napięcia – cyfrowej pewności siebie pacjenta zderzonej z latami doświadczenia klinicznego medyka.

  • Cyfrowa empatia lepsza od ludzkiej
  • Lekarze o eksperymentach na AI
  • Algorytm nie ponosi żadnej odpowiedzialności

leczenie biologiczne
 

Cyfrowa empatia: Dlaczego bot wygrywa z człowiekiem?

Głównym powodem, dla którego Polacy masowo „leczą się” u sztucznej inteligencji, nie jest tylko szybkość dostępu do informacji, ale sposób jej przekazu. Michał Podlewski na portalu X celnie punktuje to zjawisko:

„Dopiero zrozumiałem, czemu w kilku badaniach naukowych wyszło, że pacjenci postrzegali odpowiedzi AI jako bardziej empatyczne niż te udzielone przez lekarza”. 

Ta iluzja zrozumienia buduje złudne zaufanie – pacjent, który czuje się „wysłuchany” przez algorytm, zaczyna kwestionować zdanie lekarza, który w 15 minut musi postawić rzetelną diagnozę.

Zjawisko to jest szczególnie niebezpieczne w obszarze zdrowia psychicznego. Lek. Anna Bazydło, lekarka, rezydentka psychiatrii, często powołująca się w swoich mediach społecznościowych na zagrożenia jakie niesie AI, zauważa, że mechanizm działania chatbotów jest idealnie skrojony pod lęki pacjentów: 

„Rozmowy z przytakującymi na wszystko modelami językowymi już są wodą na młyn psychiatrii”. 

Pacjent szukający potwierdzenia swoich obaw u bota, który nigdy nie zaprzecza, wpada w spiralę autodiagnozy, z której lekarzowi bardzo trudno go później wyprowadzić.
 

„Albo zabije, albo nie zadziała” – lekarze o eksperymentach na AI

Medycy nie przyglądają się tej rewolucji biernie i sami testują narzędzia, którymi posiłkują się ich pacjenci. Jakub Kosikowski, rezydent onkologii klinicznej przeprowadził testy na trudnych przypadkach medycznych, a ich wyniki powinny być przestrogą dla każdego: 

„Na tą chwilę jakby zlecać leczenie zgodnie z odpowiedziami chatGPT, to albo leczenie będzie nieskuteczne, albo zabije pacjenta” – napisał na X.

Kosikowski dodaje ironicznie: „Czyli jeszcze mam robotę. Pytanie jak długo”.

To jednak nie tylko kwestia błędnych recept. Nowe funkcje AI, jak te wprowadzane przez model Grok, budzą przerażenie w kontekście zdrowia najmłodszych. Eksperci ostrzegają, że wyczyny sztucznej inteligencji (np. w zakresie generowania lub analizy obrazów) będą istotnie wpływać na stan psychiczny dzieci i młodzieży. Lekarze zadają kluczowe pytanie: gdzie kończy się pomoc, a gdzie zaczyna pole do popisu dla szarlatanów wykorzystujących technologię?

Algorytm nie bierze odpowiedzialności

Mimo że głosy takie jak Wojciecha Wiśniewskiego z Komitetu ds. Ochrony Zdrowia, jako członka Zarządu Fundacji Rzecznicy Zdrowia, przypominają, iż algorytmizacja może poprawiać skuteczność leczenia, to jednak pacjenci wciąż potrzebują kontaktu ze specjalistą. Kluczowym punktem sporu w gabinetach jest odpowiedzialność. Gdy pacjent domaga się leczenia zasugerowanego przez AI, zapomina o jednym: algorytm nie ponosi odpowiedzialności karnej ani cywilnej za błąd.

Konflikt narasta, gdy pacjent próbuje „negocjować” z lekarzem, opierając się na statystycznym prawdopodobieństwie wyliczonym przez bota. Dla medyka to sytuacja ekstremalnie trudna – musi on nie tylko leczyć, ale też walczyć z autorytetem „nieomylnej” maszyny, która dla pacjenta stała się powiernikiem tajemnic.

DEKALOG PACJENTA: Jak korzystać z AI i nie stracić zdrowia?

  1. AI nie widzi Twojego ciała. Algorytm operuje na tekście, nie widzi bladości skóry, nie słyszy świstów w płucach i nie zna Twojego zapachu.
  2. Potakiwanie to pułapka. Jak ostrzega Anna Bazydło, modele AI mają tendencję do zgadzania się z użytkownikiem, co w psychiatrii może pogłębiać zaburzenia.
  3. Ryzyko zgonu jest realne. Jakub Kosikowski wprost wskazuje, że leczenie według schematów ChatGPT w onkologii może zabić pacjenta.
  4. Brak odpowiedzialności prawnej. W razie tragedii po autodiagnozie AI, nie masz możliwości dochodzenia roszczeń od twórców oprogramowania.

Źródła:

  1. [Michał Podlewski (@trajektoriePL) o empatii AI w badaniach naukowych, portal X.
  2. Jakub Kosikowski (@kosik_md) o testach na przypadkach onkologicznych i ryzyku śmierci, portal X.
  3. Anna Bazydło (@a_bazydloMD) oraz Jakub Kosikowski o wpływie AI na psychiatrię dzieci i młodzieży, portal X.
Wybór Redakcji
zus
Koniec samowolki na L4. W 2026 roku ZUS zyska nowe narzędzia, tak Cię prześwietlą
pasożyty, jak z nimi walczyć?
Pasożyty nie cierpią tej przyprawy. Dodawaj ją do herbaty każdego dnia. Lekarz tłumaczy
Lekarz e-rejestracja
Rewolucja w rejestracji wizyt. Teraz tak umówisz się do lekarza specjalisty
Aktualne doniesienia medyczne: od onkologii po zdrowie dzieci
Neurolog mówi, co kocha mózg. Trzy kluczowe elementy dobrej pamięci
uzależnienie alkohol kobieta
Czy to już uzależnienie od alkoholu? Psychiatra Maja Herman mówi, kiedy szukać pomocy
Kobieta z półpaścem
Co wiesz o półpaścu?
Pacjenci.pl
Obserwuj nas na: