"Może zabić”. Lekarze ostrzegają przed ślepą wiarą w diagnozy AI
Przez lata symbolem trudnego pacjenta była osoba przychodząca na wizytę z plikiem wydruków z Google. Dziś lekarze mierzą się z nowym wyzwaniem: pacjentem uzbrojonym w analizę od ChatGPT czy Groka. Choć sztuczna inteligencja sprawia wrażenie nieomylnej i empatycznej, polscy medycy biją na alarm. Jeden z nich wprost ostrzega: ślepe zaufanie algorytmom „albo nie zadziała, albo zabije pacjenta”.
W polskich gabinetach lekarskich wrze. Coraz częściej zamiast opisu objawów, lekarze słyszą gotowe diagnozy wygenerowane przez modele językowe. Zjawisko to prowadzi do nowej osi napięcia – cyfrowej pewności siebie pacjenta zderzonej z latami doświadczenia klinicznego medyka.
- Cyfrowa empatia lepsza od ludzkiej
- Lekarze o eksperymentach na AI
- Algorytm nie ponosi żadnej odpowiedzialności

Cyfrowa empatia: Dlaczego bot wygrywa z człowiekiem?
Głównym powodem, dla którego Polacy masowo „leczą się” u sztucznej inteligencji, nie jest tylko szybkość dostępu do informacji, ale sposób jej przekazu. Michał Podlewski na portalu X celnie punktuje to zjawisko:
„Dopiero zrozumiałem, czemu w kilku badaniach naukowych wyszło, że pacjenci postrzegali odpowiedzi AI jako bardziej empatyczne niż te udzielone przez lekarza”.
Ta iluzja zrozumienia buduje złudne zaufanie – pacjent, który czuje się „wysłuchany” przez algorytm, zaczyna kwestionować zdanie lekarza, który w 15 minut musi postawić rzetelną diagnozę.
Zjawisko to jest szczególnie niebezpieczne w obszarze zdrowia psychicznego. Lek. Anna Bazydło, lekarka, rezydentka psychiatrii, często powołująca się w swoich mediach społecznościowych na zagrożenia jakie niesie AI, zauważa, że mechanizm działania chatbotów jest idealnie skrojony pod lęki pacjentów:
„Rozmowy z przytakującymi na wszystko modelami językowymi już są wodą na młyn psychiatrii”.
Pacjent szukający potwierdzenia swoich obaw u bota, który nigdy nie zaprzecza, wpada w spiralę autodiagnozy, z której lekarzowi bardzo trudno go później wyprowadzić.
„Albo zabije, albo nie zadziała” – lekarze o eksperymentach na AI
Medycy nie przyglądają się tej rewolucji biernie i sami testują narzędzia, którymi posiłkują się ich pacjenci. Jakub Kosikowski, rezydent onkologii klinicznej przeprowadził testy na trudnych przypadkach medycznych, a ich wyniki powinny być przestrogą dla każdego:
„Na tą chwilę jakby zlecać leczenie zgodnie z odpowiedziami chatGPT, to albo leczenie będzie nieskuteczne, albo zabije pacjenta” – napisał na X.
Kosikowski dodaje ironicznie: „Czyli jeszcze mam robotę. Pytanie jak długo”.
To jednak nie tylko kwestia błędnych recept. Nowe funkcje AI, jak te wprowadzane przez model Grok, budzą przerażenie w kontekście zdrowia najmłodszych. Eksperci ostrzegają, że wyczyny sztucznej inteligencji (np. w zakresie generowania lub analizy obrazów) będą istotnie wpływać na stan psychiczny dzieci i młodzieży. Lekarze zadają kluczowe pytanie: gdzie kończy się pomoc, a gdzie zaczyna pole do popisu dla szarlatanów wykorzystujących technologię?
Algorytm nie bierze odpowiedzialności
Mimo że głosy takie jak Wojciecha Wiśniewskiego z Komitetu ds. Ochrony Zdrowia, jako członka Zarządu Fundacji Rzecznicy Zdrowia, przypominają, iż algorytmizacja może poprawiać skuteczność leczenia, to jednak pacjenci wciąż potrzebują kontaktu ze specjalistą. Kluczowym punktem sporu w gabinetach jest odpowiedzialność. Gdy pacjent domaga się leczenia zasugerowanego przez AI, zapomina o jednym: algorytm nie ponosi odpowiedzialności karnej ani cywilnej za błąd.
Konflikt narasta, gdy pacjent próbuje „negocjować” z lekarzem, opierając się na statystycznym prawdopodobieństwie wyliczonym przez bota. Dla medyka to sytuacja ekstremalnie trudna – musi on nie tylko leczyć, ale też walczyć z autorytetem „nieomylnej” maszyny, która dla pacjenta stała się powiernikiem tajemnic.
DEKALOG PACJENTA: Jak korzystać z AI i nie stracić zdrowia?
- AI nie widzi Twojego ciała. Algorytm operuje na tekście, nie widzi bladości skóry, nie słyszy świstów w płucach i nie zna Twojego zapachu.
- Potakiwanie to pułapka. Jak ostrzega Anna Bazydło, modele AI mają tendencję do zgadzania się z użytkownikiem, co w psychiatrii może pogłębiać zaburzenia.
- Ryzyko zgonu jest realne. Jakub Kosikowski wprost wskazuje, że leczenie według schematów ChatGPT w onkologii może zabić pacjenta.
- Brak odpowiedzialności prawnej. W razie tragedii po autodiagnozie AI, nie masz możliwości dochodzenia roszczeń od twórców oprogramowania.
Źródła:
- [Michał Podlewski (@trajektoriePL) o empatii AI w badaniach naukowych, portal X.
- Jakub Kosikowski (@kosik_md) o testach na przypadkach onkologicznych i ryzyku śmierci, portal X.
- Anna Bazydło (@a_bazydloMD) oraz Jakub Kosikowski o wpływie AI na psychiatrię dzieci i młodzieży, portal X.