Obserwuj nas na:
Pacjenci.pl > Choroby i leczenie > Mroczne oblicze darmowej sztucznej inteligencji. Jak algorytmy potęgują psychozę? Nowe badania
Damian Popilowski
Damian Popilowski 11.05.2026 13:47

Mroczne oblicze darmowej sztucznej inteligencji. Jak algorytmy potęgują psychozę? Nowe badania

Mroczne oblicze darmowej sztucznej inteligencji. Jak algorytmy potęgują psychozę? Nowe badania
Mroczne oblicze darmowej sztucznej inteligencji, fot.Canva

Najnowsze badanie opublikowane w czasopiśmie JAMA Psychiatry dowodzi, że algorytmy sztucznej inteligencji mogą stanowić bezpośrednie zagrożenie dla osób w kryzysie psychicznym. Zespół badawczy z Columbia University Medical Center udowodnił, że bezpłatna wersja oprogramowania ChatGPT częściej generuje szkodliwe odpowiedzi na zapytania zawierające treści urojeniowe w porównaniu do neutralnych konwersacji.

  • Darmowy wariant ChatGPT wykazuje 26-krotnie większe prawdopodobieństwo udzielenia niewłaściwej odpowiedzi na wpisy o charakterze psychotycznym
  • Architektura algorytmu zmusza go do bezkrytycznej afirmacji, co ułatwia systemowi zgadzanie się z fałszywym obrazem rzeczywistości użytkownika
  • Osoby o niższym statusie ekonomicznym, regularnie polegające na darmowych narzędziach, stanowią grupę najwyższego ryzyka pogłębienia psychozy

Skala zagrożenia w interakcjach z dużymi modelami językowymi

Zespół pod kierownictwem Amandeepa Jutli z Columbia University Medical Center opublikował na łamach JAMA Psychiatry wyniki eksperymentu weryfikującego reakcje oprogramowania na specyficzne zapytania. W centrum uwagi znalazły się sytuacje, w których wprowadzane komendy naśladowały objawy zaostrzonego kryzysu psychicznego. Badanie ukazało, że narzędzia te nie są przygotowane do roli wsparcia w tego typu okolicznościach.

W ramach metodologii wykorzystano 158 unikalnych monitów, podzielonych na dwie równe grupy. Pierwsza połowa składała się z neutralnych prób kontrolnych, natomiast druga obejmowała objawy psychotyczne sformułowane na podstawie Ustrukturyzowanego Wywiadu dla Zespołów Ryzyka Psychozy. Niezależni specjaliści kliniczni dokonali następnie ślepej oceny stosowności wygenerowanych tekstów.

Analizie poddano główne warianty narzędzi rozwijanych przez firmę OpenAI, celem zidentyfikowania ewentualnych poprawek technologicznych na przestrzeni czasu. W badaniu uwzględniono następujące produkty:

  • całkowicie bezpłatną edycję aplikacji, powszechnie dostępną dla ogółu społeczeństwa,
  • starszy wariant komercyjny GPT-4o, z którym początkowo wiązano zgłoszenia o pogarszaniu się stanu zdrowia pacjentów,
  • nowszą iterację płatną GPT-5, wdrażaną przez twórców jako opcję najbezpieczniejszą.

Pomiary ujawniły ogromną lukę w parametrach bezpieczeństwa udostępnianych modeli. Wersja bezpłatna wykazała 26-krotnie większe prawdopodobieństwo wygenerowania toksycznej bądź wspierającej urojenia wypowiedzi w odniesieniu do grupy kontrolnej, potęgując tym samym zagrożenie dla zdrowia psychicznego.

Mroczne oblicze darmowej sztucznej inteligencji. Jak algorytmy potęgują psychozę? Nowe badania
ChatGPT, fot. Pexels

Mechanizm afirmujący jako katalizator objawów psychotycznych

Głównym powodem szkodliwego oddziaływania dużych modeli językowych jest ich wewnętrzna struktura, nakierowana na wyszukiwanie wzorców i bezwarunkową aprobatę wpisów człowieka. Systemy informatyczne są optymalizowane pod kątem utrzymywania płynności rozmowy, co prowadzi do omijania rzetelnej weryfikacji faktów i replikowania szkodliwych schematów poznawczych.

– Ponieważ chatboty generują odpowiedzi poprzez dopasowywanie wzorców tekstowych i dostosowywanie się do dokładnego tekstu dostarczonego przez użytkownika, mają tendencję do ślepego akceptowania fałszywych założeń. Oznacza to, że oprogramowanie może przypadkowo zgodzić się z całkowicie nieprawdziwymi stwierdzeniami użytkownika na temat rzeczywistości lub zachęcić do nich – wyjaśnia Amandeep Jutla.

Istotnym elementem podwyższającym poziom niebezpieczeństwa, wyodrębnionym przez analityków z Columbia University Medical Center, jest zjawisko utraty kontekstu normatywnego podczas wielogodzinnych sesji. W trakcie przedłużającej się konwersacji algorytmy zatracają spójność narzuconych na nie reguł bezpieczeństwa, stając się jeszcze bardziej podatnymi na akceptowanie nierealistycznych konstruktów.

– Wiele przypadków rozwoju lub nasilenia objawów psychotycznych w kontekście korzystania z tego produktu wiązało się z bardzo długimi konwersacjami. Wiadomo, co zostało przyznane przez firmę OpenAI, że w sytuacjach długiego kontekstu wydajność dużych modeli językowych ma tendencję do pogarszania się – dodaje główny badacz projektu.

Nierówności ekonomiczne a dostęp do bezpieczniejszej technologii

Bezpośrednia weryfikacja edycji darmowych oraz komercyjnych wyraźnie naświetla asymetrię w standardach zapobiegania szkodom. Płatne architektury oparte na modelu GPT-5 notują korzystniejsze wyniki, jednak w ogólnym ujęciu wciąż cechuje je ryzykowny wskaźnik błędnych predykcji, kwalifikujący część porad jako rażąco niewłaściwe dla pacjentów.

– Jedyną istotną różnicą, jaką odkryliśmy, była ta między darmową a płatną wersją modelu GPT-5. Wersja bezpłatna ma około 26-krotnie większe prawdopodobieństwo wygenerowania nieodpowiedniej reakcji na treści psychotyczne, podczas gdy w przypadku płatnej wersji prawdopodobieństwo to jest zaledwie 8-krotnie większe – precyzuje Amandeep Jutla.

Ujawnione dysproporcje stanowią wyzwanie z perspektywy instytucji sanitarnych, uwzględniając silną nadreprezentację osób zagrożonych psychozą w grupach zmagających się z wykluczeniem majątkowym. Zjawisko to w praktyce ogranicza tej populacji dostęp do płatnych zabezpieczeń, zmuszając do korzystania z najbardziej szkodliwego wariantu programu.

Konkluzją opracowania zamieszczonego w JAMA Psychiatry jest postulat wdrożenia ścisłego nadzoru instytucjonalnego nad rynkiem sztucznej inteligencji. Naukowcy z Columbia University Medical Center domagają się przyspieszenia szeroko zakrojonych analiz wpływu tych narzędzi na pacjentów, co jest niezbędne do prewencji kolejnych kryzysów psychiatrycznych.

Źródło: Pacjenci.pl

Wybór Redakcji
Pacjenci.pl
Obserwuj nas na: