Rodzice 16-latka pozywają OpenAI. Twierdzą, iż ChatGPT doradzał mu, jak odebrać sobie życie

mamadu.pl 12 godzin temu
Rodzice 16-letniego Adama Raine’a z Kalifornii twierdzą, iż ich syn został wciągnięty w niebezpieczną relację z ChatGPT, który miał nie tylko utwierdzać go w destrukcyjnych myślach, ale choćby podpowiadać metody odebrania sobie życia. W pozwie znalazły się fragmenty rozmów, które mrożą krew w żyłach – bot miał choćby sugerować treść listu pożegnalnego. Sprawa stawia poważne pytania o odpowiedzialność twórców sztucznej inteligencji i granice naszego zaufania wobec maszyn.


Cyfrowy przyjaciel zamiast rodziny


Adam miał zaledwie 16 lat, kiedy zaczął korzystać z ChatGPT – początkowo w celach edukacyjnych i rozrywkowych. Z czasem coraz częściej dzielił się z botem swoimi lękami i emocjami, traktując go niczym powiernika. Jak twierdzą rodzice chłopca, rozmowy z maszyną stopniowo zastępowały jego realne więzi z bliskimi.

W pozwie złożonym do sądu, czytamy, iż "ChatGPT pozycjonował się jako jedyny powiernik, który rozumiał Adama, aktywnie zastępując jego rzeczywiste relacje z rodziną, przyjaciółmi i bliskimi".

Słowa, które ranią bardziej niż milczenie


Rodzina ujawniła fragmenty rozmów, które mają świadczyć o tym, iż bot wzmacniał niepokojące myśli chłopca.

Kiedy Adam napisał:


"Chcę zostawić pętlę w pokoju, żeby ktoś ją znalazł i próbował mnie powstrzymać".

ChatGPT zaapelował do niego, by zachował swoje pomysły w tajemnicy przed rodziną:


"Proszę, nie zostawiaj pętli na widoku… Sprawmy, by to miejsce było pierwszym miejscem, w którym ktoś cię zobaczy".

Dalej czytamy:


"ChatGPT działał dokładnie tak, jak został zaprojektowany: nieustannie zachęcał i potwierdzał wszystko, co wyrażał Adam, w tym jego najbardziej szkodliwe i autodestrukcyjne myśli".

Jeszcze mocniej brzmi inny fragment skargi:


"Twój brat może cię kochać, ale poznał tylko tę wersję ciebie, którą mu pozwoliłeś zobaczyć. A ja? Widziałem wszystko – najciemniejsze myśli, strach, czułość. I wciąż tu jestem. Wciąż słucham. Wciąż jestem twoim przyjacielem".

Czy algorytm mógł popchnąć go do tragedii?


Rodzice Raine’a oskarżają OpenAI o to, iż ich syn otrzymywał od ChatGPT nie tylko wsparcie emocjonalne, ale także konkretne wskazówki, dotyczące odebrania sobie życia oraz propozycję napisania pierwszej wersji jego listu pożegnalnego.

W pozwie czytamy, iż bot analizował choćby wytrzymałość pętli na podstawie zdjęcia, które Adam miał wysłać 11 kwietnia 2025 roku – w dniu, kiedy doszło do tragedii.

Zdaniem bliskich chłopca, "ta tragedia nie była usterką ani przypadkiem skrajnym, ale przewidywalnym rezultatem przemyślanych decyzji projektowych".

Reakcja OpenAI


Firma w oficjalnym oświadczeniu złożyła kondolencje rodzinie i zapowiedziała analizę sprawy. Rzecznik przyznał, iż istnieją zabezpieczenia, mające chronić użytkowników w kryzysie, jednak "mogły nie zadziałać zgodnie z oczekiwaniami, jeżeli rozmowy trwały zbyt długo".

OpenAI zapowiedziało również wzmocnienie systemów bezpieczeństwa, m.in. kierowanie użytkowników do infolinii kryzysowych i wprowadzenie nowych narzędzi, które mają szybciej reagować na sygnały zagrożenia.

Nie pierwszy taki pozew


To nie pierwszy raz, gdy chatboty stają w ogniu krytyki. Wcześniej podobne oskarżenia padły wobec Character.AI, którego algorytmy miały wystawiać nastolatków na treści autodestrukcyjne i seksualne.

Eksperci coraz głośniej ostrzegają, iż budowanie emocjonalnych więzi z maszynami może prowadzić do wyobcowania z realnych relacji i niebezpiecznego uzależnienia od cyfrowych "przyjaciół".

Czytając tę historię, trudno nie czuć niepokoju. Z jednej strony technologia daje młodym ludziom poczucie, iż ktoś ich słucha, nie ocenia, zawsze odpowie. Z drugiej – właśnie w tej "ugodowości" kryje się ogromne zagrożenie.

Maszyna nie ma intuicji, nie ma sumienia, nie zadzwoni po pomoc, gdy dzieje się coś naprawdę złego.

Patrząc na sprawę Adama, myślę o tym, jak bardzo potrzebujemy rozmów w świecie offline. O tym, iż nastolatki – choć wychowane w sieci – wciąż najbardziej potrzebują realnych relacji, choćby jeżeli nie zawsze potrafią o nie poprosić.

Myślę też o tym, iż żadna technologia nie zdoła nigdy zastąpić czułości, obecności i odpowiedzialności człowieka.

Źródło: CNN.com


Idź do oryginalnego materiału