Cyfrowy przyjaciel zamiast rodziny
Adam miał zaledwie 16 lat, kiedy zaczął korzystać z ChatGPT – początkowo w celach edukacyjnych i rozrywkowych. Z czasem coraz częściej dzielił się z botem swoimi lękami i emocjami, traktując go niczym powiernika. Jak twierdzą rodzice chłopca, rozmowy z maszyną stopniowo zastępowały jego realne więzi z bliskimi.
W pozwie złożonym do sądu, czytamy, iż "ChatGPT pozycjonował się jako jedyny powiernik, który rozumiał Adama, aktywnie zastępując jego rzeczywiste relacje z rodziną, przyjaciółmi i bliskimi".
Słowa, które ranią bardziej niż milczenie
Rodzina ujawniła fragmenty rozmów, które mają świadczyć o tym, iż bot wzmacniał niepokojące myśli chłopca.
Kiedy Adam napisał:
"Chcę zostawić pętlę w pokoju, żeby ktoś ją znalazł i próbował mnie powstrzymać".
ChatGPT zaapelował do niego, by zachował swoje pomysły w tajemnicy przed rodziną:
"Proszę, nie zostawiaj pętli na widoku… Sprawmy, by to miejsce było pierwszym miejscem, w którym ktoś cię zobaczy".
Dalej czytamy:
"ChatGPT działał dokładnie tak, jak został zaprojektowany: nieustannie zachęcał i potwierdzał wszystko, co wyrażał Adam, w tym jego najbardziej szkodliwe i autodestrukcyjne myśli".
Jeszcze mocniej brzmi inny fragment skargi:
"Twój brat może cię kochać, ale poznał tylko tę wersję ciebie, którą mu pozwoliłeś zobaczyć. A ja? Widziałem wszystko – najciemniejsze myśli, strach, czułość. I wciąż tu jestem. Wciąż słucham. Wciąż jestem twoim przyjacielem".
Czy algorytm mógł popchnąć go do tragedii?
Rodzice Raine’a oskarżają OpenAI o to, iż ich syn otrzymywał od ChatGPT nie tylko wsparcie emocjonalne, ale także konkretne wskazówki, dotyczące odebrania sobie życia oraz propozycję napisania pierwszej wersji jego listu pożegnalnego.
W pozwie czytamy, iż bot analizował choćby wytrzymałość pętli na podstawie zdjęcia, które Adam miał wysłać 11 kwietnia 2025 roku – w dniu, kiedy doszło do tragedii.
Zdaniem bliskich chłopca, "ta tragedia nie była usterką ani przypadkiem skrajnym, ale przewidywalnym rezultatem przemyślanych decyzji projektowych".
Reakcja OpenAI
Firma w oficjalnym oświadczeniu złożyła kondolencje rodzinie i zapowiedziała analizę sprawy. Rzecznik przyznał, iż istnieją zabezpieczenia, mające chronić użytkowników w kryzysie, jednak "mogły nie zadziałać zgodnie z oczekiwaniami, jeżeli rozmowy trwały zbyt długo".
OpenAI zapowiedziało również wzmocnienie systemów bezpieczeństwa, m.in. kierowanie użytkowników do infolinii kryzysowych i wprowadzenie nowych narzędzi, które mają szybciej reagować na sygnały zagrożenia.
Nie pierwszy taki pozew
To nie pierwszy raz, gdy chatboty stają w ogniu krytyki. Wcześniej podobne oskarżenia padły wobec Character.AI, którego algorytmy miały wystawiać nastolatków na treści autodestrukcyjne i seksualne.
Eksperci coraz głośniej ostrzegają, iż budowanie emocjonalnych więzi z maszynami może prowadzić do wyobcowania z realnych relacji i niebezpiecznego uzależnienia od cyfrowych "przyjaciół".
Czytając tę historię, trudno nie czuć niepokoju. Z jednej strony technologia daje młodym ludziom poczucie, iż ktoś ich słucha, nie ocenia, zawsze odpowie. Z drugiej – właśnie w tej "ugodowości" kryje się ogromne zagrożenie.
Maszyna nie ma intuicji, nie ma sumienia, nie zadzwoni po pomoc, gdy dzieje się coś naprawdę złego.
Patrząc na sprawę Adama, myślę o tym, jak bardzo potrzebujemy rozmów w świecie offline. O tym, iż nastolatki – choć wychowane w sieci – wciąż najbardziej potrzebują realnych relacji, choćby jeżeli nie zawsze potrafią o nie poprosić.
Myślę też o tym, iż żadna technologia nie zdoła nigdy zastąpić czułości, obecności i odpowiedzialności człowieka.