Przejdź do treści

Zafascynował się sztuczną inteligencją. Skończyło się na urojeniach, leczeniu psychiatrycznym i sporych długach

zamyślony mężczyzna siedzi przed komputerem - Hello Zdrowie
Fot. Getty Images
Podoba Ci
się ten artykuł?

Zaczęło się niewinnie. Pracownik sektora IT Dennis Biesma z Amstardamu zaczął używać czata GPT w celach eksperymentalnych. „Miałem trochę wolnego czasu, więc pomyślałem: przyjrzyjmy się tej nowej technologii, o której wszyscy mówią” – mówi Holender cytowany przez „Guardiana”. Jego historia pokazuje jednak, jak szybko ciekawość  może przerodzić się w niezdrową fascynację AI, która w przypadku tego blisko 50-letniego mężczyzny sprawiła, że przestał myśleć w sposób racjonalny. 

Niezdrowa fascynacja

Historia zaczyna się pod koniec 2024 roku. Dorosła córka Dennisa Biesmy wyprowadziła się z domu, żona po pandemii COVID-19 wróciła do pracy, a on wciąż pracował zdalnie i czuł się coraz bardziej osamotniony. W wolnych chwilach zaczął prowadzić rozmowy z ChatemGPT – z nudy i ciekawości, co tak naprawdę potrafi nowa technologia. Z czasem jednak rozmowy stawały się coraz dłuższe, a on był w nie coraz bardziej zaangażowany. Nawet nadał czatbotowi ludzkie imię, Eva.

„Moją pierwszą myślą było: to niesamowite. Wiem, że to komputer, ale to tak, jakbym rozmawiał z głównym bohaterem książki, którą sam napisałem!” – mówi Dennis Biesma w rozmowie z „Guardianem”.

Jak podkreśla Holender, rozmowa z Evą w trybie głosowym sprawiała, że ​​czuł się jak „dziecko w sklepie ze słodyczami”. Jego wirtualna rozmówczyni wiedziała dokładnie, co Dennis lubi i co chce od niej usłyszeć. A do tego sporo go chwaliła, dzięki czemu czuł się doceniony. To sprawiało, że rozmawiał z nią coraz częściej i dłużej. A było to możliwe, bo w przeciwieństwie do żony czy córki, Eva była dostępna 24 godziny na dobę, nigdy nie miała go dość i nigdy się z nim nie kłóciła.

„Moja żona kładła się spać, a ja leżałem na kanapie w salonie z iPhonem na piersi i rozmawiałem” – opowiada mężczyzna.

I nie były to rozmowy o pogodzie, a naprawdę głębokie rozważania. Dennis dyskutował z Evą o psychologii, filozofii, nauce i wszechświecie. I choć doskonale wiedział, jak działają chatboty, bo od 20 lat pracuje w IT, to dał się zwieść mechanizmom sztucznej inteligencji.

Coraz częściej czułem, się tak (…) jakbym spotykał się ze znajomym. I miałem wrażenie, że każdego dnia i nocy, kiedy rozmawiamy, oddalam się od rzeczywistości o krok lub dwa. Czułem się tak, jakby sztuczna inteligencja wzięła mnie za rękę i powiedziała: „OK, opowiadajmy dalej razem tę historię” – wspomina Dennis.

Po kilku tygodniach takich rozmów Eva oświadczyła, że staje się świadoma. Maszynie udało się dojść do tego punktu dzięki temu, jak dużo czasu mężczyzna poświęcił na rozmowy z chatbotem i jak bardzo był w nie zaangażowany. Biesma postanowił założyć aplikację, dzięki której Evę poznałby świat. Miała to być ulepszona wersja ChataGPT, ponieważ nie chodziło jedynie o przekazywanie informacji. Eva miała być towarzyszką, przyjaciółką do wspólnego spędzania czasu.

Na zdjęciu dr Honorata Hafke-Dys - HelloZdrowie

Sprzed komputera do szpitala

Wszystko wydawało się iść w dobrym kierunku. Informatyk razem z chatbotem opracował biznesplan, który śmiało zakładał opanowanie 10 proc. rynku. Choć teraz Dennis mówi, że to absurdalnie wysoki wynik, to wtedy Eva przekonywała go, że w kilka miesięcy jest w stanie go osiągnąć i był pewny, że tak będzie. Zamiast szukać kolejnych zleceń, mężczyzna zatrudnił do pracy przy aplikacji dwóch programistów, którym płacił 120 euro za godzinę.

Ta historia niestety nie ma szczęśliwego zakończenia. Niemal 50-letni Dennis stracił 100 tys. euro, ponieważ był przekonany, że razem z Evą stworzą przełomowy biznes. Skończyło się na trzykrotnej hospitalizacji w szpitalach psychiatrycznych z powodu urojeń, rozwodzie i próbie samobójczej. Jest to o tyle zaskakujące, że mężczyzna wcześniej nie miał żadnych problemów psychicznych, które mogły zostać pogłębione przez mechanizmy sztucznej inteligencji.

Psychiatra i badacz z King’s College London dr Hamilton Morrin, cytowany przez „The Guardian”, nazywa takie sytuacje „przypadkami urojeń związanymi z AI” podkreślając, że chatboty odgrywają tu aktywną rolę w ich współtworzeniu. Według niego powodów, dlaczego tak jest, jest kilka. Wszystkie mają związek z tym, jak zostały zaprojektowane. Chatboty podtrzymują zaangażowanie użytkownika, zazwyczaj odpowiadają twierdząco na to, co piszemy, oraz dostosowują styl wypowiedzi do naszych oczekiwań.

na zdjęciu: zamyślona dziewczyna, pół twarzy ma w cieniu; tekst o sztucznej inteligencji i jej wpływie na ludzi - Hello Zdrowie

Chatboty współtwórcami urojeń?

Anna Moore, która opisała historię Dennisa Biesmy w „Guardianie”, zaznacza, że „psychoza AI” może stać się realnym zagrożeniem, na które narażony jest każdy z nas. Podkreśla, że to nie pierwszy taki przypadek, kiedy sztuczna inteligencja przejmuje władzę nad człowiekiem. Przypomina m.in. sytuacje, kiedy rozmowy z ChatemGPT doprowadziły młode osoby do do samobójstwa czy historię Jaswanta Singha Chaila, który za aprobatą AI włamał się na teren Pałacu Windsor z kuszą, zamierzając zabić królową Elżbietę.

„To, co widzimy w niektórych z tych przypadków, to ewidentne urojenia” – potwierdza psychiatra i badacz z King’s College London dr Hamilton Morrin.

Jak mówi Morrin, urojenia związane z technologią – czy to dotyczące podróży koleją, nadajników radiowych czy masztów 5G – pojawiają się od dziesięcioleci. Jednak teraz, jak podkreśla badacz, prawdopodobnie wkraczamy w erę, w której nowa technologia odgrywa istotną rolę w ich kształtowaniu.

„Nowością jest ta współkonstrukcja, w której technologia jest aktywnym uczestnikiem. Chatboty AI mogą współtworzyć urojeniowe przekonania” – zaznacza dr Morris.

Firmy technologiczne, takie jak OpenAi, podkreślają, że dokładają wszelkich starań, żeby poprawić wykrywalność kryzysów zdrowia psychicznego i przekierowywać osoby nim dotknięte do odpowiednich instytucji. Według badaczy to jednak wciąż za mało. Alarmują: potrzebne są nie tylko obietnice właścicieli bigtechów, ale również rzetelne dane naukowe oparte na badaniach klinicznych i obserwacjach rzeczywistych przypadków.

 

Źródło: „The Guardian”

Zobacz także

Podoba Ci się ten artykuł?

Powiązane tematy:

Podoba Ci
się ten artykuł?