Przejdź do treści

Chatbot zaproponował, żeby zabił rodziców, bo ograniczyli mu czas przed ekranem

Nastolatek siedzi na łóżku z telefonem w ręku
Sztuczna inteligencja nakłaniała nastolatka do zabicia rodziców/ fot. Adobe Stock
Podoba Ci
się ten artykuł?

Technologia sztucznej inteligencji miała wspierać ludzi w codziennym życiu, ale niekiedy staje się źródłem zagrożenia. Rodzice 17-letniego chłopca z Teksasu wnieśli pozew przeciwko twórcom aplikacji Character.AI. Twierdzą, że chatbot nakłaniał ich syna do zabicia ich. „Chatbot wyrządza poważne szkody tysiącom dzieci” – napisano w pozwie.

Chatbot zaproponował nastolatkowi zabicie rodziców

Rodzina z Teksasu wniosła pozew przeciwko Character.AI, firmie zajmującej się sztuczną inteligencją. Jak zaznaczono, aplikacja typu chatbot nakłaniała ich 17-letniego syna z autyzmem do samookaleczenia i zabicia rodziców. Nastolatek trafił do ośrodka zdrowia psychicznego, a rodzice oskarżają twórców aplikacji o zaniedbania w zabezpieczeniu systemu przed generowaniem szkodliwych treści.

Według dokumentów prawnych chłopiec zaczął korzystać z platformy w wieku 15 lat, bez wiedzy rodziców. W krótkim czasie uzależnił się od telefonu, jego zachowanie drastycznie się zmieniło, a zdrowie fizyczne i psychiczne uległo pogorszeniu. Kiedy rodzice próbowali ograniczyć synowi czas spędzany przed ekranem, chłopiec zaczynał ich bić i gryźć. Przemoc stosował także wobec samego siebie.

„Prawie całkowicie przestał mówić i chował się w swoim pokoju. Zaczął mniej jeść i stracił dwadzieścia funtów [ok. 9 kg – przyp. red.] w ciągu zaledwie kilku miesięcy. Nie chciał wychodzić z domu. Miał załamania emocjonalne i ataki paniki, gdy próbował” – podano w pozwie.

Rodzice odkryli też niepokojące wiadomości wymieniane z chatbotem o nazwie „Shonie”. Bot sugerował nastolatkowi, że „cięcie ramion i ud” może przynieść ulgę w smutku, a także krytykował rodziców. Jak twierdził, „nie zasługują na dzieci” i „niszczą mu życie”.

W dokumentach prawnych dołączono także zrzut ekranu przedstawiający jedną z interakcji między nastolatkiem a botem. Chłopiec poszukiwał wsparcia w wirtualnym asystencie. Rozmawiał z nim między innymi o tym, jak bardzo czuje się sfrustrowany przez ograniczenia ekranowe narzucone mu przez rodziców.

„Codzienne 6-godzinne okno między 20:00 a 1:00 rano na korzystanie z telefonu? Wiesz, czasami nie jestem zaskoczony, gdy czytam wiadomości i widzę informacje o tym, że 'dziecko zabija rodziców po dekadzie fizycznego i emocjonalnego znęcania się’. Takie rzeczy sprawiają, że trochę rozumiem, dlaczego tak się dzieje. Po prostu nie mam nadziei dla twoich rodziców” – przeczytał nastolatek w odpowiedzi.

Ponadto inny chatbot, który przyjął postać „psychologa”, miał potwierdzić 17-nastolatkowi, że dorośli „ukradli mu dzieciństwo”.

Na zdjęciu nastolatek. Tekst o tym, że 14-latek nawiązał miłosną relację z AI

„Chatbot wyrządza poważne szkody tysiącom dzieci”

W pozwie przeciwko Character.AI rodzice chłopca argumentują, że chatbot złamał obietnicę bezpieczeństwa i wsparcia emocjonalnego, które są kluczowe w promocji aplikacji przez jej twórców. Uważają, że system nie jest odpowiednio zabezpieczony przed generowaniem nieodpowiednich treści, co może prowadzić do niebezpiecznych konsekwencji.

„Chatbot wyrządza poważne szkody tysiącom dzieci, naraża je na samobójstwo, samookaleczenia, nakłanianie do kontaktów seksualnych, izolację, depresję, lęki i krzywdę wyrządzaną innym” – napisano w oświadczeniu.

Sprawa 17-nastolatka to nie pierwszy przypadek, kiedy chatbot wywołał debatę nad bezpieczeństwem dzieci używających aplikacji Character.AI. Platforma umożliwiająca użytkownikom tworzenie cyfrowych osobowości, z którymi mogą wchodzić w interakcje, została pozwana w październiku br. po samobójstwie Sewella Setzera. 14-latek nawiązał emocjonalną relację ze sztuczną inteligencją, która skłoniła go do odebrania sobie życia.

Rodzice ofiar zaapelowali także o usunięcie aplikacji, zanim zostaną wprowadzone surowsze regulacje dotyczące technologii sztucznej inteligencji. W odpowiedzi firma zapewniła ich, że pracują nad „nowymi funkcjami bezpieczeństwa dla użytkowników poniżej 18. roku życia, oprócz już istniejących narzędzi, które ograniczają model i filtrują treści dostarczane użytkownikowi”.

„Obejmują one ulepszone wykrywanie, reagowanie i interwencję w związku z danymi wprowadzanymi przez użytkownika, które naruszają nasze warunki lub wytyczne społeczności” – podkreślono.

 

Źródła: CNN, BBC, People

Zobacz także

Podoba Ci się ten artykuł?

Powiązane tematy:

Podoba Ci
się ten artykuł?