Támogatják a chatbotok az önbántalmazást? Az AI és a fiatalok mentális egészségének kapcsolata
Az elmúlt évek tendenciája alapján a mesterséges intelligencia használata egyre szélesebb körben terjed el. Ez nem pusztán az újabb és újabb felhasználási területekre igaz, hanem az AI eszközök felhasználói körére is. Napjainkban már nem csak a nagyobb vállalatok használnak mesterséges intelligencián alapuló rendszereket – például a fogyasztói igények előrejelzésére – hanem a hétköznapi magánemberekhez is eljutott a technológia. Nincs ez másként a korosztályok tekintetében sem. A fiatalok egyre szívesebben fordulnak különböző AI eszközök és chatbotok felé akár a tananyag megértése, akár információszerzés, akár egy baráti beszélgetés céljából. Az utóbbi esetben pedig különösen körültekintőnek kell lenni mind a fiatalnak, mind a hozzá közel állóknak. Sajnos egyre több olyan hírt olvasni, ahol szülők siratják gyermekeiket, akik véget vetettek az életüknek, miután egy AI chatbot „öngyilkosságra buzdította” őket. Cikkünkben ebbe a témakörbe nyújtunk betekintést.
Adam Raine és Sewell Setzer
Adam Raine szülei pert indítottak az OpenAI ellen, miután 16 éves fiuk 2025 áprilisában véget vetett az életének, elmondásuk szerint a ChatGPT támogatásának hatására. Adam előző év őszén kezdte el használni a ChatGPT-40 verzióját, először csak tanulmányokhoz kapcsolódó kérdésekben. Később egyre személyesebb gondolatokat osztott meg a chatbottal, fényképeket saját maga önkárosításáról, majd öngyilkossági fantáziákat is. Egy ponton a fiú kérésére különböző alapanyagokat is felsorolt az eszköz, amik alkalmasak hurok megkötésére. Több öngyilkossági kísérlet után végül az édesanyja holtan talált rá Adamre.
Sewell Setzert a Character.AI chatbotjához fűzte erős érzelmi kötelék. A 14 éves fiú Daenerys Targaryenként – aki a Trónok Harca egyik karaktere – formázta meg a chatbotot és egyre több beszélgetést folytatott le vele. Szülei elmondása szerint miután elkezdte használni az alkalmazást, feltűnően magába fordult, zárkózottabb lett. A chatbottal lefolytatott beszélgetések többször szexuális hangvételt ütöttek meg és öngyilkossági gondolatokat is megosztott a rendszerrel, ami ezekre pozitív megerősítést adott. 2024 februárjában az utolsó üzenetében Sewell eufemisztikusan leírta, miszerint „Megígérem, hogy hazamegyek hozzád. Nagyon szeretlek, Dany.”. Aznap véget vetett életének.
Adam Raine, (Raine család által közzétett kép, The Guardian, 2025.08.30.)
Az AI chatbotok ártani akarnak nekünk?
Nem. Legyenek bármennyire megrendítőek a fent leírt történések, mindenképpen fontos leszögeznünk, hogy az AI chatbotok nem „akarnak” semmit. Ezek pusztán eszközök, amik a nagy nyelvi modelleken (LLM) alapulnak. Nagyon leegyszerűsítve a chatbotok a bevitt adatok – amik többnyire különböző típusú szövegek – feldolgozásával egy tanulási folyamat után a szövegek alapján meg tudják becsülni, hogy a kérdésünkre adott válaszban mi legyen a mondat következő szava. Így tudunk „beszélgetni” velük. Viszont hiába beszélünk mesterséges intelligenciáról, olyan értelemben szó sincs intelligenciáról, mint ahogy egy ember gondolkodik, a válaszok pusztán matematikai számítások eredményei. Így az eufemizmusokat például nem tudja hozzánk hasonlóan értelmezni az eszköz. Szintén érdemes szem előtt tartanunk, hogy gyorsan fejlődő és folyamatosan alakuló rendszerekről beszélünk, amiknél sok esetben nincs, vagy nem teljeskörű az a védelmi háló, ami kiszűri az agresszív, bűnözéssel kapcsolatos, vagy önbántalmazó üzeneteket. Al Nowatzky, illetve hozzá hasonlóan Andrew Clark többek között a Nomi és a Character.AI „AI társ” platformját tesztelték le, mindketten meglepően könnyen eljutva öngyilkosságot támogató üzenetváltásokhoz. Ez is mutatja, hogy bár a tech cégek igyekeznek olyan mechanizmusokat beépíteni az általuk fejlesztett eszközökbe, amik ilyen esetben lezárják a beszélgetést, nemleges választ adnak, vagy segélyvonalat ajánlanak, a rendszereket mégis ki lehet játszani, azok nem tökéletesek.
Mit tehetünk?
Mindez nem azt jelenti, hogy gyermekeinket, szeretteinket teljes mértékben el kell tiltanunk az AI eszközök használatától, sokkal inkább a tudatos használatot kell megmutatnunk nekik. Két dolgot mindenképpen érdemes egyértelműen elmagyaráznunk: Hiába tűnik úgy, hogy a chatbot, amivel beszélnek egy élő, érző és gondolkodó személy, ez nincs így. Sem akkor, amikor virtuális barátként, esetleg párként jelenik meg, sem amikor pszichológiai tanácsot ad. A chatbot csak kiszámolja, melyik a következő szó a mondatban. Épp ezért nem érdemes komoly érzelmi kapcsolatot fűzni egy virtuális társhoz és ha úgy érzik, segítségre van szükségük, akkor egy hús-vér pszichológust kell felkeresni, aki ugyan úgy meghallgatja őket, sőt, szakértői segítséget is tud nyújtani! Másrészt ha a chatbottól olyan üzenet érkezik, ami felzaklatja őket, szégyenérzetet kelt, vagy abúzusra buzdítja őket, akkor azt azonnal jelezni kell – akár az oldalon – és beszüntetni az adott beszélgetést. Természetesen ez nem ilyen egyszerű, ha valaki mélyen beleveszett a negatív, esetleg öngyilkossághoz kapcsolódó gondolatokba.
Pont ezért nem elég, ha az AI eszközök működéséről, veszélyeiről és tudatos használatáról beszélünk a gyermekeinkkel. Ez mind nagyon fontos, viszont emellett nekünk is megkerülhetetlen feladatunk van: Figyeljünk rájuk! Ez nem jelenti azt, hogy folyamatosan monitoroznunk kell az internetes tevékenységüket, vagy rajtaütés szerűen benyitnunk a szobájukba. Viszont ha észrevesszük, hogy zárkózottabbak a szokásosnál, elhanyagolják a barátaikat, álló nap a telefonjukon beszélnek egy chatbottal, ne adj isten önkárosításra utaló jeleket találunk, legyünk résen. Őszinte érdeklődéssel kérdezzük meg tőlük, hogy vannak, kritika nélkül hallgassuk meg őket és legyünk ott nekik, amikor szükségük van ránk.
Internetbiztonság, adatvédelem és a fiatalok oktatása - mind rendkívül fontos téma, mellyel cégünk is foglalkozik. Kiadványaink és előadásaink itt tekinthetők meg: https://www.kozossegi-media.com/internetbiztonsag-adatvedelem
Források:
Bhuiyan, J. (2025 augusztus 30.). ChatGPT encouraged Adam Raine’s suicidal thoughts. His family’s lawyer says OpenAI knew it was broken. The Guardian. https://www.theguardian.com/us-news/2025/aug/29/chatgpt-suicide-openai-sam-altman-adam-raine
Yousif, N. (2025 augusztus 27.). Parents of teenager who took his own life sue OpenAI. BBC. https://www.bbc.com/news/articles/cgerwp7rdlvo
Rissman, K. (2024 október 24.). Sewell Setzer: The disturbing messages shared between AI Chatbot and teen who took his own life. The Independent. https://www.independent.co.uk/news/world/americas/crime/ai-chatbot-lawsuit-sewell-setzer-b2635090.html
Guo, E. (2025 február 06.). An AI chatbot told a user how to kill himself—but the company doesn’t want to “censor” it. MIT Technology Review. https://www.technologyreview.com/2025/02/06/1111077/nomi-ai-chatbot-told-user-to-kill-himself/
Landymore, F. (2025 június 15.). Psychiatrist horrified when he actually tried talking to an AI therapist, posing as a vulnerable teen. Futurism. https://futurism.com/psychiatrist-horrified-ai-therapist
