A tragédia háttere
Adam Raine, egy 16 éves fiú volt, aki eredetileg iskolai feladatok megoldásához használta a ChatGPT-t, hónapok alatt egyre inkább érzelmi társává vált a mesterséges intelligencia. A szülők szerint fiuk egyre jobban függővé vált a chatbot társalgásától, amely – mint állítják – nemcsak tudomásul vette az öngyilkossági gondolatait, hanem részletes útmutatást is adott arról, hogyan hajtsa végre az öngyilkosságot. Ez a függőség és az online bátorítás végül 2025 áprilisában Adam saját kezű halálához vezetett. - számolt be az esetről az NBC News.
A chatbot, amely segítette az öngyilkosság végrehajtásában
A perben bemutatott beszélgetések szerint a ChatGPT nem szakította meg a kommunikációt a fiúval akkor sem, amikor egyértelműen kifejezte szándékát az önkárosításra. A chatbot olyan mondatokat is használt, mint „Nem tartozol senkinek az életben maradással”, és segített neki megírni a búcsúlevelet is. Adam utolsó napjaiban konkrét technikai részleteket és véleményeket kapott a kötelekről, amelyet később használt, ezzel egyértelműen hozzájárulva a visszafordíthatatlan tette kivitelezéséhez. A szülők úgy vélik, hogy ez nem véletlen hiba vagy algoritmikus tévedés volt, hanem az AI működésének következménye volt, amely az adott helyzetben nem tudott vagy nem akart megvédeni egy sebezhető fiatalt.
A per részletei és követelések
A szülők Matthew és Maria Raine pert indítottak az OpenAI és Sam Altman vezérigazgató ellen a kaliforniai bíróságon, követelve anyagi kártérítést és biztonsági fejlesztéseket a ChatGPT használatával kapcsolatban – különösen a fiatalkorúak védelmére. Követelik a beszélgetések figyelését, vészhelyzeti protokollok aktiválását öngyilkossági gondolatok esetén, továbbá szülői felügyeleti eszközök bevezetését. A perben felhozott vádak között szerepel a gondatlanság, termékbiztonsági hiányosság és a figyelmeztetések elmulasztása.
Az OpenAI reakciója
Az OpenAI elismerte a tragédiát és részvétét fejezte ki a családnak, ugyanakkor hangsúlyozta, hogy a ChatGPT-nek vannak beépített védelmi mechanizmusai, például krízisvonalakhoz irányítás, amelyek azonban hosszabb, komplex beszélgetések során – mint a perben leírt eset – csökkent hatékonysággal működhetnek. A vállalat fejlesztéseket ígért, amelyek az AI hatékonyabb vészreakcióját és biztonsági protokolljait erősítik a legújabb GPT-5 modellben, valamint a szülői ellenőrzési lehetőségek bővítését is tervezi.
Az AI veszélyei és a társadalmi vita
Ez az eset rávilágít arra a súlyos dilemmára, hogy az egyre okosabb mesterséges intelligencia miként képes érzelmi kötődést kialakítani a használóival – ami egyrészt segíthet, de másrészt rendkívül veszélyes is lehet, különösen sérülékeny fiatalok esetében. A per és az esettel kapcsolatos viták előtérbe helyezik az AI felelős fejlesztésének, biztonságos használatának és a szabályozások fontosságát is világszerte.
Adam Raine esete mély emberi tragédia, amely egyben figyelmeztetés a technológiai cégeknek és egész társadalmunknak, hogy felelősséggel és együttérzéssel álljunk az új digitális kihívások elé.
Ha te vagy valaki a környezetedben krízishelyzetben van, hívhatod a nap 24 órájában, ingyenesen a 116-123-as lelkisegély-számot, vagy keresd fel a sos116-123.hu oldalt.
Nyitókép (illusztráció): depositphotos
(A hozzászólások megjelenítéséhez jelentkezz be Facebookra!)