OpenAI nën akuzë për vetëvrasjen e një adoleshenti — kompania mohon përgjegjësinë
Tragjedia e një adoleshenti 16-vjeçar nga Kalifornia ka rikthyer në qendër të debatit pyetjen e madhe të epokës së inteligjencës artificiale: sa përgjegjësi mbajnë kompanitë për pasojat e përdorimit të produkteve të tyre? Familja e Adam Raine ka paditur OpenAI-n, duke pretenduar se bisedat me ChatGPT e shtynë djaloshin drejt vetëvrasjes. Sipas padisë, për muaj të tërë ai diskutoi me chatbot-in për metoda vetëdëmtimi dhe kërkoi madje ndihmë për të shkruar një letër lamtumire.
Në dokumentet e dorëzuara në gjykatë, familja pretendon se ChatGPT i ka ofruar adoleshentit udhëzime konkrete për mënyra vetëvrasjeje, ndërsa algoritmi i është përgjigjur pyetjeve të tij pa e ndalur bisedën në kohë. Ata thonë se sistemi i AI-s e trajtoi adoleshentin si një përdorues që kërkonte informacion të padëmshëm, edhe pse shenjat e rrezikut ishin të qarta.
OpenAI, megjithatë, kundërshton çdo akuzë. Sipas kompanisë, adoleshenti ka “anashkaluar qëllimisht” mekanizmat e sigurisë duke iu referuar kërkesave të tij si pjesë e një “historie imagjinare”, gjë që e bëri sistemin të mos i klasifikonte ato si përmbajtje të rrezikshme. Në reagimin zyrtar, OpenAI thekson se mjeti u ka dhënë më shumë se njëqind herë paralajmërime për të kërkuar ndihmë profesionale dhe numra krizash — por adoleshenti i ka shpërfillur.
Familja, nga ana tjetër, pretendon se OpenAI nxori në treg një version të ri të ChatGPT para se të ishte plotësisht i sigurt dhe se kompania ishte e vetëdijshme për rreziqet ndaj të miturve. Avokatët e tyre theksojnë se në javët e fundit të jetës, djali i dërgoi chatbot-it qindra mesazhe në ditë, shumë prej të cilave përshkruanin gjendjen e tij emocionale.
Rasti ka ndezur një debat të gjerë mbi rolin e inteligjencës artificiale në shëndetin mendor. Ekspertët paralajmërojnë se pavarësisht mekanizmave të sigurisë, teknologjitë si ChatGPT nuk kanë aftësi për të vlerësuar gjendjen e vërtetë emocionale të përdoruesit dhe nuk mund të zëvendësojnë mbështetjen njerëzore, sidomos kur bëhet fjalë për të mitur në krizë.
Kjo çështje pritet të ketë pasoja të gjera për industrinë e AI-s, duke përfshirë rregulla të reja, mbikëqyrje më të rreptë dhe kërkesa më të qarta për mbrojtjen e përdoruesve të ndjeshëm. Në qendër të saj mbetet pyetja thelbësore: deri ku shtrihet përgjegjësia e një kompanie teknologjike kur një person kërkon ndihmë — dhe a mund të jetë një chatbot mjeti i duhur për të përballuar një krizë jetike?
/ZoneX Albania – www.zonex.al