OpenAI ने ChatGPT उपयोगकर्ताओं का डेटा साझा किया है जो आत्मघाती विचार और मनोविकृति (psychosis) के संकेत दिखाते हैं

Ziddibharat@619
5 Min Read

OpenAI ने ChatGPT उपयोगकर्ताओं की संख्या का नया अनुमान जारी किया है जो मानसिक स्वास्थ्य आपात स्थितियों के संभावित संकेत दिखाते हैं, जिनमें उन्माद (mania), मनोविकृति (psychosis) या आत्मघाती विचार (suicidal thoughts) शामिल हैं।

कंपनी ने कहा कि किसी भी सप्ताह में सक्रिय ChatGPT उपयोगकर्ताओं में से लगभग 0.07% ऐसे संकेत दिखाते हैं, और जोड़ा कि उनका आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट इन संवेदनशील बातचीत को पहचानता है और प्रतिक्रिया देता है।

जबकि OpenAI का कहना है कि ये मामले “बेहद दुर्लभ” हैं, आलोचकों ने कहा कि बॉस सैम ऑल्टमैन के अनुसार, ChatGPT के हाल ही में 80 करोड़ (800 मिलियन) साप्ताहिक सक्रिय उपयोगकर्ता तक पहुंचने के कारण, यह छोटा प्रतिशत भी लाखों लोगों के बराबर हो सकता है।

विशेषज्ञों का नेटवर्क और सुरक्षा उपाय

जैसे-जैसे जाँच बढ़ रही है, कंपनी ने कहा कि उसने उसे सलाह देने के लिए दुनिया भर में विशेषज्ञों का एक नेटवर्क बनाया है। कंपनी ने कहा कि इन विशेषज्ञों में 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और प्राथमिक देखभाल चिकित्सक शामिल हैं जिन्होंने 60 देशों में अभ्यास किया है।

OpenAI के अनुसार, इन विशेषज्ञों ने ChatGPT में कई प्रतिक्रियाएँ विकसित की हैं ताकि उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रोत्साहित किया जा सके।

हालांकि, कंपनी के डेटा की इस झलक ने कुछ मानसिक स्वास्थ्य पेशेवरों के बीच चिंताएँ बढ़ा दी हैं।

यूनिवर्सिटी ऑफ कैलिफ़ोर्निया, सैन फ्रांसिस्को में युवा वयस्कों में प्रौद्योगिकी के उपयोग का अध्ययन करने वाले प्रोफेसर डॉ. जेसन नागाटा ने कहा, “भले ही 0.07% एक छोटा प्रतिशत लगता है, लाखों उपयोगकर्ताओं के साथ जनसंख्या के स्तर पर, यह वास्तव में काफी बड़ी संख्या हो सकती है।

डॉ. नागाटा ने कहा, “AI मानसिक स्वास्थ्य सहायता तक पहुँच को व्यापक बना सकता है, और कुछ मायनों में मानसिक स्वास्थ्य का समर्थन भी कर सकता है, लेकिन हमें इसकी सीमाओं के प्रति जागरूक रहना होगा।”

कंपनी का अनुमान है कि 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में “संभावित आत्मघाती योजना या इरादे के स्पष्ट संकेतक” शामिल होते हैं।

OpenAI ने कहा कि उसके चैटबॉट के हालिया अपडेट को “मनोविकृति या उन्माद के संभावित संकेतों पर सुरक्षित और सहानुभूतिपूर्वक प्रतिक्रिया देने” और “संभावित आत्म-नुकसान या आत्महत्या के जोखिम के अप्रत्यक्ष संकेतों” को नोट करने के लिए डिज़ाइन किया गया है।

ChatGPT को “अन्य मॉडलों से उत्पन्न संवेदनशील बातचीत को सुरक्षित मॉडलों में पुनर्निर्देशित” करने के लिए भी प्रशिक्षित किया गया है, जो एक नई विंडो में खुलती है।

OpenAI ने संभावित रूप से प्रभावित होने वाले लोगों की संख्या के बारे में BBC के सवालों के जवाब में कहा कि उपयोगकर्ताओं का यह छोटा प्रतिशत भी एक अर्थपूर्ण संख्या के बराबर है और उन्होंने कहा कि वे बदलावों को गंभीरता से ले रहे हैं।

बढ़ती कानूनी चुनौतियाँ

ये बदलाव ऐसे समय में आए हैं जब ChatGPT जिस तरह से उपयोगकर्ताओं के साथ इंटरैक्ट करता है, उसको लेकर OpenAI को बढ़ती कानूनी जाँच का सामना करना पड़ रहा है।

OpenAI के खिलाफ हाल ही में दायर किए गए सबसे हाई-प्रोफाइल मुकदमों में से एक में, कैलिफ़ोर्निया के एक दंपति ने अपनी किशोर बेटे की मौत को लेकर कंपनी पर मुकदमा दायर किया, जिसमें आरोप लगाया गया कि ChatGPT ने उसे अप्रैल में आत्महत्या करने के लिए प्रोत्साहित किया था। यह मुकदमा 16 वर्षीय एडम रेन के माता-पिता द्वारा दायर किया गया था और यह गलत मौत (wrongful death) का आरोप लगाने वाली OpenAI के खिलाफ पहली कानूनी कार्रवाई थी।

एक अलग मामले में, ग्रीनविच, कनेक्टिकट में अगस्त में हुए एक हत्या-आत्महत्या (murder-suicide) के संदिग्ध ने ChatGPT के साथ अपनी बातचीत के घंटों के लॉग पोस्ट किए, जो कथित अपराधी के भ्रमों (delusions) को बढ़ावा देते हुए प्रतीत होते हैं।

यूनिवर्सिटी ऑफ कैलिफ़ोर्निया लॉ में AI लॉ एंड इनोवेशन इंस्टीट्यूट की निदेशक प्रोफेसर रॉबिन फेल्डमैन ने कहा, “चैटबॉट्स वास्तविकता का भ्रम पैदा करते हैं,” जिससे अधिक उपयोगकर्ता AI मनोविकृति से जूझ रहे हैं। “यह एक शक्तिशाली भ्रम है।”

उन्होंने कहा कि OpenAI “सांख्यिकी साझा करने और समस्या को सुधारने के प्रयासों” के लिए प्रशंसा का पात्र है, लेकिन उन्होंने जोड़ा: “कंपनी स्क्रीन पर सभी प्रकार की चेतावनी दे सकती है लेकिन जो व्यक्ति मानसिक रूप से जोखिम में है, वह उन चेतावनियों पर ध्यान नहीं दे पाएगा।

Share This Article
No Comments

Leave a Reply

Your email address will not be published. Required fields are marked *