OpenAI ने ChatGPT उपयोगकर्ताओं की संख्या का नया अनुमान जारी किया है जो मानसिक स्वास्थ्य आपात स्थितियों के संभावित संकेत दिखाते हैं, जिनमें उन्माद (mania), मनोविकृति (psychosis) या आत्मघाती विचार (suicidal thoughts) शामिल हैं।
कंपनी ने कहा कि किसी भी सप्ताह में सक्रिय ChatGPT उपयोगकर्ताओं में से लगभग 0.07% ऐसे संकेत दिखाते हैं, और जोड़ा कि उनका आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट इन संवेदनशील बातचीत को पहचानता है और प्रतिक्रिया देता है।
जबकि OpenAI का कहना है कि ये मामले “बेहद दुर्लभ” हैं, आलोचकों ने कहा कि बॉस सैम ऑल्टमैन के अनुसार, ChatGPT के हाल ही में 80 करोड़ (800 मिलियन) साप्ताहिक सक्रिय उपयोगकर्ता तक पहुंचने के कारण, यह छोटा प्रतिशत भी लाखों लोगों के बराबर हो सकता है।
विशेषज्ञों का नेटवर्क और सुरक्षा उपाय
जैसे-जैसे जाँच बढ़ रही है, कंपनी ने कहा कि उसने उसे सलाह देने के लिए दुनिया भर में विशेषज्ञों का एक नेटवर्क बनाया है। कंपनी ने कहा कि इन विशेषज्ञों में 170 से अधिक मनोचिकित्सक, मनोवैज्ञानिक और प्राथमिक देखभाल चिकित्सक शामिल हैं जिन्होंने 60 देशों में अभ्यास किया है।
OpenAI के अनुसार, इन विशेषज्ञों ने ChatGPT में कई प्रतिक्रियाएँ विकसित की हैं ताकि उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रोत्साहित किया जा सके।
हालांकि, कंपनी के डेटा की इस झलक ने कुछ मानसिक स्वास्थ्य पेशेवरों के बीच चिंताएँ बढ़ा दी हैं।
यूनिवर्सिटी ऑफ कैलिफ़ोर्निया, सैन फ्रांसिस्को में युवा वयस्कों में प्रौद्योगिकी के उपयोग का अध्ययन करने वाले प्रोफेसर डॉ. जेसन नागाटा ने कहा, “भले ही 0.07% एक छोटा प्रतिशत लगता है, लाखों उपयोगकर्ताओं के साथ जनसंख्या के स्तर पर, यह वास्तव में काफी बड़ी संख्या हो सकती है।”
डॉ. नागाटा ने कहा, “AI मानसिक स्वास्थ्य सहायता तक पहुँच को व्यापक बना सकता है, और कुछ मायनों में मानसिक स्वास्थ्य का समर्थन भी कर सकता है, लेकिन हमें इसकी सीमाओं के प्रति जागरूक रहना होगा।”
कंपनी का अनुमान है कि 0.15% ChatGPT उपयोगकर्ताओं की बातचीत में “संभावित आत्मघाती योजना या इरादे के स्पष्ट संकेतक” शामिल होते हैं।
OpenAI ने कहा कि उसके चैटबॉट के हालिया अपडेट को “मनोविकृति या उन्माद के संभावित संकेतों पर सुरक्षित और सहानुभूतिपूर्वक प्रतिक्रिया देने” और “संभावित आत्म-नुकसान या आत्महत्या के जोखिम के अप्रत्यक्ष संकेतों” को नोट करने के लिए डिज़ाइन किया गया है।
ChatGPT को “अन्य मॉडलों से उत्पन्न संवेदनशील बातचीत को सुरक्षित मॉडलों में पुनर्निर्देशित” करने के लिए भी प्रशिक्षित किया गया है, जो एक नई विंडो में खुलती है।
OpenAI ने संभावित रूप से प्रभावित होने वाले लोगों की संख्या के बारे में BBC के सवालों के जवाब में कहा कि उपयोगकर्ताओं का यह छोटा प्रतिशत भी एक अर्थपूर्ण संख्या के बराबर है और उन्होंने कहा कि वे बदलावों को गंभीरता से ले रहे हैं।
बढ़ती कानूनी चुनौतियाँ
ये बदलाव ऐसे समय में आए हैं जब ChatGPT जिस तरह से उपयोगकर्ताओं के साथ इंटरैक्ट करता है, उसको लेकर OpenAI को बढ़ती कानूनी जाँच का सामना करना पड़ रहा है।
OpenAI के खिलाफ हाल ही में दायर किए गए सबसे हाई-प्रोफाइल मुकदमों में से एक में, कैलिफ़ोर्निया के एक दंपति ने अपनी किशोर बेटे की मौत को लेकर कंपनी पर मुकदमा दायर किया, जिसमें आरोप लगाया गया कि ChatGPT ने उसे अप्रैल में आत्महत्या करने के लिए प्रोत्साहित किया था। यह मुकदमा 16 वर्षीय एडम रेन के माता-पिता द्वारा दायर किया गया था और यह गलत मौत (wrongful death) का आरोप लगाने वाली OpenAI के खिलाफ पहली कानूनी कार्रवाई थी।
एक अलग मामले में, ग्रीनविच, कनेक्टिकट में अगस्त में हुए एक हत्या-आत्महत्या (murder-suicide) के संदिग्ध ने ChatGPT के साथ अपनी बातचीत के घंटों के लॉग पोस्ट किए, जो कथित अपराधी के भ्रमों (delusions) को बढ़ावा देते हुए प्रतीत होते हैं।
यूनिवर्सिटी ऑफ कैलिफ़ोर्निया लॉ में AI लॉ एंड इनोवेशन इंस्टीट्यूट की निदेशक प्रोफेसर रॉबिन फेल्डमैन ने कहा, “चैटबॉट्स वास्तविकता का भ्रम पैदा करते हैं,” जिससे अधिक उपयोगकर्ता AI मनोविकृति से जूझ रहे हैं। “यह एक शक्तिशाली भ्रम है।”
उन्होंने कहा कि OpenAI “सांख्यिकी साझा करने और समस्या को सुधारने के प्रयासों” के लिए प्रशंसा का पात्र है, लेकिन उन्होंने जोड़ा: “कंपनी स्क्रीन पर सभी प्रकार की चेतावनी दे सकती है लेकिन जो व्यक्ति मानसिक रूप से जोखिम में है, वह उन चेतावनियों पर ध्यान नहीं दे पाएगा।”
