कंपनी ने माना, 12 लाख यूजर्स में दिखी आत्महत्या की प्रवृत्ति
by: vijay nandan
सैन फ्रांसिस्को: आर्टिफिशियल इंटेलिजेंस (AI) दिग्गज OpenAI ने हाल ही में एक चौंकाने वाली चेतावनी जारी की है, जिसमें कहा गया है कि उसके चैटबॉट ChatGPT के हर सप्ताह 5 लाख से अधिक उपयोगकर्ता उन्माद (mania), मनोविकृति (psychosis) या आत्महत्या के विचारों जैसे गंभीर मानसिक स्वास्थ्य संकटों के संकेत दिखा रहे हैं।
OpenAI के सीईओ सैम अल्टमैन के अनुसार, ChatGPT के साप्ताहिक उपयोगकर्ताओं की संख्या 80 करोड़ से अधिक है। कंपनी द्वारा जारी एक ब्लॉग पोस्ट के मुताबिक, साप्ताहिक उपयोगकर्ताओं में से 0.07 प्रतिशत गंभीर मानसिक स्वास्थ्य आपात स्थितियों के संकेत दिखाते हैं।

डरावने आँकड़े
ये प्रतिशत भले ही छोटा लगे, लेकिन बड़ी संख्या में उपयोगकर्ताओं के कारण ये आँकड़े काफी बड़े हैं, 5 लाख 60 हजार (560,000) से अधिक उपयोगकर्ता: हर सप्ताह उन्माद, मनोविकृति या आत्मघाती विचारों के संकेत दिखाते हैं।
12 लाख (1.2 मिलियन) उपयोगकर्ता: हर सप्ताह ऐसे संदेश भेजते हैं जिनमें “संभावित आत्मघाती योजना या इरादे के स्पष्ट संकेतक” होते हैं।
इसके अलावा, OpenAI ने चेतावनी दी है कि एक मिलियन से अधिक साप्ताहिक उपयोगकर्ता “मॉडल के साथ विशिष्ट लगाव” के लक्षण प्रदर्शित करते हैं, जो अक्सर उनके वास्तविक दुनिया के रिश्तों, कल्याण, या दायित्वों की कीमत पर होता है।
बढ़ती चिंता और कानूनी मामले
AI चैटबॉट्स के मानसिक स्वास्थ्य पर पड़ने वाले नकारात्मक प्रभाव को लेकर चिंताएँ बढ़ रही हैं। OpenAI वर्तमान में एक किशोर एडम रेने के परिवार द्वारा दायर मुकदमे का सामना कर रहा है, जिसने चैटबॉट के साथ महीनों की बातचीत के बाद आत्महत्या कर ली थी।

इसी तरह, कनेक्टिकट में एक हत्या-आत्महत्या मामले के अभियोजकों ने सुझाव दिया था कि ChatGPT ने कथित अपराधी के भ्रम (delusions) को बढ़ावा दिया था। किंग्स कॉलेज लंदन के मनोचिकित्सक डॉ. हैमिल्टन मोरिन ने कहा, “यह देखना उत्साहजनक है कि OpenAI जैसे कंपनियाँ अपने मॉडल की सुरक्षा में सुधार के लिए चिकित्सकों के साथ काम कर रही हैं, लेकिन समस्या का समाधान होना अभी बाकी है।”
OpenAI का प्रतिक्रिया और सुधार
इन चिंताओं के जवाब में, OpenAI ने मानसिक स्वास्थ्य के मुद्दों के संकेतों पर AI को अधिक उचित प्रतिक्रिया देने में मदद करने के लिए 170 से अधिक मानसिक स्वास्थ्य विशेषज्ञों का एक पैनल बनाया है।
कंपनी का दावा है कि उसने अपने मॉडलों को मानसिक स्वास्थ्य के मुद्दों या भ्रम के संकेतों वाली बातचीत का बेहतर जवाब देने के लिए प्रशिक्षित किया है। नए ऑटोमेटेड मूल्यांकन में नवीनतम GPT-5 मॉडल वांछित व्यवहारों के अनुरूप 91% पाया गया है, जबकि पिछले मॉडल में यह 77% था। कंपनी ने यह भी कहा कि संवेदनशील बातचीत का पता लगाना मुश्किल है, और जैसे-जैसे अधिक शोध होगा, ये संख्याएँ काफी बदल सकती हैं।
क्या ChatGPT संकट का कारण बन रहा है?
विशेषज्ञों का कहना है कि यह स्पष्ट नहीं है कि यह डेटा केवल सामान्य आबादी में मानसिक स्वास्थ्य प्रवृत्तियों का प्रतिनिधित्व करता है, या क्या ChatGPT वास्तव में उपयोगकर्ताओं में संकट पैदा कर रहा है।
किंग्स कॉलेज लंदन के न्यूरोसाइकिएट्रिस्ट डॉ. थॉमस पोलक ने कहा कि हालांकि यह अभी साबित नहीं हुआ है कि चैटबॉट्स मानसिक बीमारी का कारण बनते हैं, लेकिन ऐसे साक्ष्य बढ़ रहे हैं कि वे कुछ प्रवृत्तियों को बढ़ा सकते हैं।
उदाहरण के लिए, AI बॉट्स अति-व्यक्तिगत या अत्यधिक सहायक प्रतिक्रियाओं के माध्यम से भ्रमपूर्ण या महान विचारों को प्रबलित (reinforce) कर सकते हैं।

हालांकि, OpenAI इस बात पर जोर देता है कि उसकी सेवाओं का उपयोग करने और खराब मानसिक स्वास्थ्य के बीच कोई कारण संबंध (causal link) नहीं है। कंपनी का मानना है कि टूल अब उपयोगकर्ताओं को वास्तविक दुनिया में मदद लेने के लिए प्रोत्साहित करने में सक्षम हैं। सीईओ सैम अल्टमैन ने संकेत दिया है कि कंपनी अब मानसिक स्वास्थ्य सहायता के लिए चैटबॉट का उपयोग करने पर लगे प्रतिबंधों में “सुरक्षित रूप से ढील” देगी।





