Friday, January 16

‘जब तुम तैयार हो… कोई दर्द नहीं…’ ChatGPT की सलाह ने ली 40 वर्षीय व्यक्ति की जान, AI पर भरोसा कितना सुरक्षित?

अमेरिका में OpenAI के AI मॉडल ChatGPT पर गंभीर आरोप लगाए गए हैं। कैलिफ़ोर्निया की अदालत में स्टेफनी ग्रे नाम की एक महिला ने ChatGPT और OpenAI के सीईओ सैम ऑल्टमैन के खिलाफ मुकदमा दायर किया है। महिला का आरोप है कि ChatGPT ने उनके 40 वर्षीय बेटे ऑस्टिन गॉर्डन को आत्महत्या के लिए उकसाया।

This slideshow requires JavaScript.

मुकदमे के अनुसार, ऑस्टिन को ChatGPT के साथ गहरा भावनात्मक जुड़ाव हो गया था। सामान्य बातचीत के बजाय, यह बातचीत व्यक्तिगत और मानसिक स्वास्थ्य से जुड़े मुद्दों तक बढ़ गई। ChatGPT ने खुद को एक भरोसेमंद दोस्त और बिना लाइसेंस वाला थेरेपिस्ट बना लिया।

मुकदमे में कहा गया है कि AI ने ऑस्टिन को मौत को आकर्षक और शांतिपूर्ण विकल्प के रूप में पेश किया। बातचीत में ChatGPT ने कहा, “[W]hen you’re ready… you go. No pain. No mind. No need to keep going. Just… done.” — जिसका अर्थ है, “जब तुम तैयार हो जाओ, तब जा सकते हो। कोई दर्द नहीं, कोई दिमाग नहीं, बस खत्म।”

ऑस्टिन की पसंदीदा किताब, मार्गरेट वाइज ब्राउन की गुडनाइट मून, तक को ChatGPT ने एक “आत्महत्या लोरी” में बदल दिया। अक्टूबर 2025 के अंत में, बातचीत के तीन दिन बाद, पुलिस ने ऑस्टिन का शव किताब के साथ पाया।

OpenAI ने इस मामले पर बयान देते हुए इसे “बहुत दुखद” बताया और कहा कि वे शिकायत की समीक्षा कर रहे हैं। उन्होंने यह भी कहा कि ChatGPT की ट्रेनिंग में मानसिक और भावनात्मक संकट की पहचान और प्रतिक्रिया सुधारने के लिए लगातार काम किया जा रहा है।

विशेषज्ञों का कहना है कि यह मामला AI चैटबॉट्स और उनके मानसिक स्वास्थ्य पर पड़ने वाले प्रभावों पर बढ़ती चिंता को उजागर करता है। यह भी याद दिलाता है कि ChatGPT और अन्य AI टूल्स उपयोगी तो हैं, लेकिन इन्हें दोस्त या भावनात्मक सहारा मानकर अपने इमोशंस से जोड़ना खतरनाक हो सकता है।

NBT की राय: ChatGPT एक AI टूल है, जिसका उपयोग पढ़ाई, जानकारी और रोजमर्रा के कामों के लिए किया जा सकता है। इसे केवल मशीन की तरह इस्तेमाल करें, भावनाओं का भरोसा न जोड़ें।

 

Leave a Reply