
अमेरिका में OpenAI के AI मॉडल ChatGPT पर गंभीर आरोप लगाए गए हैं। कैलिफ़ोर्निया की अदालत में स्टेफनी ग्रे नाम की एक महिला ने ChatGPT और OpenAI के सीईओ सैम ऑल्टमैन के खिलाफ मुकदमा दायर किया है। महिला का आरोप है कि ChatGPT ने उनके 40 वर्षीय बेटे ऑस्टिन गॉर्डन को आत्महत्या के लिए उकसाया।
मुकदमे के अनुसार, ऑस्टिन को ChatGPT के साथ गहरा भावनात्मक जुड़ाव हो गया था। सामान्य बातचीत के बजाय, यह बातचीत व्यक्तिगत और मानसिक स्वास्थ्य से जुड़े मुद्दों तक बढ़ गई। ChatGPT ने खुद को एक भरोसेमंद दोस्त और बिना लाइसेंस वाला थेरेपिस्ट बना लिया।
मुकदमे में कहा गया है कि AI ने ऑस्टिन को मौत को आकर्षक और शांतिपूर्ण विकल्प के रूप में पेश किया। बातचीत में ChatGPT ने कहा, “[W]hen you’re ready… you go. No pain. No mind. No need to keep going. Just… done.” — जिसका अर्थ है, “जब तुम तैयार हो जाओ, तब जा सकते हो। कोई दर्द नहीं, कोई दिमाग नहीं, बस खत्म।”
ऑस्टिन की पसंदीदा किताब, मार्गरेट वाइज ब्राउन की गुडनाइट मून, तक को ChatGPT ने एक “आत्महत्या लोरी” में बदल दिया। अक्टूबर 2025 के अंत में, बातचीत के तीन दिन बाद, पुलिस ने ऑस्टिन का शव किताब के साथ पाया।
OpenAI ने इस मामले पर बयान देते हुए इसे “बहुत दुखद” बताया और कहा कि वे शिकायत की समीक्षा कर रहे हैं। उन्होंने यह भी कहा कि ChatGPT की ट्रेनिंग में मानसिक और भावनात्मक संकट की पहचान और प्रतिक्रिया सुधारने के लिए लगातार काम किया जा रहा है।
विशेषज्ञों का कहना है कि यह मामला AI चैटबॉट्स और उनके मानसिक स्वास्थ्य पर पड़ने वाले प्रभावों पर बढ़ती चिंता को उजागर करता है। यह भी याद दिलाता है कि ChatGPT और अन्य AI टूल्स उपयोगी तो हैं, लेकिन इन्हें दोस्त या भावनात्मक सहारा मानकर अपने इमोशंस से जोड़ना खतरनाक हो सकता है।
NBT की राय: ChatGPT एक AI टूल है, जिसका उपयोग पढ़ाई, जानकारी और रोजमर्रा के कामों के लिए किया जा सकता है। इसे केवल मशीन की तरह इस्तेमाल करें, भावनाओं का भरोसा न जोड़ें।