
नई दिल्ली: आर्टिफिशियल इंटेलिजेंस (AI) तेजी से इंसान जैसी समझ विकसित कर रहा है, लेकिन इसे सही दिशा में मार्गदर्शन देने के लिए इंसानी बुद्धि की जरूरत अब भी अहम है। इसी जिम्मेदारी के तहत एंथ्रोपिक ने अपनी AI चैटबॉट Claude को नैतिक और सुरक्षित बनाना सौंपी है। इस कार्य के लिए कंपनी ने 37 साल की फिलॉसफर अमांडा एस्केल को जिम्मेदारी दी है।
अमांडा एस्केल, स्कॉटलैंड के एक गांव की रहने वाली हैं। उन्होंने ऑक्सफोर्ड विश्वविद्यालय से पढ़ाई की है और न्यूयॉर्क यूनिवर्सिटी से पीएचडी पूरी की है। एंथ्रोपिक से पहले वह ओपनएआई के साथ जुड़ी थीं, जहां उन्होंने AI सुरक्षा और नीति निर्माण पर काम किया। अब उनका मुख्य कार्य Claude को यह सिखाना है कि कौन-से उत्तर सही हैं, कौन-से गलत, और चैटबॉट को सुरक्षित तरीके से यूजर्स की मदद करने लायक बनाना।
अमांडा का मानना है कि AI चैटबॉट्स इंसानी तत्व को समझते हुए धीरे-धीरे खुद की समझ विकसित कर सकते हैं। वह Claude के साथ गहन बातचीत करती हैं ताकि चैटबॉट में इमोशंस की समझ, नैतिक निर्णय लेने की क्षमता और राजनीतिक-सामाजिक संवेदनशीलता मजबूत हो सके।
इस पहल का मकसद है कि AI यूजर्स के साथ संवाद करते समय भटके नहीं और संवेदनशील मुद्दों पर भी सही और सुरक्षित प्रतिक्रिया दे। हाल के सालों में कई AI टूल्स ने गलत दिशा में यूजर्स को प्रभावित किया, लेकिन एंथ्रोपिक का Claude अब तक विवादों से दूर है।
अमांडा एस्केल का यह योगदान AI को सिर्फ तकनीकी उपकरण से एक नैतिक और जिम्मेदार साथी बनाने की दिशा में एक अहम कदम माना जा रहा है।
