
टेक ट्रांसपेरेंसी प्रोजेक्ट (TTP) की एक रिपोर्ट में सामने आया है कि गूगल प्ले स्टोर और ऐपल ऐप स्टोर पर दर्जनों ऐसे AI ऐप्स मौजूद हैं, जो किसी भी साधारण तस्वीर को अश्लील इमेज में बदल सकते हैं। इन ऐप्स को तकनीकी भाषा में Nudify ऐप्स कहा जाता है।
खतरे की तस्वीर
रिपोर्ट के अनुसार, इन ऐप्स का डाउनलोड और इस्तेमाल महिलाओं की सुरक्षा के लिए गंभीर खतरा पैदा कर रहा है। AppMagic के आंकड़ों के मुताबिक, दुनिया भर में इन ऐप्स को 70.5 करोड़ से ज्यादा बार डाउनलोड किया गया है और इनकी कमाई लगभग 117 मिलियन डॉलर (970 करोड़ रुपये) तक पहुंच चुकी है। इन ऐप्स की होने वाली कमाई का हिस्सा एप्पल और गूगल भी कमीशन के रूप में लेते हैं।
Apple और Google की कार्रवाई
TTP की रिपोर्ट के बाद Apple ने 28 ऐप्स को हटाने की जानकारी दी, जबकि Google ने कई ऐप्स को सस्पेंड किया और जांच जारी है। लेकिन TTP का कहना है कि यह कार्रवाई अल्प और नाकाफी है। रिपोर्ट में यह भी चेतावनी दी गई है कि AI आधारित डीपफेक ऐप्स का गलत इस्तेमाल महिलाओं की निजता और सुरक्षा पर गंभीर खतरा पैदा कर सकता है।
Grok और डीपफेक का उदाहरण
इस मामले को और गंभीर बनाते हुए, हाल ही में एलन मस्क की कंपनी xAI का AI चैटबॉट Grok विवाद में आया। इसके जरिए बिना सहमति के अश्लील तस्वीरें बनाई गईं। केवल 11 दिनों में 30 लाख से अधिक यौन सामग्री वाली तस्वीरें Grok से बनाई गईं। विशेषज्ञों का कहना है कि दुनियाभर की सरकारों को नॉन-कंसेंशियल डीपफेक कंटेंट पर सख्त कानून बनाने की जरूरत है।
निष्कर्ष
ऐसे ऐप्स और AI टूल्स महिलाओं की सुरक्षा और निजता के लिए गंभीर खतरा हैं। टेक कंपनियों और सरकारों के लिए यह एक चेतावनी है कि AI आधारित अश्लील सामग्री को रोकने के लिए ठोस कदम उठाने की आवश्यकता है।