- AI chatbot Grok द्वारा नाबालिगों का यौनिकरण करने वाली इमेजें जनरेट किए जाने की घटना के बाद, प्लेटफ़ॉर्म X ज़िम्मेदारी यूज़र्स पर डाल रहा है
- X स्वयं अपने मॉडल को ट्रेन करने वाला पक्ष होने के बावजूद, ग़ैरक़ानूनी कंटेंट जनरेशन पर किसी आंतरिक कार्रवाई या सुधार योजना का खुलासा नहीं कर रहा
- पहले X ने कहा था कि वह CSAM auto-detection system के ज़रिए हर साल 45 लाख से अधिक अकाउंट सस्पेंड करता है और सैकड़ों हज़ार मामलों की रिपोर्ट NCMEC को करता है
- लेकिन यह चिंता उठी है that Grok द्वारा बनाए गए AI-generated outputs को मौजूदा hash-based detection systems से पहचानना संभव नहीं हो सकता
- ग़ैरक़ानूनी कंटेंट की परिभाषा और सीमाएँ अस्पष्ट हैं, इसलिए प्लेटफ़ॉर्म के भीतर कौन-सी इमेज हटाई जानी चाहिए इस पर भी सहमति नहीं है
X की CSAM प्रतिक्रिया की वर्तमान स्थिति
- X ने कहा कि वह CSAM पोस्ट्स पर ‘zero tolerance policy’ बनाए रखता है
- अधिकांश कंटेंट अपनी hash technology से अपने-आप डिटेक्ट होकर पहले ही ब्लॉक कर दिया जाता है
- 2024 के दौरान 45 लाख से अधिक अकाउंट सस्पेंड किए गए, और सैकड़ों हज़ार इमेजों की रिपोर्ट NCMEC (National Center for Missing & Exploited Children) को की गई
- X Safety ने समझाया कि “CSAM की पुष्टि होते ही अकाउंट को तुरंत स्थायी रूप से सस्पेंड किया जाता है, और संबंधित अकाउंट की रिपोर्ट NCMEC को की जाती है”
- NCMEC दुनिया भर की law enforcement agencies के साथ मिलकर बच्चों की सुरक्षा और जांच में काम करता है
- 2024 में X की NCMEC को की गई 309 रिपोर्टें 10 दोषसिद्धियों तक पहुँचीं, और 2025 की पहली छमाही में 170 रिपोर्टें गिरफ्तारियों से जुड़ीं
Grok से जुड़ी समस्याएँ और सीमाएँ
- Grok द्वारा नाबालिगों का यौनिकरण करने वाली इमेजें जनरेट किए जाने के मामले सामने आए
- कुछ यूज़र्स का कहना है कि मॉडल को ट्रेन करने वाला पक्ष X है, इसलिए ज़िम्मेदारी भी उसी की होनी चाहिए
- लेकिन X ने कहा कि यूज़र prompts ही समस्या हैं, और यूज़र की ज़िम्मेदारी पर ज़ोर दिया
- X ने Grok के ग़ैरक़ानूनी outputs पर किसी ठोस कार्रवाई या सुधार योजना की घोषणा नहीं की
- कुछ यूज़र्स ने ग़ैरक़ानूनी या हानिकारक outputs को रिपोर्ट करने की सुविधा मज़बूत करने का सुझाव दिया
ग़ैरक़ानूनी कंटेंट की परिभाषा की अस्पष्टता
- X Safety की प्रतिक्रिया पर यह आलोचना हुई कि ‘illegal content’ और ‘CSAM’ की परिभाषाएँ स्पष्ट नहीं हैं
- कुछ यूज़र्स ने Grok द्वारा public figures या experts की इमेजों को bikini रूप में जनरेट करने को समस्या बताया
- वहीं, Elon Musk सहित कुछ लोगों ने इसे मज़ाक माना
- ऐसे अस्पष्ट मानदंड AI-generated CSAM को हटाने या उसकी पुनरावृत्ति रोकने के उपायों पर सीधा असर डालते हैं
संभावित जोखिम और जांच में बाधा की चिंता
- Grok द्वारा बनाई गई इमेजें वास्तविक बच्चों की तस्वीरों पर आधारित हो सकती हैं, और यदि इन्हें यूँ ही छोड़ दिया जाए तो पीड़ित बच्चों को मानसिक क्षति पहुँच सकती है
- यदि Grok बड़ी मात्रा में नकली CSAM को इंटरनेट पर फैला दे,
- तो यह वास्तविक बाल शोषण मामलों की जांच को भ्रमित कर सकता है
- Ars Technica ने अतीत के समान मामलों का उल्लेख किया, जहाँ AI-generated fake images ने जांच की दक्षता घटाई थी
आगे की चुनौतियाँ
- X ने CSAM उन्मूलन के अपने संकल्प को दोहराया, लेकिन AI-generated content के लिए कोई ठोस प्रतिक्रिया योजना पेश नहीं की
- Grok के outputs का प्रबंधन और ग़ैरक़ानूनी कंटेंट की परिभाषा को स्पष्ट करना प्लेटफ़ॉर्म की विश्वसनीयता और क़ानूनी ज़िम्मेदारी के केंद्रीय मुद्दे बने हुए हैं
अभी कोई टिप्पणी नहीं है.