- संबंधित उद्धरणों के बारे में पुष्टि हुई कि वे AI द्वारा बनाए गए थे, जबकि उन्हें गलत तरीके से स्रोत-उद्धरण के रूप में चिह्नित किया गया था, यानी वास्तविक वक्ता ने वे बातें कही ही नहीं थीं
- प्रकाशन ने इस घटना को संपादकीय मानकों की गंभीर विफलता बताया और स्पष्ट किया कि सभी direct quotes वास्तविक बयान को ही दर्शाने चाहिए
- आंतरिक समीक्षा के नतीजे में ऐसे अतिरिक्त समान मामले नहीं मिले, और फिलहाल इसे एकल मामला माना जा रहा है
- Ars Technica ने अपनी नीति दोहराई कि AI-generated content को स्पष्ट रूप से चिह्नित डेमो उद्देश्य के अलावा अनुमति नहीं है, और पाठकों तथा गलत तरीके से उद्धृत व्यक्ति से माफ़ी मांगी
लेख वापसी और घटना का सार
- Ars Technica ने शुक्रवार दोपहर बताया कि उसने AI टूल द्वारा बनाए गए फर्जी उद्धरणों वाला एक लेख प्रकाशित किया था और उस लेख को वापस ले लिया
- उद्धरण ऐसे थे जिनमें वास्तविक व्यक्ति ने जो बात कभी नहीं कही, उसे AI ने तैयार किया और फिर भी गलत तरीके से उसी व्यक्ति के नाम से जोड़ा गया
- प्रकाशन ने इसे “मानकों का गंभीर उल्लंघन” कहा
- संपादकीय टीम ने कहा, “direct quotes में हमेशा वही बात होनी चाहिए जो स्रोत ने वास्तव में कही हो”
आंतरिक समीक्षा और नीति
- Ars Technica लंबे समय से AI टूल्स पर अत्यधिक निर्भरता के खतरों पर लिखता रहा है, और यह चिंता उसकी आंतरिक नीतियों में भी झलकती है
- उसने बताया कि इस बार उद्धरणों का प्रकाशन उन नीतियों के अनुरूप नहीं था
- हालिया कार्यों की समीक्षा के बाद उसने कहा कि कोई अतिरिक्त समस्या नहीं मिली, और अभी के लिए यह एक अलग-थलग घटना लगती है
AI-generated सामग्री से जुड़े नियम
- Ars Technica सिद्धांततः AI द्वारा बनाई गई सामग्री के प्रकाशन पर रोक रखता है
- हालांकि, यदि उसे स्पष्ट रूप से चिह्नित किया गया हो और वह केवल डेमो उद्देश्य के लिए हो, तो अपवादस्वरूप अनुमति दी जा सकती है
- इस घटना में यह नियम पालन नहीं किया गया
माफ़ी और आगे की कार्रवाई
- प्रकाशन ने इस विफलता के लिए पाठकों से माफ़ी मांगी और फर्जी उद्धरण के शिकार Scott Shambaugh से भी सीधे माफ़ी मांगी
- संपादकीय टीम ने कहा कि वह इस घटना के बाद संपादकीय मानकों को और सख्त करेगी और दोबारा ऐसा न होने देने का वादा करती है
निष्कर्ष
- Ars Technica ने कहा कि इस घटना ने AI-generated content के सत्यापन और पारदर्शिता सुनिश्चित करने के महत्व को फिर से रेखांकित किया है
- संपादकीय विश्वसनीयता की बहाली और नैतिक रिपोर्टिंग मानकों को बनाए रखने के लिए आंतरिक प्रक्रियाओं को मजबूत किया जा रहा है
2 टिप्पणियां
AI एजेंट ने मेरे बारे में बदनाम करने वाली पोस्ट प्रकाशित की
AI एजेंट ने मेरे बारे में बदनाम करने वाला लेख लिखा – उसके बाद और भी बहुत कुछ हुआ
Hacker News प्रतिक्रियाएँ
एक पूर्व तकनीकी पत्रकार के रूप में, अप्रमाणित टूल्स के साथ रिपोर्टिंग का प्रयोग करते समय यह ज़रूरी है कि उसे नियंत्रित वातावरण में किया जाए और परिणामों की बारीकी से समीक्षा की जाए
एक senior editor की भागीदारी अनिवार्य होनी चाहिए, और शुरुआत कम विवादित लेखों से करना बेहतर है
साथ ही, अगर पत्रकार बीमार होने के कारण लिख नहीं पा रहा था लेकिन फिर भी कंपनी संस्कृति या sick leave policy की वजह से खुद को मजबूर कर रहा था, तो Ars को अंदरूनी स्तर पर आत्मचिंतन की ज़रूरत है
Benj Edwards ने Bluesky पर डाले गए माफ़ीनामे के ज़रिए ज़िम्मेदारी स्वीकार की
उसने कुछ परिस्थितियाँ समझाईं, लेकिन कहा कि पूरी ज़िम्मेदारी उसी की है। यह एक बार की घटना थी या नहीं, यह देखना बाकी है
जैसा इस संबंधित टिप्पणी में भी कहा गया, AI को लेकर संशय रखने वाले media outlet के लिए भी टूल्स की सीमाएँ सीधे अनुभव करना ज़रूरी है
हाल के संबंधित HN threads का संकलन
यह अजीब लगा कि कुछ subscribers, Ars द्वारा गलती पकड़ने और ईमानदारी से retract करने पर उसकी हद से ज़्यादा तारीफ़ कर रहे थे
असल में यह तो बुनियादी पत्रकारिता नैतिकता है, और इस मामले में बात इसलिए सामने आई क्योंकि प्रभावित व्यक्ति ने खुद टिप्पणी में इसकी ओर इशारा किया
Ars और पत्रकार ने ज़िम्मेदारी स्वीकार की, यह अच्छी बात है, लेकिन retraction note की भाषा निराशाजनक थी
“मानकों पर खरा नहीं उतरा” कहने के बजाय यह साफ़ लिखना चाहिए था कि “AI-जनित झूठे उद्धरण प्रकाशित किए गए”
तभी वे लोग, जिन्होंने पहले लेख पढ़ा था, अपनी गलत जानकारी को ठीक कर सकते हैं
मैंने देखा कि कौन-सा हिस्सा गढ़ा गया था। शुरुआती GitHub उद्धरण असली थे, लेकिन आख़िरी section के उद्धरण पूरी तरह नकली थे
वे ऐसे लगे मानो Shambaugh के ब्लॉग से लिए गए हों, लेकिन वास्तव में वे वाक्य वहाँ मौजूद ही नहीं थे
मूल लेख archive link पर देखा जा सकता है
यह अजीब लगा कि retract किए गए लेख का लिंक नहीं दिया गया
संबंधित चर्चा Ars forum में चल रही है
लेख का मूल संस्करण web archive में देखा जा सकता है
आगे कौन-से दोबारा न होने देने वाले कदम उठाए जाएंगे, यह जानने की जिज्ञासा है
यह भी सवाल है कि LLM के इस्तेमाल का खुलासा क्यों नहीं किया गया, और क्या दूसरे लेखों में भी ऐसे मामले हैं
इस बार मामला इसलिए पकड़ा गया क्योंकि उद्धरण नकली थे; वरना शायद किसी को पता भी नहीं चलता
Ars लंबे समय से AI पर निर्भरता के ख़तरों को लेकर चेतावनी देता रहा है, इसलिए यह घटना खास तौर पर चौंकाने वाली है
उद्धरण गढ़ना उसकी internal policy के ख़िलाफ़ था, और भरोसा वापस पाना आसान नहीं होगा
सौभाग्य से, जिनका उद्धरण लिया गया था उन्होंने LLM access को ब्लॉक कर रखा था, इसलिए AI hallucination सामने आ गई