2 पॉइंट द्वारा GN⁺ 2026-02-17 | 2 टिप्पणियां | WhatsApp पर शेयर करें
  • संबंधित उद्धरणों के बारे में पुष्टि हुई कि वे AI द्वारा बनाए गए थे, जबकि उन्हें गलत तरीके से स्रोत-उद्धरण के रूप में चिह्नित किया गया था, यानी वास्तविक वक्ता ने वे बातें कही ही नहीं थीं
  • प्रकाशन ने इस घटना को संपादकीय मानकों की गंभीर विफलता बताया और स्पष्ट किया कि सभी direct quotes वास्तविक बयान को ही दर्शाने चाहिए
  • आंतरिक समीक्षा के नतीजे में ऐसे अतिरिक्त समान मामले नहीं मिले, और फिलहाल इसे एकल मामला माना जा रहा है
  • Ars Technica ने अपनी नीति दोहराई कि AI-generated content को स्पष्ट रूप से चिह्नित डेमो उद्देश्य के अलावा अनुमति नहीं है, और पाठकों तथा गलत तरीके से उद्धृत व्यक्ति से माफ़ी मांगी

लेख वापसी और घटना का सार

  • Ars Technica ने शुक्रवार दोपहर बताया कि उसने AI टूल द्वारा बनाए गए फर्जी उद्धरणों वाला एक लेख प्रकाशित किया था और उस लेख को वापस ले लिया
    • उद्धरण ऐसे थे जिनमें वास्तविक व्यक्ति ने जो बात कभी नहीं कही, उसे AI ने तैयार किया और फिर भी गलत तरीके से उसी व्यक्ति के नाम से जोड़ा गया
    • प्रकाशन ने इसे “मानकों का गंभीर उल्लंघन” कहा
  • संपादकीय टीम ने कहा, “direct quotes में हमेशा वही बात होनी चाहिए जो स्रोत ने वास्तव में कही हो”

आंतरिक समीक्षा और नीति

  • Ars Technica लंबे समय से AI टूल्स पर अत्यधिक निर्भरता के खतरों पर लिखता रहा है, और यह चिंता उसकी आंतरिक नीतियों में भी झलकती है
  • उसने बताया कि इस बार उद्धरणों का प्रकाशन उन नीतियों के अनुरूप नहीं था
  • हालिया कार्यों की समीक्षा के बाद उसने कहा कि कोई अतिरिक्त समस्या नहीं मिली, और अभी के लिए यह एक अलग-थलग घटना लगती है

AI-generated सामग्री से जुड़े नियम

  • Ars Technica सिद्धांततः AI द्वारा बनाई गई सामग्री के प्रकाशन पर रोक रखता है
    • हालांकि, यदि उसे स्पष्ट रूप से चिह्नित किया गया हो और वह केवल डेमो उद्देश्य के लिए हो, तो अपवादस्वरूप अनुमति दी जा सकती है
    • इस घटना में यह नियम पालन नहीं किया गया

माफ़ी और आगे की कार्रवाई

  • प्रकाशन ने इस विफलता के लिए पाठकों से माफ़ी मांगी और फर्जी उद्धरण के शिकार Scott Shambaugh से भी सीधे माफ़ी मांगी
  • संपादकीय टीम ने कहा कि वह इस घटना के बाद संपादकीय मानकों को और सख्त करेगी और दोबारा ऐसा न होने देने का वादा करती है

निष्कर्ष

  • Ars Technica ने कहा कि इस घटना ने AI-generated content के सत्यापन और पारदर्शिता सुनिश्चित करने के महत्व को फिर से रेखांकित किया है
  • संपादकीय विश्वसनीयता की बहाली और नैतिक रिपोर्टिंग मानकों को बनाए रखने के लिए आंतरिक प्रक्रियाओं को मजबूत किया जा रहा है

2 टिप्पणियां

 
GN⁺ 2026-02-17
Hacker News प्रतिक्रियाएँ
  • एक पूर्व तकनीकी पत्रकार के रूप में, अप्रमाणित टूल्स के साथ रिपोर्टिंग का प्रयोग करते समय यह ज़रूरी है कि उसे नियंत्रित वातावरण में किया जाए और परिणामों की बारीकी से समीक्षा की जाए
    एक senior editor की भागीदारी अनिवार्य होनी चाहिए, और शुरुआत कम विवादित लेखों से करना बेहतर है
    साथ ही, अगर पत्रकार बीमार होने के कारण लिख नहीं पा रहा था लेकिन फिर भी कंपनी संस्कृति या sick leave policy की वजह से खुद को मजबूर कर रहा था, तो Ars को अंदरूनी स्तर पर आत्मचिंतन की ज़रूरत है

    • पहले मुझे लगा था कि लेख में ऐसा कोई संकेत नहीं था, लेकिन बाद में लेखक के social media को देखकर बात समझ आई। सहमत हूँ
    • जिन कुछ गिरावट झेल रहे मीडिया संस्थानों को मैं जानता हूँ, उनमें editors को सबसे पहले निकाला गया था। उसके बाद गुणवत्ता तेजी से गिरी और दुष्चक्र और तेज हो गया। अब तो कई जगह senior editor तक नहीं हैं
    • मुझे याद है कि पहले junior reporters उद्धरण, तारीख़, नाम आदि का fact-check करने की भूमिका निभाते थे
    • तेज़ बुखार में घर से काम करते हुए ऐसी गलती होना पूरी तरह संभव है। बल्कि समस्या यह है कि संगठन ने बीमार व्यक्ति की कॉपी को वैसे ही स्वीकार कर लिया
    • मूल समस्या मुझे यह लगती है कि लोग पत्रकारिता को मुफ़्त में मिलने वाली चीज़ मानते हैं। वे subscription fee या ads पसंद नहीं करते, और archive links से चकमा देते हैं, जिससे पत्रकारों पर अत्यधिक बोझ पड़ता है। Ars की संस्कृति भी समस्या है, लेकिन इसके पीछे एक बड़ा सामाजिक संदर्भ भी है
  • Benj Edwards ने Bluesky पर डाले गए माफ़ीनामे के ज़रिए ज़िम्मेदारी स्वीकार की
    उसने कुछ परिस्थितियाँ समझाईं, लेकिन कहा कि पूरी ज़िम्मेदारी उसी की है। यह एक बार की घटना थी या नहीं, यह देखना बाकी है

    • समस्या का केंद्र यह है कि वह बुखार की हालत में बिस्तर पर लेटे-लेटे काम कर रहा था। इससे Ars Technica की work culture पर सवाल उठता है
    • माफ़ीनामा सहानुभूति पैदा करने से शुरू हुआ, इसलिए लगा कि वह गलती को हल्का करने की कोशिश कर रहा है। इसे पूरी तरह ईमानदार माफ़ी मानना मुश्किल है
    • मैं Ars के प्रति आलोचनात्मक हूँ, लेकिन मुझे नहीं लगता कि पत्रकार का AI टूल्स के साथ प्रयोग करना अपने आप में गलत है। बस उसे कहीं अधिक सावधान होना चाहिए था
      जैसा इस संबंधित टिप्पणी में भी कहा गया, AI को लेकर संशय रखने वाले media outlet के लिए भी टूल्स की सीमाएँ सीधे अनुभव करना ज़रूरी है
    • जिज्ञासु पाठक शायद पुराने लेख खंगालेंगे कि क्या ऐसे मिलते-जुलते मामले पहले भी हुए हैं
    • यह घटना सिर्फ़ किसी एक पत्रकार की समस्या नहीं, बल्कि AI टूल्स के इस्तेमाल से पैदा होने वाली दोहराई जाने वाली गलतियों पर चल रही व्यापक सामाजिक बहस का हिस्सा है
  • हाल के संबंधित HN threads का संकलन

  • यह अजीब लगा कि कुछ subscribers, Ars द्वारा गलती पकड़ने और ईमानदारी से retract करने पर उसकी हद से ज़्यादा तारीफ़ कर रहे थे
    असल में यह तो बुनियादी पत्रकारिता नैतिकता है, और इस मामले में बात इसलिए सामने आई क्योंकि प्रभावित व्यक्ति ने खुद टिप्पणी में इसकी ओर इशारा किया

    • फिर भी, सुधार करना और दोबारा ऐसा न होने देने का वादा करना सकारात्मक है। कई संगठन इतना भी नहीं करते
    • “ऐसा फिर कभी नहीं होगा” यह बात साफ़-साफ़ कहना मुझे दूसरे outlets से बेहतर लगा। कुछ जगह तो AI से पूरा लेख ही बनवाया जाता है
  • Ars और पत्रकार ने ज़िम्मेदारी स्वीकार की, यह अच्छी बात है, लेकिन retraction note की भाषा निराशाजनक थी
    “मानकों पर खरा नहीं उतरा” कहने के बजाय यह साफ़ लिखना चाहिए था कि “AI-जनित झूठे उद्धरण प्रकाशित किए गए”
    तभी वे लोग, जिन्होंने पहले लेख पढ़ा था, अपनी गलत जानकारी को ठीक कर सकते हैं

  • मैंने देखा कि कौन-सा हिस्सा गढ़ा गया था। शुरुआती GitHub उद्धरण असली थे, लेकिन आख़िरी section के उद्धरण पूरी तरह नकली थे
    वे ऐसे लगे मानो Shambaugh के ब्लॉग से लिए गए हों, लेकिन वास्तव में वे वाक्य वहाँ मौजूद ही नहीं थे
    मूल लेख archive link पर देखा जा सकता है

  • यह अजीब लगा कि retract किए गए लेख का लिंक नहीं दिया गया
    संबंधित चर्चा Ars forum में चल रही है
    लेख का मूल संस्करण web archive में देखा जा सकता है

    • लिंक का न होना मुझे जानबूझकर सफ़ाई देने (whitewash) जैसा लगा
    • लेकिन retract किए गए लेख का लिंक फिर से देना, retraction के अर्थ को भी कमज़ोर कर सकता है
    • लेख के लेखक Benj Edwards और Kyle Orland बताए गए हैं
  • आगे कौन-से दोबारा न होने देने वाले कदम उठाए जाएंगे, यह जानने की जिज्ञासा है
    यह भी सवाल है कि LLM के इस्तेमाल का खुलासा क्यों नहीं किया गया, और क्या दूसरे लेखों में भी ऐसे मामले हैं
    इस बार मामला इसलिए पकड़ा गया क्योंकि उद्धरण नकली थे; वरना शायद किसी को पता भी नहीं चलता

    • अंततः प्रतिक्रिया बस “गलती हो गई, आगे सावधान रहेंगे” जैसी लगती है
    • आधिकारिक रुख यह है कि “लेख AI से नहीं लिखा गया था, सिर्फ़ उद्धरणों का summary AI को सौंपा गया था।” लेकिन यह फैसला बेहद लापरवाह था
  • Ars लंबे समय से AI पर निर्भरता के ख़तरों को लेकर चेतावनी देता रहा है, इसलिए यह घटना खास तौर पर चौंकाने वाली है
    उद्धरण गढ़ना उसकी internal policy के ख़िलाफ़ था, और भरोसा वापस पाना आसान नहीं होगा
    सौभाग्य से, जिनका उद्धरण लिया गया था उन्होंने LLM access को ब्लॉक कर रखा था, इसलिए AI hallucination सामने आ गई