2 पॉइंट द्वारा GN⁺ 2026-03-04 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • AI टूल से जनरेट किए गए फर्जी उद्धरण वाले लेख पर विवाद के बाद रिपोर्टर Benj Edwards को नौकरी से निकाल दिया गया
  • विवादित लेख उस घटना पर था जिसमें एक AI ने मानव इंजीनियर Scott Shambaugh के बारे में आलोचनात्मक पोस्ट प्रकाशित की थी, लेकिन बाद में पता चला कि उसमें फर्जी उद्धरण शामिल थे, जिसके बाद लेख वापस ले लिया गया
  • Edwards ने बताया कि Claude Code-आधारित AI टूल का उपयोग करते समय त्रुटि हुई, और समस्या समझने के लिए ChatGPT का इस्तेमाल करते हुए उन्होंने गलती से गलत उद्धरण शामिल कर दिए
  • Ars Technica ने इस मामले को “मानकों का गंभीर उल्लंघन” बताया, आंतरिक समीक्षा पूरी कर ली है, और आगे AI उपयोग दिशानिर्देश जारी करने की योजना है
  • यह घटना दिखाती है कि मीडिया में AI के उपयोग और नैतिक मानकों के टकराव के इस दौर में, AI विशेषज्ञ भी मानवीय भूल और तकनीकी सीमाओं से अछूते नहीं हैं

Ars Technica रिपोर्टर बर्खास्तगी मामले का सार

  • Ars Technica ने AI-जनरेटेड फर्जी उद्धरण वाले लेख पर विवाद के बाद रिपोर्टर Benj Edwards की नौकरी समाप्त कर दी
    • यह मीडिया आउटलेट Condé Nast के स्वामित्व में है
  • विवादित लेख 13 फ़रवरी को प्रकाशित AI-संबंधित रिपोर्ट था, जिसमें AI एजेंट द्वारा मानव इंजीनियर Scott Shambaugh की आलोचना करने वाली पोस्ट प्रकाशित करने की घटना को कवर किया गया था
  • Shambaugh ने बताया कि लेख में ऐसे उद्धरण शामिल थे जो उन्होंने कभी नहीं कहे; इसके बाद प्रधान संपादक Ken Fisher ने माफ़ीनामा प्रकाशित किया और लेख वापस ले लिया

प्रधान संपादक की माफ़ी और आंतरिक कार्रवाई

  • Fisher ने माफ़ीनामे में स्वीकार किया कि लेख में “AI टूल द्वारा जनरेट किए गए फर्जी उद्धरण” शामिल थे, और इसे “मानकों का गंभीर उल्लंघन” कहा
  • उन्होंने यह भी जोड़ा कि यह “अलग-थलग घटना” प्रतीत होती है, और बाद में Ars Technica ने घोषणा की कि उसकी आंतरिक समीक्षा पूरी हो चुकी है
  • क्रिएटिव डायरेक्टर Aurich Lawson ने पाठकों की टिप्पणी थ्रेड बंद करते हुए कहा कि “उपयुक्त आंतरिक कार्रवाई पूरी कर ली गई है
    • उन्होंने यह भी कहा कि भविष्य में पाठकों के लिए AI का उपयोग कैसे किया जाए और कैसे न किया जाए, इस पर एक गाइड जारी की जाएगी

Benj Edwards की सफ़ाई

  • Edwards ने Bluesky पोस्ट में कहा, “AI टूल का उपयोग करते समय मुझसे गलती से फर्जी उद्धरण शामिल हो गए,” और पूरी ज़िम्मेदारी स्वीकार की
    • उन्होंने बताया कि उस समय वे मेडिकल लीव पर थे, और Claude Code-आधारित प्रायोगिक AI टूल से उद्धरण व्यवस्थित करने की कोशिश के दौरान त्रुटि हुई
    • इसके बाद ChatGPT से समस्या का कारण समझने की प्रक्रिया में, वास्तविक बयान के बजाय अर्थानुवादित वाक्य लेख में शामिल हो गया
  • उन्होंने ज़ोर देकर कहा कि “लेख इंसान ने लिखा था, AI द्वारा जनरेट किया गया कोई लेख नहीं था,” और यह भी स्पष्ट किया कि सह-लेखक Kyle Orland का इस गलती से कोई संबंध नहीं था

पाठकों की प्रतिक्रिया और बाद के बदलाव

  • Ars Technica के पाठकों ने लेख की टिप्पणी थ्रेड में कड़ी निराशा और गुस्सा व्यक्त किया
  • 28 फ़रवरी तक Edwards की Ars Technica प्रोफ़ाइल को भूतकाल में बदल दिया गया, जिससे पुष्टि हुई कि वे अब वहाँ रिपोर्टर नहीं हैं
  • Futurism ने Ars Technica, Condé Nast और Edwards से रोजगार स्थिति के बारे में पूछा, लेकिन मीडिया आउटलेट और मालिक कंपनी ने जवाब नहीं दिया, जबकि Edwards ने कहा कि वे “कोई टिप्पणी नहीं कर सकते”

मीडिया उद्योग में AI उपयोग विवाद और संदर्भ

  • इस घटना को CNET, Sports Illustrated आदि में हुए AI-संबंधित विवादों के बाद एक और उदाहरण के रूप में देखा जा रहा है
  • लेख में कहा गया है कि इस समय समाचार संस्थान AI के उपयोग को बढ़ावा तो दे रहे हैं, लेकिन स्पष्ट नैतिक मानकों की कमी है
  • AI अपनाने वाले माहौल में कॉपीराइट विवाद, AI-जनरेटेड कंटेंट का प्रसार, और Google के AI Overviews के कारण ट्रैफ़िक में गिरावट जैसे कारक एक साथ काम कर रहे हैं
  • इस संदर्भ में, Ars Technica का मामला AI तकनीक और मानवीय त्रुटि के संगम को उजागर करने वाला उदाहरण है
  • Edwards ने कहा, “मुझे यह विडंबना महसूस होती है कि AI को कवर करने वाला रिपोर्टर ही AI hallucination का शिकार हो गया,” और जोड़ा, “मैं सटीकता को महत्व देता हूँ, लेकिन यह एक पीड़ादायक विफलता थी”

1 टिप्पणियां

 
GN⁺ 2026-03-04
Hacker News की राय
  • पत्रकार और ब्लॉगर अक्सर दूसरे लोगों की गलतियों और माफीनामों का विश्लेषण करते हैं और उनकी ईमानदारी पर चर्चा करते हैं

    • इस मामले में Ars Technica के Aurich Lawson ने वह लेख हटा दिया जिसमें LLM द्वारा गढ़े गए झूठे उद्धरण शामिल थे और एक अस्पष्ट, बिना ढंग की माफी पोस्ट की
    • आखिरकार पत्रकार को निकाल दिया गया, लेकिन Ars ने इस पर कोई लेख तक प्रकाशित नहीं किया
    • ऐसे समय में जब ईमानदारी को कमजोरी समझा जाता है, उम्मीद थी कि Ars पारदर्शिता और जवाबदेही का उदाहरण बनेगा, लेकिन निराशा हुई
    • Ars ने गलती मानी और पत्रकार को हटाया, यह भी जवाबदेही लेने का ही हिस्सा है
      • पत्रकार ने खुद भी Bluesky पर विस्तार से सफाई दी
      • शिकायत सिर्फ इतनी है कि वह सफाई पर्याप्त संतोषजनक नहीं लगी
    • अगर पत्रकार AI से जुड़े क्षेत्र को कवर कर रहा था, तो उसे LLM द्वारा बनाए गए उद्धरणों की ज़रूर जांच करनी चाहिए थी
      • अगर संपादकीय टीम ने भी इसे नहीं पकड़ा, तो यह Ars के संपादकीय मानकों को दिखाता है
      • यह भी देखना चाहिए कि कहीं दूसरे लेख भी इसी तरह गायब तो नहीं हुए
    • यह सवाल भी उठा कि क्या किसी मीडिया संस्था द्वारा सार्वजनिक रूप से यह बताना सामान्य है कि उसने किसी को निकाल दिया
      • Ars ने उस समय उद्धरणों के स्रोत की समस्या पर कुछ दिनों के भीतर रिपोर्ट किया था
    • Ars की संपादकीय टीम के मानक पहले से ही कमज़ोर रहे हैं
      • आधे शीर्षक भ्रामक होते हैं और क्लिक बटोरने वाले clickbait लगते हैं
      • भरोसेमंद न लगने वाले हेडलाइन बहुत ज़्यादा हैं
    • यह कहना कि Aurich Lawson ने लेख हटा दिया, थोड़ा ‘संदेशवाहक को दोष देना’ जैसा है
      • वह सिर्फ कम्युनिटी का चेहरा है; संभव है उसके पास ऐसा अधिकार ही न रहा हो
  • Benji पत्रकार के साथ निजी अनुभव साझा किया गया

    • शुरुआत में इंटरव्यू अच्छा रहा, लेकिन बाद में जब प्रोजेक्ट पर ध्यान गया और फिर संपर्क किया गया, तो ऑफ-द-रिकॉर्ड/कवरेज न करने के निर्देश का हवाला देकर मना कर दिया गया
    • पत्रकारों के साथ संबंध पारदर्शी नहीं लगे और मीडिया की अपारदर्शिता महसूस हुई
    • पत्रकारों से बात करते समय हमेशा लिखित रिकॉर्ड छोड़ना बेहतर है
    • जर्मनी में पत्रकारों को निजी प्रोजेक्ट के प्रचार के साधन की तरह इस्तेमाल करने की कोशिश को बहुत नकारात्मक नज़र से देखा जाता है
      • इस लिहाज़ से Benji की प्रतिक्रिया उल्टा सामान्य और नैतिक फैसला लगती है
    • एक पत्रकार के रूप में, अगर किसी विषय पर दूसरी मीडिया पहले ही लिख चुकी हो, तो ऐसे सुझाव अक्सर ठुकरा दिए जाते हैं
      • वजह यह है कि वे एक्सक्लूसिव रिपोर्ट चाहते हैं, और PR pitch लगभग हमेशा ठुकरा दिए जाते हैं
    • कई बार पत्रकार सिर्फ बहुत व्यस्त होते हैं या मना करना ठीक से व्यक्त नहीं कर पाते, इसलिए जवाब नहीं देते
    • पत्रकार आम तौर पर एक ही विषय को दोबारा कवर करने से बचते हैं
    • Ars का रुझान बाहरी लेखों को संक्षेप में लिखने/दोबारा गढ़ने या फिर सिर्फ एक्सक्लूसिव खबरों पर खुद रिपोर्टिंग करने का है
  • हमारे संगठन में AI द्वारा बनाए गए कानूनी उद्धरणों की जांच के लिए एक ऑटोमेटेड ब्लॉकर इस्तेमाल होता है

    • अगर उद्धरण आधिकारिक डेटाबेस से मेल नहीं खाते, तो उन्हें hallucination के रूप में चिह्नित किया जाता है और इंसान दोबारा सत्यापित करता है
    • AI सिर्फ ड्राफ्ट बनाने में मददगार है; अंतिम फैसला मानवीय सत्यापन से गुजरना ही चाहिए
    • Anders Hejlsberg के तरीके की तरह, AI से सीधे काम करवाने के बजाय उससे टूल बनवाना अधिक सुरक्षित है
      • इससे सत्यापन का दायरा छोटा हो जाता है, और फिर सिर्फ टूल की सटीकता जांचनी होती है
  • किसी एक पत्रकार की नौकरी जाने से बड़ा मुद्दा संपादकीय ढांचे का टूटना है

    • पिछले 10 साल में मीडिया संस्थानों ने सत्यापन करने वाले लोगों की संख्या घटाई, और नतीजतन fact-checking सिस्टम कमजोर या गायब हो गया
    • ऊपर से AI टूल जोड़कर, बिना जांच सिर्फ उत्पादन बढ़ाने पर ज़ोर देने से प्रणालीगत विफलता पैदा हुई
    • यह औद्योगिक दुर्घटनाओं के ‘Swiss cheese model’ जैसा एक संरचनात्मक संकट है
    • आगे इस पर चर्चा ज़रूरी है कि मीडिया संस्थान AI के इस्तेमाल को पारदर्शी ढंग से सार्वजनिक करें
  • Ars Technica का सम्मान किया जाता है और उसे समर्थन भी दिया जाता है, लेकिन इस बार की घटना संपादकीय टीम की जिम्मेदारी है

    • अगर कोई लेख ब्रांड के नाम से प्रकाशित हुआ, तो उसके लिए तथ्य-जांच प्रक्रिया ज़रूर होनी चाहिए थी
    • फिर भी Ars में कई बेहतरीन पत्रकार हैं, इसलिए एक गलती के आधार पर पूरे संस्थान का मूल्यांकन करना ठीक नहीं
    • Eric Berger पर Musk के पक्ष में झुकाव का आरोप है, और Dan Goodin पर तकनीकी समझ कम होने की आलोचना है
      • वहीं Ashley Belanger सीधी रिपोर्टिंग और गहराई वाली लेखन शैली के कारण सबसे भरोसेमंद मानी जाती हैं
      • Beth Mole भी विशेषज्ञता और हास्यबोध, दोनों रखती हैं
    • पुराने समय के Maggie Koerth और Jon Stokes की कमी महसूस होती है
    • बड़े मीडिया के आंतरिक सत्यापन प्रोसेस पर ज़रूरत से ज़्यादा भरोसा नहीं करना चाहिए
  • पिछली चर्चा का संदर्भ समेटते हुए, संबंधित AI लेख विवाद की टाइमलाइन साझा की गई

  • बड़े मीडिया संस्थान पहले से ही LLM के इस्तेमाल को अनिवार्य बना रहे हैं

    • AI आउटपुट को कम दिखाई देने लायक कैसे संपादित करना है, उद्धरणों की जांच कैसे करनी है—ऐसे आंतरिक दिशानिर्देश मौजूद बताए गए
    • प्रदर्शन के दबाव में AI का इस्तेमाल न करने वाले पत्रकारों को निकाला भी जाता है
    • यह सिर्फ Ars की समस्या नहीं, बल्कि क्लिक-केंद्रित ढांचे से पैदा हुई व्यापक प्रवृत्ति है
    • इस पर यह आपत्ति भी उठी कि क्या इसके समर्थन में ठोस सबूत हैं
      • बिना ठोस प्रमाण इसे ‘open secret’ कहना प्रबंधन की जिम्मेदारी से बचने जैसा लग सकता है
    • कुछ लोगों ने यह भी कहा कि अगर ऐसे दिशानिर्देश सच में मौजूद हैं, तो AI आउटपुट को छिपाने के तरीकों पर और सुनना चाहेंगे
  • लेख के शीर्षक में पत्रकार को निकाले जाने का ज़िक्र था, लेकिन वास्तव में पुष्ट तथ्यों की कमी है

    • पत्रकार परिचय में ‘is’ से ‘was’ में बदलाव और संबंधित लोगों द्वारा इसका खंडन न किया जाना, इन्हें आधार के रूप में पेश किया गया
    • Benj की Bluesky पोस्ट देखने पर यह स्वेच्छा से इस्तीफा देने जैसा नहीं लगता
  • Ars के खिलाफ आलोचना तीखी है, लेकिन पत्रकार पहले ही कीमत चुका चुका है

    • भरोसा है कि Ars आगे अधिक सावधानी बरतेगा
  • Google AI Overview की सटीकता में सुधार हैरान करने वाला बताया गया

    • अब कभी-कभी लिंक खोले बिना भी काम चल जाता है
    • लेकिन यह मूल रूप से सर्च रिज़ल्ट का सार ही है, और स्रोत साइटों के कंटेंट को खा जाने वाली संरचना भी है
    • वास्तव में यह अब भी अक्सर गलत जानकारी देता है
    • कई बार लिंक की सामग्री और सारांश में मेल नहीं होता
    • एक उपयोगकर्ता ने कहा कि AI ने अस्तित्व में ही न होने वाला शोध प्रोजेक्ट गढ़ दिया
    • इसलिए लिंक बार-बार जांचने चाहिए और AI की विश्वसनीयता की सीमाओं को समझना चाहिए