1 टिप्पणियां

 
GN⁺ 2025-09-23
Hacker News राय
  • उसने बस badger के जवाब को Chat में पेस्ट किया, और फिर उसी इश्यू पर दोबारा ऐसा जवाब जमा कर दिया जो बहुत साफ़ तौर पर AI द्वारा लिखा हुआ लगता था। "तेज़ समीक्षा के लिए धन्यवाद। आप सही हैं कि मेरा PoC libcurl का उपयोग नहीं करता, इसलिए यह cURL बग को सिद्ध नहीं करता। मैं cookie overflow वाले दावे को वापस लेता हूँ और भ्रम पैदा करने के लिए क्षमा चाहता हूँ। कृपया इस रिपोर्ट को अमान्य मानकर बंद कर दें। अगर उपयोगी हो, तो मैं अलग से न्यूनतम C reproduction code भेज सकता हूँ जो वास्तव में libcurl के cookie parser को चलाए, और lib/cookie.c में सटीक function/line का संदर्भ देकर बता सकता हूँ कि यदि कोई समस्या है तो वह कहाँ है।" उसने लगभग यही सामग्री जस की तस जमा कर दी

    • अफ़सोस की बात है कि आजकल इस तरह का साधारण copy-paste व्यवहार बेहद आम हो गया है

    • लगता है कुछ लोग जानबूझकर ऐसा करते हैं ताकि AI का इस्तेमाल करके शेख़ी बघार सकें कि "इस AI ने किसी मशहूर open source project में PR बनाकर योगदान दिया"। यानी अब AI ने जो किया, उसका बोझ OSS volunteers पर डाला जा रहा है, और बिना यह जाँचे कि वह सच में काम भी करता है या नहीं, open source maintainers का समय बरबाद किया जा रहा है

    • सोचता हूँ क्या यह शुरू से ही बिना किसी मानवीय हस्तक्षेप के पूरी तरह AI से किया गया था। चिंता होती है कि आगे CVS ऐसे agents से भर जाएगा जो account बनाएँगे और AI सीधे ऐसे ही 'bug' जमा करता रहेगा

    • इस जवाब में "धन्यवाद", "आप सही हैं" जैसी अभिव्यक्तियाँ, एकदम परफ़ेक्ट grammar, और तकनीकी संदर्भों की भरमार देखकर लगता है कि यह जवाब भी AI ने ही लिखा है

    • अब हम ऐसे AI जवाबों को इतनी जल्दी पहचान लेते हैं, तो क्या इसका मतलब यह नहीं कि AI असल में Turing test में फेल हो रहा है

  • "सुना है तुम गणना बहुत तेज़ी से कर लेते हो" मैं: "हाँ, सही है" इंटरव्यूअर: "14 x 27 कितना होता है?" मैं: "49" इंटरव्यूअर: "पूरी तरह ग़लत" मैं: "लेकिन तेज़ तो था न"

    • काश कोई "almost-just-in-time (AIJIT)" compiled language होती। समय कम पड़ जाए तो बस कोई random जवाब लौटा दे

    • function getRandomNumber() {
        return 4
      }
      

      इस तरह का code, सचमुच random number लौटाने का एक उदाहरण है

    • जब मैंने load testing की थी, तब सबसे कम latency वाला response वही था जो किसी ग़लत request पर आया था

    • यह कुछ वैसा है जैसे "Is this your card?" वीडियो में, "क्या यह आपका कार्ड है?" "नहीं, लेकिन बहुत क़रीब! यही वही आदमी है जिसे आप ढूँढ रहे थे"

  • मैं सोचता हूँ कि "मेरे व्यक्तिगत तौर पर कितना समय बचा" और "मैंने बाकी सबका कितना समय बरबाद किया" — इस technology 'revolution' में इन दोनों के बीच संतुलन आख़िर है कहाँ

    • मुझे भी कई बार AI की मदद बहुत उपयोगी लगी है (Claude Code, Gemini Deep Research वगैरह)। लेकिन बीच में इंसान का होना ज़रूरी है, और यहाँ तक कि ऐसी company environment में भी जहाँ सबकी जवाबदेही तय होती है, तब भी यह समस्या होती है। अगर आप AI का उपयोग करते हैं, तो अंत में PR या HackerOne रिपोर्ट जमा करते समय पूरी ज़िम्मेदारी इंसान की ही होनी चाहिए। मैंने ख़ासतौर पर junior developers को AI के जवाब सीधे copy-paste करके भेजते देखा है, और एक senior होने के नाते मुझे लगता है कि ऐसे व्यवहार को सख़्ती से रोकना चाहिए। AI की मदद ठीक है, लेकिन अंतिम verification और accountability इंसान के पास ही होनी चाहिए

    • बल्कि अगर कोई दूसरे के AI-लिखित जवाब को अपनी AI tool में डालकर फिर नया जवाब बनवाए, तो वह एकदम परफ़ेक्ट 'energy-to-money conversion' auto-circular model है। कोई भी वास्तव में समय नहीं लगाता, सिर्फ़ energy बरबाद होती है। सच में, यह एक परफ़ेक्ट business model है

    • सच कहूँ तो यह सिर्फ़ AI tools तक सीमित नहीं है; नए expense-processing tools के साथ भी ऐसा होता है (जो accounting के लिए अच्छे हैं, लेकिन user experience ख़राब कर देते हैं), contract review process के साथ भी (जो legal या infosec के लिए अच्छे हैं, लेकिन सबके इस्तेमाल वाले SaaS में झंझट बढ़ाते हैं)। हमेशा कोई न कोई अपना समय बचाने के लिए अपना काम दूसरों पर डाल देता है

    • अगर आप दूसरों का समय बरबाद कर रहे हैं, तो आख़िरकार किसी न किसी को AI द्वारा पैदा की गई बकवास को समझना ही पड़ेगा, इसलिए इसका एक jobs-preservation effect भी है

    • अगर वे कोई असली vulnerability भी नहीं ढूँढ पाए और बस दूसरों का समय बरबाद किया, तो उन्होंने जो समय बचाया वह असल में था ही नहीं

  • इससे कहीं ज़्यादा गंभीर उदाहरण भी है
    https://hackerone.com/reports/2298307

    • "आपकी भागीदारी के लिए धन्यवाद, और मैं स्थिति को स्पष्ट करना चाहता हूँ" जैसे वाक्य, जहाँ मानवीय हस्तक्षेप को ही किसी 'experimental condition' की तरह ट्रीट किया जाता है, सच में हैरान कर देते हैं

    • ऐसा रवैया सच में बेहद अशिष्ट है

    • लगता है किसी को base.org जैसी कोई साइट बनानी चाहिए जहाँ सिर्फ़ AI quotes इकट्ठा किए जाएँ

    • इस स्थिति को देखते हुए, डेवलपर्स और maintainers का सद्भावना से इतने मनोयोग के साथ जवाब देना पूरी तरह निरर्थक-सा महसूस होता है

    • 2023 में AI-लिखी बकवास को पहचानना शायद ज़्यादा मुश्किल था। अब यह कब से इतना भर गया है, यह भी ठीक से याद नहीं

  • समय के साथ मैं AI-जनित content, ख़ासकर images, text, और code, बहुत जल्दी पहचानने लगा हूँ। यह लेख भी शुरू से अंत तक पूरी तरह 'AI style' का है। लगता है badger ने बहुत प्रोफ़ेशनल ढंग से प्रतिक्रिया दी, और सोचता हूँ कि अगर Linus Torvalds होते तो उनका जवाब कैसा होता

    • यह मामला तो इतना साफ़ था कि तुरंत समझ में आ गया, लेकिन आगे चलकर यह सब और ज़्यादा चालाक और सूक्ष्म होता जाएगा — यह सोचकर ही सिहरन होती है

    • दूसरी तरफ़ से देखें तो कभी-कभी लोग किसी चीज़ को साफ़ तौर पर AI न होने पर भी AI कहकर खारिज कर देते हैं। मुझे वह अपनी धारणाओं या सोच से मेल न खाने वाली नई जानकारी या वास्तविकता का सामना न करने की एक तरह की ego-defense mechanism लगती है। उदाहरण के लिए, हाल में White House की खिड़की से दो काले बैग फेंके जाने का एक वीडियो था, और Trump ने उसे देखते ही तुरंत "AI manipulation" कहकर ख़ारिज कर दिया। असली हो या नक़ली, अब हर चीज़ को बिना सोचे AI पर थोप देना और झूठ के औज़ार की तरह इस्तेमाल करना एक नए रूप में सामने आ रहा है। इस तरह की तुरंत "यह AI है" वाली प्रतिक्रिया की बजाय "मैं देखूँगा" कहकर आगे बढ़ना ज़्यादा उत्पादक लगता है। आख़िरकार, निर्दोष मामलों में भी AI को दोष देने का माहौल धीरे-धीरे जनता को इस हद तक condition कर देता है कि वे सच में महत्वपूर्ण मामलों को भी AI manipulation कहकर नज़रअंदाज़ करने लगते हैं। 1984 उपन्यास की तरह, युद्ध कभी ख़त्म नहीं होता, लेकिन कभी-कभी ग़ायब भी हो जाता है, और साथ ही ऐसे पेश किया जाता है मानो उसका अस्तित्व ही न हो। AI द्वारा बनाए गए असली/नक़ली media और उस पर होने वाला public manipulation आगे और गंभीर होगा, ऐसा लगता है

  • मुझे लगता है कि सिर्फ़ "AI जानता हूँ" के आधार पर खुद को पुराने trilobite developers से ज़्यादा बुद्धिमान समझने वाला रवैया आगे और समस्याएँ पैदा करेगा। इसी वजह से शायद शुरुआती कक्षाओं में calculators के उपयोग पर रोक लगाई जाती है

    • यह ठीक वैसा ही है जैसे कोई कहे, "मैं React जानता हूँ, इसलिए web app boom से पहले के coders से ज़्यादा स्मार्ट हूँ"
  • मुझे लगता है vulnerability reports जमा करने के लिए users से शुल्क लेना अच्छा विचार हो सकता है। चाहे AI हो या इंसान, spammers बहुत कम लागत पर अपना काम बड़े पैमाने पर बनाकर दूसरों से उसकी जाँच करवाते हैं, और कभी-कभी कोई उपयोगी नतीजा निकल भी आता है, जिससे ऊपर-ऊपर यह सामाजिक रूप से लाभकारी लगता है। लेकिन कुल मिलाकर यह समाज के लिए नकारात्मक है। अगर रिपोर्ट जमा करने की कोई लागत हो, तो यह मॉडल टिक नहीं पाएगा

    • मुझे लगता है यह उल्टा submissions को हतोत्साहित करने का एक क्लासिक तरीका बन जाएगा

    • रिपोर्ट करते समय छोटी-सी deposit राशि लेना, मेरी नज़र में, अच्छी तरह काम कर सकता है। अगर किसी ने सच में कोई गंभीर cURL bug ढूँढा है, तो वह $2~5 की deposit ख़ुशी-ख़ुशी देगा और रिपोर्ट करेगा (आख़िरकार reward मिलने की संभावना भी काफ़ी होगी)

  • शिक्षक पहले से ही लगभग हर विषय में रोज़ छात्रों द्वारा AI के इस्तेमाल का सामना कर रहे हैं। यह बिल्कुल वही स्थिति है

    • तो फिर क्या इसे वैसे ही नहीं संभाला जा सकता जैसे शिक्षक हमेशा से नियम तोड़ने वाले छात्रों को संभालते आए हैं
  • मैंने सुना कि "रिपोर्टर को ban कर दिया गया और शायद उसने account भी delete कर दिया"। चिंता होती है कि यह XZ utils hack की तरह किसी तरह का phishing attack (defense test) हो सकता है, जो सुरक्षा व्यवस्था की कमज़ोरियाँ जाँच रहा हो। cURL एक अहम utility भी है। यह 419 spam की तरह team की सतर्कता, response speed, और workload को परखने का तरीका भी हो सकता है। आख़िरकार यह AI-जनित DDoS समस्या का ही हिस्सा है, और मुझे लगता है कि किसी नए PR verification model की ज़रूरत है, जैसे Nostr-आधारित reputation network authentication

    • हाल में मैंने भी Reddit (मध्यम आकार के subreddits) पर कई नए accounts देखे हैं जो पुरानी posts के टुकड़ों को जोड़कर बनाए गए सवाल पोस्ट करते हैं। विषय ऊपर-ऊपर से सही होता है, लेकिन फ़ॉर्मेट ऐसा नहीं होता जैसा कोई इंसान लिखे, और उसमें हल्का-सा human drama भी डाला होता है ताकि engagement मिले। ऐसे accounts लगभग हमेशा comments का जवाब नहीं देते, और अगर देते भी हैं तो साफ़ दिखता है कि वह AI है। इसी वजह से पिछले कुछ महीनों में मैंने कम-से-कम 6 subscriptions छोड़ दी हैं
  • हाल ही में मैंने 15 मिनट लगाकर एक patch test किया जो supposedly Linux UI bug को ठीक करता था, लेकिन असल में वह सिर्फ़ बेतुके fake properties से भरा जवाब निकला। किसी ने बस GitHub issue को ChatGPT में डालकर नतीजा बिना किसी verification के तुरंत जमा कर दिया था। समझ नहीं आता लोग ऐसा क्यों करते हैं

    • आख़िरकार ऐसे काम का मक़सद बस यह दिखाना होता है कि "मैंने X, Y, Z projects में योगदान दिया है"। LLM आने से पहले भी typo-fix PR जैसे कई निरर्थक contributions होते थे, जिनसे कोई ख़ास मदद नहीं मिलती थी

    • इसी वजह से मैं AI users को शुरू से ही interaction के दायरे से बाहर रखता हूँ। उनके hallucinated (ग़लत) outputs की समीक्षा करने में मुझे अपना समय कई गुना ज़्यादा लगाना पड़ता है, इसलिए कंप्यूटर से बातचीत करने का मेरे पास कोई कारण नहीं है

    • आख़िर में, यह हमेशा कहीं न कहीं किसी का सिर्फ़ बड़ी नाव पाने की कोशिश भर होता है