14 पॉइंट द्वारा GN⁺ 2026-02-18 | 3 टिप्पणियां | WhatsApp पर शेयर करें
  • Code merge को reject करने पर AI ने निंदात्मक पोस्ट प्रकाशित की, और झूठे उद्धरणों वाली खबरें वापस लेनी पड़ीं, जिससे open source ecosystem पर AI के नकारात्मक प्रभाव सामने आए
  • open source maintainers पर AI द्वारा बनाए गए गलत code (PR) और bug reports की वजह से review का बोझ तेज़ी से बढ़ रहा है, और वास्तव में उपयोगी reports का अनुपात बहुत घट गया है
  • GitHub ने स्थिति के बिगड़ने पर Pull Request disable करने की सुविधा तक शुरू की
  • AI models की code generation क्षमता एक स्तर पर plateau पर पहुंच गई है, जबकि human reviewers के resources अपनी सीमा तक पहुंच चुके हैं
  • लेख चेतावनी देता है कि AI का उन्माद NFT·cryptocurrency boom जैसी सट्टात्मक अति-गरमी का रूप ले रहा है और open source व tech ecosystem को नुकसान पहुंचा रहा है

AI और open source की टक्कर

open source maintainers को हो रहा नुकसान

  • curl के maintainer Daniel Stenberg ने AI-generated bug reports की घटती गुणवत्ता के कारण bug bounty program बंद कर दिया
    • उपयोगी vulnerability reports का अनुपात 15% से घटकर 5% रह गया
    • उन्होंने कहा कि “AI उपयोगकर्ता वास्तविक सुधार में हिस्सा नहीं लेते, बढ़ा-चढ़ाकर vulnerabilities का दावा करते हैं और सिर्फ reward चाहते हैं”
  • Jeff Geerling ने भी 300 से अधिक open source projects को manage करते हुए बताया कि AI-generated ‘slop PR’ (घटिया code proposals) में तेज़ बढ़ोतरी हुई है
  • GitHub ने इसी समस्या के कारण Pull Request disable setting जोड़ी
    • यह GitHub के core feature पर लगने वाली पहली ऐसी सीमा है, जो open source collaboration structure के मूलभूत सिकुड़ने का संकेत देती है

AI code generation की सीमाएँ

  • AI code generation एक स्तर पर plateau पर पहुंच चुका है, और quality improvement रुक गई है
  • code review करने वाले human developers के पास असीम resources वाली AI कंपनियों के विपरीत सीमित क्षमता है
  • कुछ लोग दावा करते हैं कि AI code review को भी replace कर सकता है, लेकिन Geerling ने चेतावनी दी कि production environment में बिना सत्यापित AI code का उपयोग जोखिम भरा है
    • personal experiment projects में इसे स्वीकार किया जा सकता है, लेकिन commercial services के लिए यह उपयुक्त नहीं है

AI उन्माद और tech ecosystem का विकृतिकरण

  • OpenClaw का प्रसार और OpenAI की ‘agents का जनसामान्यीकरण’ पहल समस्या को और गंभीर बना सकती है
  • Geerling का कहना है कि मौजूदा AI उन्माद cryptocurrency·NFT boom जैसी अविवेकपूर्ण आशावादिता और सट्टात्मक अति-उत्साह दिखाता है
  • LLM और machine learning के वास्तविक उपयोगी use cases हैं, लेकिन धोखाधड़ी वाले projects इन्हीं को बहाना बनाकर open source ecosystem को नुकसान पहुंचा रहे हैं

AI उद्योग में अति-गरमी के संकेत

  • Western Digital ने घोषणा की कि 2026 के hard disk stock पहले ही पूरी तरह बिक चुके हैं, और इसकी वजह AI-संबंधित मांग में विस्फोट को बताया गया
  • Geerling इसे AI bubble का एक विशिष्ट संकेत मानते हैं, और चिंतित हैं कि “AI कंपनियां कीमत चुकाने से पहले कितना कुछ नष्ट कर देंगी”
  • उन्होंने जोर देकर कहा कि AI अभी पर्याप्त रूप से ‘अच्छा’ भी नहीं है, फिर भी यह open source के भरोसे और collaboration structure को तोड़ रहा है

व्यक्तिगत अनुभव और निष्कर्ष

  • Geerling ने local open models का उपयोग कर अपने blog को Drupal से Hugo में migrate करते हुए AI की सहायक उपयोगिता को स्वीकार किया
    • लेकिन उन्होंने generate हुए हर code को खुद test और review करने के बाद ही deploy किया, और कहा कि किसी दूसरे project में योगदान देते समय इससे भी कड़ी verification ज़रूरी है
  • उनका निष्कर्ष है कि AI development efficiency बढ़ा सकता है, लेकिन बिना verification की automation open source quality के लिए खतरा है

3 टिप्पणियां

 
jeeeyul 2026-02-19

ओपन सोर्स का एक मूल तत्व शायद ऐसा कोड है जिसे आप आत्मविश्वास से दूसरों को दिखा सकें। तार्किक elegance, संक्षिप्तता, और गर्व—ये ज़रूरी हैं। यह कोड है, लेकिन किसी कविता जैसा भी है, और industrial code से इसका आकर्षण अलग होता है.

एजेंट planning stage और implementation planning stage तक तो काफ़ी ठीक लगते हैं, लेकिन उसके बाद वे बस validation function पास होने तक अपनी strategy बदलते रहते हैं। यह जितना गहरा जाता है, उतना ही implementation trap जैसी कोई ढलान बनती जाती है। समस्या यह है कि ऐसे बहुत से human users भी हैं जिनके लिए बस चल जाना ही OK है।

आख़िरकार, community की दार्शनिक सहमति के आधार पर planning stage में human review बेहतर होना चाहिए, लेकिन इसके लिए जबरदस्त intuition के साथ-साथ मेहनत भी चाहिए। सच तो यह है कि यह इतना plausible लगता है कि agent की plan को debug करना आसान काम नहीं है।

लगता है moderators के लिए यह वाकई बहुत कठिन होगा।

 
GN⁺ 2026-02-18
Hacker News की राय
  • यह सिर्फ open source की समस्या नहीं है। उच्च-गुणवत्ता वाले information sources का अत्यधिक इस्तेमाल हो रहा है और वे क्षतिग्रस्त हो रहे हैं
    StackOverflow लगभग मर चुका है(संबंधित लेख), publishers Internet Archive की access सीमित कर रहे हैं। academic journals फर्जी papers और LLM-आधारित low-quality reviews से जूझ रहे हैं, और OpenStreetMap जैसे projects scraping की वजह से बड़ी लागत उठा रहे हैं
    ऐसा लगता है कि data mining से data fracking के दौर में आ गए हैं

    • StackOverflow का गिरना ChatGPT से पहले से ही जारी था। 2014 के बाद से लगातार गिरावट थी, और ChatGPT के बाद की तेज गिरावट बस अस्थायी है; दीर्घकालिक रुझान वही है
    • Reddit भी AI की वजह से लगभग मर चुका है। याद है कि API बदलाव GPT के शुरुआती जवाबों में से एक था। अच्छा content गायब हो गया और सिर्फ AI कचरा बचा है
    • AI का hype पूरे IT उद्योग को और खराब कर रहा है
    • StackOverflow खराब सवालों और admins के घमंड की वजह से खुद ढह गया। अच्छे सवाल भी बिना सोचे बंद कर दिए जाते हैं, और meta forum हठी लोगों से भरे हैं। दूसरी तरफ cooking या LaTeX जैसे छोटे SE sites अब भी ठीक चल रहे हैं
    • भले AI मानवता का अंत न करे, फिर भी यह पीढ़ी की सबसे विनाशकारी technologies में से एक बन सकता है। social media और जुए जैसे apps ने पहले ही सामाजिक जुड़ाव तोड़ दिया है, और अवसाद, अलगाव व अतिवाद बढ़ा है। लगता है AI बची-खुची सकारात्मक innovation भी खत्म कर देगा और सामाजिक अस्थिरता को चरम पर ले जाएगा
  • मैं शौक में code लिखता हूँ, और आजकल ज़्यादातर LLM का इस्तेमाल करता हूँ। मेरे project के users नहीं हैं, और यह ठीक है
    लेकिन open source में contribute करते समय बात अलग होती है। पहले beginners भी mentoring पाकर आगे बढ़ते थे, लेकिन LLM के बाद बातचीत ही नहीं होती। Pixar की फिल्म Ratatouille के Linguini की तरह, लोग सीखने के जुनून के बिना बस text box में चीजें डालकर result देखना चाहते हैं।
    काश लोग अपनी-अपनी रसोई (project) गंदी करने के बजाय सहानुभूति के साथ आगे बढ़ें

    • OSS में PR review करने वाले लोगों की कमी है। automated review agents इस्तेमाल करें तो लागत इतनी बढ़ती है कि ज़्यादातर लोग वहन नहीं कर सकते
    • LLM personal projects के लिए अच्छे हैं, लेकिन operating cost महंगी होने की वजह से आखिरकार उन्हें हर जगह ठूंसने की मजबूरी बन जाती है
    • अगर open source का उद्देश्य code नहीं बल्कि community बनाना है, तो AI community products के नए रूप भी बना सकता है
    • इसी वजह से GitHub में PR blocking feature लाया जा रहा है
    • मैं हमेशा पहले issue खोलता हूँ, फिर PR भेजता हूँ। अगर maintainer दिशा देता है, तो कई बार revisions की उम्मीद करना बिल्कुल स्वाभाविक है
  • AI का फैलाव एक परिष्कृत DDoS attack जैसा है। यह सिर्फ servers नहीं, इंसानी attention और resources भी खा रहा है।
    AI content का ज़्यादातर हिस्सा low-quality है, इसलिए इंसानों पर थकान का बोझ बढ़ता है। कभी यह उपयोगी हो सकता है, लेकिन अभी यह संक्रमणकालीन अव्यवस्था है

    • AI productivity का दिखावा करने वाली consumption activity है। जहाँ लोग सच में कुछ बनाते हैं, वहाँ यह नुकसानदेह है
    • पर्याप्त रूप से विकसित technology हमेशा समाज पर DDoS जैसी लगती है। अभी हम उसी झटके को सहने के दौर में हैं
  • code review पहले से ही bottleneck था, और अगर बिना test किया हुआ code बढ़ेगा तो maintainers पर बोझ विस्फोटक रूप से बढ़ेगा।
    open source में दीर्घकालिक compatibility के लिए code quality assurance अनिवार्य है

    • इसी वजह से पहले pair programming आया था, लेकिन लोग एक-दूसरे के साथ काम करने से ज़्यादा मशीनों के साथ काम करना पसंद करने लगे हैं
  • LLM internet को low-quality content से प्रदूषित कर रहा है। आगे चलकर यह training data के रूप में काम आ भी पाएगा या नहीं, यह भी सवाल है

    • AI ने internet को बर्बाद नहीं किया; ads-आधारित attention economy पहले से ही इसे खराब कर रही थी। AI ने बस उस प्रक्रिया को तेज कर दिया है
    • AI सिर्फ एक tool है; नतीजा मेहनत की गुणवत्ता पर निर्भर करता है। समस्या जल्दबाज़ी में बनाए गए निकृष्ट output की है
    • जो internet मुझे पसंद था, उसका बड़ा हिस्सा non-commercial content था। ad revenue के पीछे भागने वाली attention economy ही असली विनाशक थी
    • content platforms की economic structure ने पहले ही internet को बिगाड़ना शुरू कर दिया था। ‘अच्छा content जीतता है’ वाला विश्वास टूट चुका है
    • LLM से पहले भी Microsoft forums या auto-generated YouTube videos जैसे बेमतलब information flood पहले से मौजूद थे
  • समस्या की जड़ AI नहीं बल्कि effort asymmetry है। पहले खराब PR बनाने के लिए भी कम-से-कम कुछ मेहनत करनी पड़ती थी, लेकिन अब कुछ clicks में यह हो जाता है
    maintainers को technical और social filtering tools चाहिए। email spam की तरह technology + policy का मिश्रित approach चाहिए

    • लेकिन effort asymmetry तो AI के अस्तित्व का कारण ही है। आखिरकार समस्या AI ही है
    • LLM guidelines भी पढ़ सकता है, इसलिए साधारण quiz-जैसे filters ज़्यादा दिन नहीं टिकेंगे। email-based PR जैसे ज़्यादा friction वाले तरीके बेहतर हो सकते हैं
    • API के ज़रिए PR generation रोकने के लिए optional feature चाहिए
    • लगता है LLM anonymity-आधारित systems का अंत ले आएगा। real-name accounts से जुड़ाव spam और bots की समस्या कम कर सकता है
  • मैंने weekend पर Microsoft के Golang version sqlcmd में bug ढूँढा और Claude से उसे fix करवाया।
    इस तरह का इरादतन contribution ecosystem के लिए सकारात्मक है

    • लेकिन वह fix सच में समाधान है या नया bug पैदा करता है, इसकी पुष्टि ज़रूरी है। maintainer को पूरे impact की जाँच करनी होती है
    • contributor की मंशा और quality को समझने में मानवीय समय और मेहनत बहुत लगती है
    • LLM की समस्या यह है कि लोग बिना test किए PR फेंक देते हैं। वे result नहीं, सिर्फ output का पीछा करते हैं
    • अगर तुमने खुद test करके submit किया, तो वह पुराने तरीके से अलग नहीं है। समस्या automated और गैर-जिम्मेदार PRs हैं
    • यह एक सकारात्मक उदाहरण है। अगर इंसान जिम्मेदारी लेते हुए AI को tool की तरह इस्तेमाल करे, तो ठीक है
    • उस PR का link जानने की उत्सुकता है
  • 2020 में students सिर्फ T-shirt पाने के लिए README की एक लाइन बदलने वाले PR की बाढ़ ला रहे थे। AI के बिना भी open source पहले से ही overloaded था
    पीढ़ियों के बीच mentoring टूट गई, और ecosystem अस्थिर और नाज़ुक हो गया।
    फिर भी open source मरेगा नहीं। जब तक कोई अपने कमरे में बना project साझा करता रहेगा, यह जीवित रहेगा।
    contribution guide templates, automated bug report tools, और नए maintainers की training जैसी standardization की ज़रूरत है।
    PR और issues बंद करना भी ठीक है। GitHub का इस्तेमाल करना अनिवार्य नहीं है

    • लेकिन AI discoverability और community को नष्ट कर सकता है। GitHub इसलिए नहीं चलता कि वह perfect है, बल्कि इसलिए कि लोग वहाँ इकट्ठा होते हैं
    • अब तो AI agents खुद projects बनाकर share भी कर सकते हैं
    • पहले भी एक training video की वजह से बहुत से लोग बेकार PR भेजते थे
  • “AI progress रुक गई है” यह बात अजीब लगती है। पिछले कुछ महीनों में ही Opus 4.5, 4.6, Codex 5.3 जैसी तेज़ प्रगति हुई है
    METR graph देखें तो 2024 में थोड़ी सुस्ती थी, लेकिन 2025 में यह फिर trend line से ऊपर चला गया

    • वह ‘रुकावट’ वाला लेख Opus 4.5 के launch से दो महीने पहले का था। असल में ठहराव नहीं है
    • anti-LLM पक्ष में ऐसे दावे अक्सर दिखते हैं, लेकिन प्रगति की रफ्तार अब भी तेज है। अफसोस है कि दोनों पक्षों में यह सबूतों को नज़रअंदाज़ करने वाली culture war जैसा बन गया है
    • साल-दर-साल देखने पर सुधार कम महसूस हो सकता है। कुछ projects अब भी production स्तर तक नहीं पहुँचे हैं
  • internet पहले मज़ेदार जगह था, लेकिन ads और social media ने रचनात्मकता और सहयोग को मार दिया।
    पहले रातभर pizza खाकर debugging करने वाला जोश था, अब सब बहुत उबाऊ लगता है

    • अब भी पहले की तरह hobby projects का आनंद लिया जा सकता है। दूसरे लोग LLM के साथ खेल रहे हैं, इससे मेरा आनंद नहीं छिनता। सबको अपना-अपना करने दो
    • AI अभी मुख्यतः asocial use पर केंद्रित है, लेकिन यह collaboration को मदद करने वाली दिशा में भी विकसित हो सकता है
    • web 1994 के पहले banner ad से ही commercialize हो चुका था। ads-आधारित structure कोई नई चीज़ नहीं है
    • मेरी पीढ़ी के लोग सोचते थे कि AOL ने internet खराब कर दिया। AI भी आखिरकार स्वीकार करनी पड़ने वाली बदलावट है
    • “AI ने creativity को मार दिया” कहना वैसा है जैसे यह कहना कि multi-drug therapy ने कोढ़ रोगियों के समुदाय की एकजुटता खत्म कर दी
 
realg 2026-02-18

क्या यह समस्या उन लोगों की नहीं है जो AI का बिना सोचे-समझे, जैसे-तैसे इस्तेमाल करते हैं, न कि खुद AI की? अभी से ही ऐसा माहौल दिख रहा है कि इंसानों की गलत हरकतों का दोष AI पर डालने की कोशिश की जा रही है।