- Code merge को reject करने पर AI ने निंदात्मक पोस्ट प्रकाशित की, और झूठे उद्धरणों वाली खबरें वापस लेनी पड़ीं, जिससे open source ecosystem पर AI के नकारात्मक प्रभाव सामने आए
- open source maintainers पर AI द्वारा बनाए गए गलत code (PR) और bug reports की वजह से review का बोझ तेज़ी से बढ़ रहा है, और वास्तव में उपयोगी reports का अनुपात बहुत घट गया है
- GitHub ने स्थिति के बिगड़ने पर Pull Request disable करने की सुविधा तक शुरू की
- AI models की code generation क्षमता एक स्तर पर plateau पर पहुंच गई है, जबकि human reviewers के resources अपनी सीमा तक पहुंच चुके हैं
- लेख चेतावनी देता है कि AI का उन्माद NFT·cryptocurrency boom जैसी सट्टात्मक अति-गरमी का रूप ले रहा है और open source व tech ecosystem को नुकसान पहुंचा रहा है
AI और open source की टक्कर
open source maintainers को हो रहा नुकसान
- curl के maintainer Daniel Stenberg ने AI-generated bug reports की घटती गुणवत्ता के कारण bug bounty program बंद कर दिया
- उपयोगी vulnerability reports का अनुपात 15% से घटकर 5% रह गया
- उन्होंने कहा कि “AI उपयोगकर्ता वास्तविक सुधार में हिस्सा नहीं लेते, बढ़ा-चढ़ाकर vulnerabilities का दावा करते हैं और सिर्फ reward चाहते हैं”
- Jeff Geerling ने भी 300 से अधिक open source projects को manage करते हुए बताया कि AI-generated ‘slop PR’ (घटिया code proposals) में तेज़ बढ़ोतरी हुई है
- GitHub ने इसी समस्या के कारण Pull Request disable setting जोड़ी
- यह GitHub के core feature पर लगने वाली पहली ऐसी सीमा है, जो open source collaboration structure के मूलभूत सिकुड़ने का संकेत देती है
AI code generation की सीमाएँ
- AI code generation एक स्तर पर plateau पर पहुंच चुका है, और quality improvement रुक गई है
- code review करने वाले human developers के पास असीम resources वाली AI कंपनियों के विपरीत सीमित क्षमता है
- कुछ लोग दावा करते हैं कि AI code review को भी replace कर सकता है, लेकिन Geerling ने चेतावनी दी कि production environment में बिना सत्यापित AI code का उपयोग जोखिम भरा है
- personal experiment projects में इसे स्वीकार किया जा सकता है, लेकिन commercial services के लिए यह उपयुक्त नहीं है
AI उन्माद और tech ecosystem का विकृतिकरण
- OpenClaw का प्रसार और OpenAI की ‘agents का जनसामान्यीकरण’ पहल समस्या को और गंभीर बना सकती है
- Geerling का कहना है कि मौजूदा AI उन्माद cryptocurrency·NFT boom जैसी अविवेकपूर्ण आशावादिता और सट्टात्मक अति-उत्साह दिखाता है
- LLM और machine learning के वास्तविक उपयोगी use cases हैं, लेकिन धोखाधड़ी वाले projects इन्हीं को बहाना बनाकर open source ecosystem को नुकसान पहुंचा रहे हैं
AI उद्योग में अति-गरमी के संकेत
- Western Digital ने घोषणा की कि 2026 के hard disk stock पहले ही पूरी तरह बिक चुके हैं, और इसकी वजह AI-संबंधित मांग में विस्फोट को बताया गया
- Geerling इसे AI bubble का एक विशिष्ट संकेत मानते हैं, और चिंतित हैं कि “AI कंपनियां कीमत चुकाने से पहले कितना कुछ नष्ट कर देंगी”
- उन्होंने जोर देकर कहा कि AI अभी पर्याप्त रूप से ‘अच्छा’ भी नहीं है, फिर भी यह open source के भरोसे और collaboration structure को तोड़ रहा है
व्यक्तिगत अनुभव और निष्कर्ष
- Geerling ने local open models का उपयोग कर अपने blog को Drupal से Hugo में migrate करते हुए AI की सहायक उपयोगिता को स्वीकार किया
- लेकिन उन्होंने generate हुए हर code को खुद test और review करने के बाद ही deploy किया, और कहा कि किसी दूसरे project में योगदान देते समय इससे भी कड़ी verification ज़रूरी है
- उनका निष्कर्ष है कि AI development efficiency बढ़ा सकता है, लेकिन बिना verification की automation open source quality के लिए खतरा है
3 टिप्पणियां
ओपन सोर्स का एक मूल तत्व शायद ऐसा कोड है जिसे आप आत्मविश्वास से दूसरों को दिखा सकें। तार्किक elegance, संक्षिप्तता, और गर्व—ये ज़रूरी हैं। यह कोड है, लेकिन किसी कविता जैसा भी है, और industrial code से इसका आकर्षण अलग होता है.
एजेंट planning stage और implementation planning stage तक तो काफ़ी ठीक लगते हैं, लेकिन उसके बाद वे बस validation function पास होने तक अपनी strategy बदलते रहते हैं। यह जितना गहरा जाता है, उतना ही implementation trap जैसी कोई ढलान बनती जाती है। समस्या यह है कि ऐसे बहुत से human users भी हैं जिनके लिए बस चल जाना ही OK है।
आख़िरकार, community की दार्शनिक सहमति के आधार पर planning stage में human review बेहतर होना चाहिए, लेकिन इसके लिए जबरदस्त intuition के साथ-साथ मेहनत भी चाहिए। सच तो यह है कि यह इतना plausible लगता है कि agent की plan को debug करना आसान काम नहीं है।
लगता है moderators के लिए यह वाकई बहुत कठिन होगा।
Hacker News की राय
यह सिर्फ open source की समस्या नहीं है। उच्च-गुणवत्ता वाले information sources का अत्यधिक इस्तेमाल हो रहा है और वे क्षतिग्रस्त हो रहे हैं
StackOverflow लगभग मर चुका है(संबंधित लेख), publishers Internet Archive की access सीमित कर रहे हैं। academic journals फर्जी papers और LLM-आधारित low-quality reviews से जूझ रहे हैं, और OpenStreetMap जैसे projects scraping की वजह से बड़ी लागत उठा रहे हैं
ऐसा लगता है कि data mining से data fracking के दौर में आ गए हैं
मैं शौक में code लिखता हूँ, और आजकल ज़्यादातर LLM का इस्तेमाल करता हूँ। मेरे project के users नहीं हैं, और यह ठीक है
लेकिन open source में contribute करते समय बात अलग होती है। पहले beginners भी mentoring पाकर आगे बढ़ते थे, लेकिन LLM के बाद बातचीत ही नहीं होती। Pixar की फिल्म Ratatouille के Linguini की तरह, लोग सीखने के जुनून के बिना बस text box में चीजें डालकर result देखना चाहते हैं।
काश लोग अपनी-अपनी रसोई (project) गंदी करने के बजाय सहानुभूति के साथ आगे बढ़ें
AI का फैलाव एक परिष्कृत DDoS attack जैसा है। यह सिर्फ servers नहीं, इंसानी attention और resources भी खा रहा है।
AI content का ज़्यादातर हिस्सा low-quality है, इसलिए इंसानों पर थकान का बोझ बढ़ता है। कभी यह उपयोगी हो सकता है, लेकिन अभी यह संक्रमणकालीन अव्यवस्था है
code review पहले से ही bottleneck था, और अगर बिना test किया हुआ code बढ़ेगा तो maintainers पर बोझ विस्फोटक रूप से बढ़ेगा।
open source में दीर्घकालिक compatibility के लिए code quality assurance अनिवार्य है
LLM internet को low-quality content से प्रदूषित कर रहा है। आगे चलकर यह training data के रूप में काम आ भी पाएगा या नहीं, यह भी सवाल है
समस्या की जड़ AI नहीं बल्कि effort asymmetry है। पहले खराब PR बनाने के लिए भी कम-से-कम कुछ मेहनत करनी पड़ती थी, लेकिन अब कुछ clicks में यह हो जाता है
maintainers को technical और social filtering tools चाहिए। email spam की तरह technology + policy का मिश्रित approach चाहिए
मैंने weekend पर Microsoft के Golang version
sqlcmdमें bug ढूँढा और Claude से उसे fix करवाया।इस तरह का इरादतन contribution ecosystem के लिए सकारात्मक है
2020 में students सिर्फ T-shirt पाने के लिए README की एक लाइन बदलने वाले PR की बाढ़ ला रहे थे। AI के बिना भी open source पहले से ही overloaded था
पीढ़ियों के बीच mentoring टूट गई, और ecosystem अस्थिर और नाज़ुक हो गया।
फिर भी open source मरेगा नहीं। जब तक कोई अपने कमरे में बना project साझा करता रहेगा, यह जीवित रहेगा।
contribution guide templates, automated bug report tools, और नए maintainers की training जैसी standardization की ज़रूरत है।
PR और issues बंद करना भी ठीक है। GitHub का इस्तेमाल करना अनिवार्य नहीं है
“AI progress रुक गई है” यह बात अजीब लगती है। पिछले कुछ महीनों में ही Opus 4.5, 4.6, Codex 5.3 जैसी तेज़ प्रगति हुई है
METR graph देखें तो 2024 में थोड़ी सुस्ती थी, लेकिन 2025 में यह फिर trend line से ऊपर चला गया
internet पहले मज़ेदार जगह था, लेकिन ads और social media ने रचनात्मकता और सहयोग को मार दिया।
पहले रातभर pizza खाकर debugging करने वाला जोश था, अब सब बहुत उबाऊ लगता है
क्या यह समस्या उन लोगों की नहीं है जो AI का बिना सोचे-समझे, जैसे-तैसे इस्तेमाल करते हैं, न कि खुद AI की? अभी से ही ऐसा माहौल दिख रहा है कि इंसानों की गलत हरकतों का दोष AI पर डालने की कोशिश की जा रही है।