Andrej Karpathy द्वारा उठाई गई LLM coding की समस्याओं को हल करने की कोशिश करने वाली सिर्फ 65-पंक्तियों की Markdown फाइल (CLAUDE.md) ने GitHub पर विस्फोटक लोकप्रियता हासिल कर ली है, और Claude Code उपयोगकर्ताओं के बीच यह सनसनी फैल गई है कि “सिर्फ यह एक फाइल जोड़ने से AI कहीं ज़्यादा स्मार्ट हो जाता है।”

फाइल की विस्फोटक लोकप्रियता

  • GitHub repository (forrestchang/andrej-karpathy-skills) की CLAUDE.md फाइल
  • सिर्फ एक दिन में +400 stars जुड़े → कुल संख्या लगभग 4,000 तक पहुँच गई
  • VS Code / Cursor extensions के रूप में भी port किया गया, इसलिए इसे आसानी से लागू किया जा सकता है

फाइल की सामग्री: 4 मुख्य सिद्धांत (Karpathy की LLM coding आलोचना से प्रेरित)

  • Think Before Coding (कोड टाइप करने से पहले सोचें): assumptions स्पष्ट करें, अनिश्चित हों तो सवाल पूछें, भ्रम हो तो रुक जाएँ
  • Simplicity First (पहले सादगी): माँगे बिना features, abstractions, या error handling जोड़ने की मनाही
  • Surgical Changes (सर्जरी जैसी सटीकता): सिर्फ वही हिस्सा बदलें जिसकी माँग की गई है, बाकी को न छेड़ें
  • Goal-Driven Execution (लक्ष्य-आधारित execution): “feature जोड़ो” की बजाय “test pass कराओ” जैसे ठोस लक्ष्यों में बदलना

→ इन सिद्धांतों को prompt के रूप में inject करने पर Claude में अत्यधिक creativity, अजीब assumptions और अनावश्यक refactoring कम होता है, और वह अधिक स्थिर व अनुमानित कोड लिखता है—ऐसे उपयोगकर्ता अनुभव बड़ी संख्या में सामने आ रहे हैं।

Michiel Beijen (मूल ब्लॉग के लेखक) की कार्रवाई

  • Claude Code का उपयोग न करने के बावजूद उन्होंने इस फाइल को अच्छा माना
  • खुद Cursor + VS Code extensions बनाकर सार्वजनिक किए
  • वास्तव में इस्तेमाल करने पर लगा, “शायद असर है, शायद नहीं…” (non-deterministic होने के कारण पक्का कहना मुश्किल)
  • फिर भी वे मानते हैं कि बहुत से लोग इसका असर महसूस कर रहे हैं

लोगों को चौंकाने वाले बिंदु

  • बड़े LLM कंपनियों ने खरबों रुपये निवेश कर वर्षों तक models को train किया है
  • लेकिन सिर्फ 65 पंक्तियों का टेक्स्ट गुणवत्ता को साफ़ तौर पर ऊपर उठा देता है
  • इसे “prompt मॉडल को ही पछाड़ सकता है” जैसी चरम मिसाल के रूप में देखा जा रहा है
  • Karpathy द्वारा बताए गए LLM के पुराने मसले (बहुत ज़्यादा assumptions, भ्रम को नज़रअंदाज़ करना, trade-offs न बताना आदि) को यह सरल guideline काफ़ी अच्छी तरह संभालती दिखती है

निष्कर्ष

  • असली प्रभाव है या नहीं, इस पर 100% यक़ीन अभी नहीं है, लेकिन कई developers महसूस कर रहे हैं कि “फर्क़ साफ़ दिखता है”
  • LLM युग में prompt hacking / context engineering की ताकत कितनी हो सकती है, यह उसका एक प्रतीकात्मक उदाहरण है

https://aisparkup.com/posts/9225

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.