AI रिसर्च का भविष्य: रेसिपी से Meal Kit तक
(open.substack.com)मुख्य सारांश (TL;DR)
-
AI papers का विस्फोट = प्रगति + साथ ही ‘Noise Tax’
- 2013 → 2023 वार्षिक AI papers: ~102,000 → ~242,000
- इसी अवधि में CS papers में AI का हिस्सा: 21.6% → 41.8%
-
papers बढ़ने के साथ चयन/पुनरुत्पादन/ऑपरेशन लागत तेज़ी से बढ़ती है
- ज़्यादा पढ़ते हैं लेकिन प्रोडक्ट कम स्थिर होता है
- SOTA का पीछा करने पर reproducibility और operability घटती है
-
paper को production में ले जाने पर 4 failure modes लगभग हमेशा सामने आते हैं
-
इसलिए 2026 का सिग्नल सीधा है:
DIY(रेसिपी implementation) ↓ / Packaging(Meal Kit) ↑- “paper पढ़ो और implement करो” से बेहतर सीधे deploy करने योग्य unit जीतती है
- NVIDIA NIM / SLM / Ollama जैसी packaging standardization की दिशा बनाती है
समस्या की परिभाषा: AI papers ‘Michelin रेसिपी’ हैं
लेखक AI research papers की तुलना Michelin chef की recipe से करते हैं।
recipe अपने-आप में खराब नहीं है। बस हमारी रसोई अलग है।
papers एक परफ़ेक्ट रसोई में तैयार किए जाते हैं।
- H100 cluster
- साफ़-सुथरे curated datasets
- experiment environment के लिए optimize किए गए hidden tricks
लेकिन जब वही recipe असली field environment (on-prem / legacy / compliance / operations) में आती है, तो वही चीज़ बार-बार होती है।
Paper-to-production: 4 failure modes
1) Broken Utensils (infrastructure)
-
paper के results हज़ारों H100s के आधार पर आते हैं
-
हक़ीक़त में हमारे पास छोटे GPU / सीमित VRAM / constrained network होते हैं
-
समस्या सिर्फ “performance थोड़ी गिर गई” नहीं है
→ पूरा phenomenon ही सामने नहीं आता -
आम लक्षण:
- “चल तो रहा है लेकिन उम्मीद वाला behavior नहीं है”
- pipeline पूरी हो जाती है लेकिन promised behavior दिखाई नहीं देता
2) Spoiled Ingredients (data)
-
papers clean data मानकर चलते हैं
-
field data होता है:
- logs, scanned PDF, legacy documents, schema changes, unclear provenance
-
RAG/inference में structure·evidence·consistency टूटते ही hallucination शुरू हो जाती है
-
इससे भी ज़्यादा ख़तरनाक बात:
- यह इतना fluently जवाब देता है कि भरोसा हो जाता है
- “देखने में सही, लेकिन असल में ग़लत” सबसे महँगा पड़ता है
3) Missing Salt (engineering details)
-
“Season to taste” वाला हिस्सा सबसे बड़ा होता है
-
असली फ़र्क यहाँ बनता है:
- initialization / scheduler / 0.001 स्तर की tuning / prompt templates
-
यह सब 8-page paper में नहीं समा सकता
-
असल दुनिया में जीत-हार यहीं तय होती है:
- recipe नहीं, बल्कि secret seasoning (reproducibility conditions) परिणाम तय करती है
4) Responsibility Gap (ज़िम्मेदारी)
-
failure होने पर निष्कर्ष यही निकलता है:
- “math सही है। समस्या तुम्हारे environment की है”
-
इस gap की ज़िम्मेदारी downstream पर आ गिरती है
→ आख़िरकार paper पढ़कर recommend करने वाले पर ही असर आता है। -
outage या audit आने पर यह “हमारा बनाया system” बन जाता है
2 संरचनात्मक सीमाएँ: जो DIY छोड़ने पर मजबूर करती हैं
A) Paper Explosion = Noise Tax
जितने ज़्यादा papers, उतनी चयन लागत तेज़ी से बढ़ती है।
- ज़्यादा पढ़ते हैं लेकिन product कम stable होता है
- SOTA का पीछा करने पर operability घटती है
- यह “knowledge abundance” नहीं, बल्कि “selection cost” है
B) पूँजी की दिशा में बदलाव: ‘paper’ → ‘operations’
पैसा “नई recipe” से हटकर ऐसे package की ओर जा रहा है जिसे वास्तव में operate किया जा सके।
investment के सवाल बदल गए हैं।
- demo है, या operations-ready?
- cost / latency / observability / audit संभलते हैं या नहीं?
operational risk अक्सर इन 3 चीज़ों में सिमटता है:
- cost risk: PoC हो जाता है, लेकिन operations में फट जाता है
- trust risk: evidence/source टूट जाए तो जवाब plausible होकर भी ख़तरनाक है
- responsibility risk: outage या audit आए तो ज़िम्मेदारी हमारी बनती है
2026 का सबसे मज़बूत सिग्नल: Packaging
AI Meal Kit = Ready-to-deploy + failure responsibility boundary वाला deployment unit
यानी 2026 का निष्कर्ष यह है:
Packaging beats ingenuity.
4 बाज़ार संकेत
Signal #1) NVIDIA NIMs
- model settings / dependencies / optimization को container में फिक्स कर दिया जाता है
- toolchain को लेकर guesswork कम होता है
- secret seasoning इसके अंदर शामिल होती है
- संदेश: “Tune less. Run more.”
Signal #2) SLMs
- “रसोई के हिसाब से recipe” बढ़ रही हैं
- local/edge operations की संभावना बढ़ती है
- दिशा: bounded / predictable / cheaper to operate
Signal #3) AI in a Box
- server अब “parts” की तरह नहीं, बल्कि “finished product” की तरह बिकते हैं
- RAG / security / default settings शामिल होती हैं
- असर: अब यह सीमा बनती है कि gap की ज़िम्मेदारी किसकी है
Signal #4) Ollama / LM Studio
- environment setup की कठिनाई तेज़ी से घटती है
- operators की संख्या बढ़ती है
- operators बढ़ते हैं तो बाज़ार में हमेशा यही होता है: standardization तेज़ हो जाती है
प्रैक्टिकल नज़रिए से: तुरंत देखने लायक metrics
- Compute Fit: target performance “हमारे GPU/VRAM” पर reproduce होती है?
- Data Fit: input data में “structure / evidence / source” बने रहते हैं?
- Hidden Salt: reproducibility के लिए ज़रूरी scripts / prompts / tuning values version-locked हैं?
- Owner: failure होने पर responsibility surface कहाँ है? (हम? vendor? package?)
- Ops: observability (logs / metrics), rollback, cost ceiling, audit — क्या ये design में शामिल हैं?
निष्कर्ष
2026 में “ज़्यादा स्मार्ट model” से ज़्यादा
“कम फटने वाला deployment unit” जीतता है।
papers आते रहेंगे, लेकिन बाज़ार packaged intelligence खरीदेगा।
teams को भी चुनना होगा।
- क्या वे recipe implementation जारी रखेंगी
- या Meal Kit स्तर की packaging/operations अपनाएँगी
One-liner
“paper ideas बेचते हैं, बाज़ार operations खरीदता है.”
अभी कोई टिप्पणी नहीं है.