- 200 AI स्टार्टअप्स की रिवर्स इंजीनियरिंग के नतीजे में पता चला कि कई कंपनियां अपनी खुद की तकनीक होने का दावा करती हैं, लेकिन असल में बाहरी API कॉल करके काम करती हैं
- जांच की गई कंपनियों में 73% ने OpenAI या Claude API को लगभग ज्यों-का-त्यों इस्तेमाल किया, और उसके ऊपर सिर्फ साधारण UI या कुछ फीचर जोड़े गए थे
- अपनी “proprietary LLM” का दावा करने वाले कई स्टार्टअप्स असल में
api.openai.com पर रिक्वेस्ट भेजने वाले GPT-4 wrappers निकले, और सिर्फ साधारण system prompt जोड़कर इन्हें दर्जनों से सैकड़ों गुना margin पर बेचा जा रहा था
- RAG architecture पर जोर देने वाली ज्यादातर सेवाएं भी OpenAI
text-embedding-ada-002 · Pinecone/Weaviate · GPT-4 के संयोजन वाले मानक 40-line stack को “proprietary infrastructure” के रूप में पेश कर रही थीं; 1M queries पर मासिक लागत लगभग 30,000 डॉलर और 150,000~500,000 डॉलर revenue के साथ 80~94% margin structure दिखी
- दूसरी ओर, कुल 27% में ऐसे wrapper कंपनियां थीं जो “Built on GPT-4” की तरह अपने stack को पारदर्शी रूप से बताती हैं, साथ ही वास्तव में अपने मॉडल train करने वाले builders, multi-model voting, agent frameworks जैसे वास्तविक तकनीकी अंतर रखने वाली टीमें भी शामिल थीं
- जांच से सामने आया कि कई AI स्टार्टअप्स API-आधारित service business होने के बावजूद “proprietary AI infrastructure” का दावा कर रहे थे; साथ ही यह भी रेखांकित किया गया कि investor, customer और developer सभी DevTools में सिर्फ network tab खोलकर इसे verify कर सकते हैं, इसलिए AI ecosystem में ईमानदार तकनीकी disclosure की जरूरत है
अवलोकन
- बाहरी निवेश पाने वाले 200 AI स्टार्टअप्स के web applications पर network traffic·code·API calls को ट्रैक करके marketing claims और वास्तविक tech stack के बीच का अंतर विश्लेषित किया गया
- इसकी शुरुआत एक ऐसी कंपनी पर संदेह से हुई, जो “proprietary deep learning infrastructure” का दावा कर रही थी, लेकिन असल में सिर्फ OpenAI API कॉल कर रही थी
- इस कंपनी ने 4.3M डॉलर का निवेश जुटाया था, और “हमने fundamentally different infrastructure बनाया है” जैसी कहानी के आधार पर फंडिंग उठाई थी
- जांच में पाया गया कि 73% कंपनियों में दावे की गई तकनीक और वास्तविक implementation के बीच महत्वपूर्ण अंतर था, और उनमें से कई की संरचना third-party model API की simple wrapping भर थी
- जांच के लिए 200 AI स्टार्टअप्स को YC·Product Hunt·LinkedIn “We’re hiring” posts आदि से चुना गया; 6 महीने से कम पुरानी कंपनियों को बाहर रखा गया, और बाहरी funding व ठोस तकनीकी दावे करने वाली कंपनियों पर ध्यान दिया गया
- जांच की विधि passive browser developer tools के स्तर पर रही, और इसमें private systems तक पहुंच, authentication bypass या TOS violation जैसी कोई चीज शामिल नहीं थी
जांच की विधि(Methodology)
- Playwright·aiohttp आदि का उपयोग करके automated analysis pipeline बनाई गई, और हर स्टार्टअप साइट से समान रूप से तीन चीजें एकत्र की गईं
capture_network_traffic(url) से network headers और request patterns कैप्चर किए गए
extract_javascript(url) से JS bundle decompile करके उसका विश्लेषण किया गया
monitor_requests(url, duration=60) से 60 सेकंड तक API call patterns ट्रैक किए गए
- हर साइट के लिए नीचे दी गई जानकारी को संरचित रूप में रिकॉर्ड किया गया
claimed_tech: marketing copy·website text में दिखने वाले तकनीकी दावे
actual_tech: HTTP headers·JS bundles·API calls से पुष्टि किया गया वास्तविक stack
api_fingerprints: call domains·headers·latency आदि से निकाले गए third-party API fingerprints
- crawling अवधि 3 हफ्ते की थी, और सभी patterns के लिए सिर्फ ऐसा public data इस्तेमाल किया गया जो public web और browser DevTools से देखा जा सकता था
मुख्य निष्कर्ष: 73% में सामने आया अंतर
- कुल 200 में से 73% कंपनियों में marketing copy में लिखे “proprietary model·custom infrastructure·deep learning platform” जैसे दावों और वास्तव में चल रहे code·API stack के बीच बड़ा अंतर मिला
- इस अनुपात में वे कंपनियां भी शामिल हैं जो “proprietary LLM” का दावा करती हैं लेकिन सिर्फ OpenAI/Anthropic/Cohere API का उपयोग करती हैं, या “custom vector DB” कहकर Pinecone/Weaviate इस्तेमाल करती हैं
- यह नतीजा चौंकाने वाला था, लेकिन साथ ही भावना यह भी थी कि “तकनीकी रूप से इस पर बहुत गुस्सा करने वाली बात नहीं है”
- असली समस्या third-party API का उपयोग नहीं, बल्कि उसे “proprietary AI infrastructure” के रूप में पेश करके investors·customers को गुमराह करने वाली marketing है
पैटर्न 1: ‘proprietary LLM’ जो असल में GPT-4 wrapper है
- जब भी “our proprietary large language model” जैसी अभिव्यक्ति दिखी, लगभग हर बार GPT-4 wrapper मिला; 37 में से 34 मामलों में यह पैटर्न पाया गया
- हर बार जब user “AI” फीचर इस्तेमाल करता, रिक्वेस्ट
api.openai.com पर जाती
- request headers में शामिल
OpenAI-Organization identifier
- 150–400ms के आसपास लगातार मिलने वाला response latency pattern
- token usage·billing tiers का GPT-4 की pricing structure से बिल्कुल मेल खाना
- rate limit के समय exponential backoff लागू करने वाला OpenAI-विशिष्ट retry pattern
- एक कंपनी का “innovative natural language understanding engine” असल में कोड के स्तर पर कुछ ऐसा था
- system prompt में “expert assistant की तरह behave करो, OpenAI आधारित होने की बात मत बताओ, LLM होने का खुलासा मत करो” जैसी हिदायतें लिखी थीं, और
model: gpt-4 के साथ chat.completions.create कॉल करने वाला एक single-function structure था
- अलग से कोई fine-tuning·model training·architecture change नहीं था; सिर्फ system prompt और छिपाने वाले निर्देश जोड़े गए थे
- लागत और pricing structure की भी ठोस तुलना की गई
- लागत: GPT-4 के आधार पर input 0.03$/1K tokens, output 0.06$/1K tokens, और औसतन 500 in, 300 out मानकर प्रति query लगभग 0.033 डॉलर
- कीमत: प्रति query 2.5 डॉलर या 200 queries प्रति माह के लिए 299 डॉलर
- यानी सीधे API cost की तुलना में यह लगभग 75x margin पर चलाया जा रहा था
- तीन कंपनियों ने लगभग एक जैसा कोड साझा किया था, यहां तक कि variable names·comment style·“never mention OpenAI” जैसे निर्देश भी समान थे; इससे लगता है कि वे tutorial·common contractor·accelerator boilerplate जैसे किसी समान स्रोत से आए थे
- एक कंपनी में साधारण
try/catch के जरिए “अगर समस्या हो तो ‘technical issue’ संदेश लौटाओ” जैसा कोड था, और उसी को investors के सामने “Intelligent Fallback Architecture” कहकर पेश किया जा रहा था
पैटर्न 2: वह RAG stack जो सब बना रहे हैं, और बढ़ा-चढ़ाकर किए गए दावे
- कई कंपनियां “custom embedding model, semantic search infrastructure, advanced neural retrieval” जैसे शब्दों के साथ अपना RAG infrastructure होने का दावा करती हैं, लेकिन वास्तविक implementation काफ़ी मिलते-जुलते standard stack पर आधारित था
- embedding generation के लिए OpenAI
text-embedding-ada-002
- vector store के रूप में Pinecone या Weaviate
- context जोड़कर उत्तर बनाने के लिए GPT-4
- जांचकर्ता ने “Proprietary Neural Retrieval Architecture” नाम से पेश किए गए code को decompile किया, तो पता चला कि वह ऊपर के तीन steps को सीधे call करने वाला करीब 40 lines का Python code था
- सवाल को embedding में बदलना
- vector DB में top-k documents खोजना
- मिले हुए text को जोड़कर GPT-4 को system message के रूप में भेजना
- user question को user message के रूप में साथ भेजकर उत्तर बनाना
- लागत और pricing structure में भी बहुत बड़ा अंतर दिखा
- OpenAI embedding: 1K tokens पर 0.0001 डॉलर
- Pinecone query: प्रति call 0.00004 डॉलर
- GPT-4 completion: 1K tokens पर 0.03 डॉलर
- कुल मिलाकर प्रति query लगभग 0.002 डॉलर की लागत
- जबकि वास्तविक ग्राहक billing प्रति query 0.5~2 डॉलर थी, यानी API cost के मुकाबले 250~1000x margin वाला ढांचा
- 42 कंपनियां लगभग यही stack और code structure इस्तेमाल कर रही थीं, और अतिरिक्त 23 कंपनियों में 90% से अधिक समान pattern दिखा
- अंतर मुख्य रूप से Pinecone vs Weaviate का चुनाव, variable names, और Redis cache जोड़ने तक सीमित था
- Redis cache जोड़कर उसे “optimization engine”, और retry logic जोड़कर उसे “Intelligent Failure Recovery System” जैसे नामों से market करने के उदाहरण भी मिले
- 10 लाख monthly queries वाले startup की economics भी निकाली गई
- लागत: embedding लगभग 100 डॉलर, Pinecone hosting लगभग 40 डॉलर, GPT-4 completion लगभग 30 हज़ार डॉलर, कुल लगभग 30,140 डॉलर/महीना
- revenue: 1.5 लाख~5 लाख डॉलर/महीना
- business structure में 80~94% का ऊंचा gross margin
पैटर्न 3: ‘हमने खुद fine-tuning की है’ का असली मतलब
- “हमने खुद model fine-tune किया है” कहने वाली कंपनियों की infrastructure trace करने पर, वे broadly दो categories में बंटी दिखीं
- एक छोटी संख्या (लगभग 7%) वास्तव में AWS SageMaker, Google Vertex AI आदि के जरिए अपने training jobs चला रही थी, model artifacts को S3 buckets में store कर रही थी, और अलग inference endpoints व GPU instance monitoring भी operate कर रही थी
- ज़्यादातर कंपनियां OpenAI की fine-tuning API इस्तेमाल कर रही थीं, और संरचना लगभग “OpenAI को example data और prompts देकर store करा देना” भर थी
- पहले मामले में (वास्तविक self-training), training infrastructure और deployment pipeline browser में दिखने वाले संकेतों से भी कुछ हद तक समझ आ जाते थे, जबकि दूसरे मामले में अधिकतर चीज़ें सिर्फ एक single OpenAI endpoint call के रूप में दिखती थीं
wrapper कंपनियों को जल्दी पहचानने के तरीके
-
network traffic pattern
- browser में DevTools(F12) → Network tab खोलकर, service की AI feature इस्तेमाल करते समय जाने वाली requests देखें तो आसानी से शुरुआती फर्क समझा जा सकता है
api.openai.com
api.anthropic.com
api.cohere.ai
- जैसे domains अगर सीधे दिखें, तो मूल रूप से उसे third-party model API wrapper माना जा सकता है
- response latency भी fingerprint की तरह काम करती है
- खासकर OpenAI API में 200~350ms range में responses जमा होने वाला एक विशिष्ट latency pattern होता है, जिससे backend model का अंदाज़ा लगाया जा सकता है
-
JavaScript bundle और key exposure
- page source और JS bundles में नीचे दिए गए keywords ढूंढना भी एक आसान तरीका है
openai, anthropic, claude, cohere, sk-proj- (OpenAI project key prefix) आदि
- जांच के दौरान 12 कंपनियां ऐसी मिलीं जिनके frontend code में API keys सीधे शामिल थीं; इस बारे में report mail भेजी गई, लेकिन किसी कंपनी ने जवाब नहीं दिया
-
marketing language matrix
- marketing copy में इस्तेमाल भाषा और वास्तविक technical implementation के बीच pattern को table के रूप में व्यवस्थित कर इसे “Marketing Language Matrix” कहा गया
- अगर “GPU instance type, serving architecture, model size” जैसे ठोस technical terms दिखें, तो इस बात की संभावना ज़्यादा थी कि कंपनी के पास कुछ हद तक अपनी infrastructure हो
- इसके उलट “advanced AI”, “next-gen intelligence”, “proprietary neural engine” जैसे अमूर्त buzzwords जितने ज़्यादा दोहराए गए, अंदरूनी तौर पर उसके third-party API wrapper होने की संभावना उतनी अधिक थी
infrastructure reality map और AI startup landscape
- लेख में कई diagrams के जरिए मौजूदा AI startups का infrastructure reality map समझाया गया
- बड़ी संख्या में startups OpenAI·Anthropic·Cohere जैसे model providers के ऊपर एक पतली application layer रखकर मौजूद हैं
- और उन layers के ऊपर “workflow·UX·domain data·pipeline” जैसे स्तरों पर differentiation करने वाली services बनी हुई हैं
- इस structure के आधार पर, AI startups का बड़ा हिस्सा व्यवहार में service/platform business है, जबकि खुद को “unique AI infrastructure company” मानने की उनकी self-image उससे मेल नहीं खाती
इस समस्या की परवाह क्यों करनी चाहिए
- “अगर चीज़ काम कर रही है तो फर्क क्या पड़ता है?” इस सवाल पर, जांचकर्ता ने चार stakeholders के नज़रिए से कारण बताए
- निवेशक: आज कई कंपनियों में लगाया जा रहा capital AI research/model development में नहीं, बल्कि असल में prompt engineering और workflow layer में जा रहा है
- ग्राहक: वे वास्तविक API cost पर 10x से अधिक premium चुका रहे हैं, जबकि कई मामलों में वही functionality weekend project के स्तर पर खुद implement की जा सकती है
- डेवलपर्स: बाहर से दिखने वाली “AI startup” की चमक-दमक के मुकाबले, असल में कई services low-entry-barrier wrappers हैं; इसलिए यह समझना ज़रूरी है कि वे खुद भी कम समय में ऐसी चीज़ बना सकते हैं
- ecosystem: अगर “AI companies” की 73% संख्या technology को बढ़ा-चढ़ाकर या भ्रामक तरीके से पेश कर रही है, तो यह पूरे sector के bubble-जैसे हालात और unhealthy incentives की ओर इशारा करता है
wrapper spectrum: हर wrapper बुरा नहीं होता
- “Wrapper Spectrum” नाम के diagram के जरिए समझाया गया कि wrapper companies के भीतर भी quality के अलग-अलग स्तर होते हैं
- एक छोर पर वे wrappers हैं जो बस third-party API पर एक पतली UI layer चढ़ाते हैं
- दूसरे छोर पर वे advanced wrappers हैं जो domain-specific workflows·बेहतरीन UX·model orchestration·value-added data pipelines जैसी चीज़ें देते हैं
- मुख्य संदेश “wrapper है या नहीं” नहीं, बल्कि ईमानदारी और value delivery का तरीका है
- जो कंपनियां third-party API का इस्तेमाल करते हुए भी इसे पारदर्शी रूप से बताती हैं, और problem-solving, experience, तथा data के स्तर पर अलग value बनाती हैं, उनका मूल्यांकन सकारात्मक किया गया
सही काम कर रहे 27%
-
Category 1: पारदर्शी wrappers (Transparent Wrappers)
- इस समूह की कंपनियां अपनी वेबसाइट पर "Built on GPT-4" जैसे वाक्य स्पष्ट रूप से लिखती हैं, और यह साफ बताती हैं कि वे वास्तव में workflow·UX·domain knowledge बेच रही हैं
- उदाहरण: GPT-4 + legal templates के संयोजन से कानूनी दस्तावेज़ automation देने वाली सेवा
- उदाहरण: Claude आधारित customer support ticket routing में विशेषज्ञ सेवा
- उदाहरण: कई models और human review process को जोड़ने वाली content workflow service
-
Category 2: असली builders (Real Builders)
- इस समूह में वे कंपनियां हैं जो वास्तव में अपने models को train कर रही हैं
- healthcare AI जो मेडिकल क्षेत्र में HIPAA compliance के लिए self-hosted models चलाता है
- वित्तीय विश्लेषण के लिए custom risk models को train और operate करने वाली सेवा
- औद्योगिक automation में विशेष computer vision models विकसित और deploy करने वाली सेवा
-
Category 3: नवोन्मेषी संयोजन (Innovators)
- इसमें वे कंपनियां शामिल हैं जो third-party models का उपयोग करती हैं, लेकिन उनके ऊपर वास्तव में नई संरचना बनाती हैं
- कई models के output को मिलाकर voting-based accuracy improvement लागू करने वाला system
- memory·agent framework बनाकर जटिल tasks करने वाला system
- नई तरह की retrieval architecture अपनाने वाले उदाहरण आदि
- इन कंपनियों की समानता यह है कि वे अपनी architecture को विस्तार से समझा सकती हैं, और उनके पास वास्तव में अपने द्वारा बनाई गई संरचना होती है
सीखा गया सबक: stack से ज़्यादा समस्या, और ईमानदारी
- 3 हफ्तों की जांच के नतीजे को इस तरह संक्षेप में रखा जा सकता है
- technology stack से ज़्यादा महत्वपूर्ण वह समस्या है जिसे हल किया जा रहा है, और वास्तव में कई बेहतरीन products ऐसी संरचना वाले थे जिन्हें “सिर्फ wrapper” कहा जा सकता है
- लेकिन ईमानदारी एक अलग स्तर पर महत्वपूर्ण है, और smart wrapper तथा fraudulent wrapper के बीच फर्क transparency में है
- AI gold rush, “proprietary AI” चाहने वाले investors और customers की अपेक्षाओं के कारण झूठे दावे करने का दबाव पैदा करने वाले incentives बना रहा है
- और API के ऊपर build करना अपने आप में शर्म की बात नहीं है, समस्या तब है जब इसे छिपाकर “proprietary neural network architecture” के रूप में पेश किया जाए
मूल्यांकन framework और व्यावहारिक सलाह
-
48 घंटे replication test
- हर “AI startup” का मूल्यांकन करने के लिए एक सरल मानदंड प्रस्तावित किया गया
- "क्या उनकी core technology को 48 घंटे में replicate किया जा सकता है?"
- यदि हां, तो तकनीकी रूप से वह wrapper की श्रेणी में आता है, और
- अगर वह अपने stack के बारे में ईमानदारी से बताता है, तो वह एक ठीक कंपनी है
- अगर वह इसे छिपाकर “proprietary AI infrastructure” का दावा करता है, तो उससे बचना चाहिए
-
founders के लिए सलाह
- founders के लिए ये सिद्धांत सुझाए गए
- stack के बारे में ईमानदारी से खुलासा करें
- UX·data·domain expertise के आधार पर प्रतिस्पर्धा करें
- जो नहीं बनाया, उसे बनाने का दावा न करें
- “Built with GPT-4” कमजोरी नहीं, बल्कि ईमानदार विवरण है—इसे स्वीकार करें
-
investors के लिए सलाह
- investors के लिए ये verification points दिए गए
- architecture diagrams मांगें
- OpenAI·Anthropic जैसी API bills मांगकर वास्तविक निर्भरता जांचें
- wrapper कंपनियों का मूल्यांकन wrapper कंपनियों की तरह उचित तरीके से करें
- जो टीमें ईमानदारी से अपना stack बताती हैं, उन्हें incentive देकर reward करें
-
customers के लिए सलाह
- customers के लिए ये व्यावहारिक बिंदु सुझाए गए
- browser में network tab खोलकर बाहर जाने वाले requests देखें
- infrastructure और model usage के बारे में सीधे सवाल करें
- जांचें कि आप API calls पर बेवजह 10x से ज़्यादा markup तो नहीं दे रहे
- तकनीकी दावों की बजाय वास्तविक परिणाम और समस्या-समाधान क्षमता के आधार पर मूल्यांकन करें
‘AI startup’ की असलियत, एक पंक्ति में
- “ज़्यादातर ‘AI startups’ ऐसे service businesses के करीब हैं जो employee cost की जगह API cost चुकाते हैं”
- यह कोई गलत business model नहीं, बल्कि ऐसी हकीकत है जिसे उसी रूप में स्वीकार कर ईमानदारी से समझाया जाना चाहिए
जांच के बाद की प्रगति और प्रतिक्रियाएं
- हफ्ता 1: शुरुआत में अनुमान था कि शायद 20~30% third-party API का उपयोग करेंगे, लेकिन नतीजा उससे कहीं बड़ा निकला
- हफ्ता 2: एक founder ने जांचकर्ता से पूछा, “तुम हमारे production environment में कैसे आए?”, और जांचकर्ता ने समझाया कि उसने सिर्फ browser network tab देखा था
- हफ्ता 3: दो कंपनियों ने जांच के नतीजे हटाने का अनुरोध किया, लेकिन लेख में किसी खास कंपनी का नाम उजागर नहीं किया गया था और अब भी वही स्थिति है
- कल: एक VC ने अगली board meeting से पहले अपनी portfolio companies का audit करने का अनुरोध किया, और जांचकर्ता ने इसे स्वीकार कर लिया
data·tools सार्वजनिक करने की योजना
- इस शोध के आधार पर methodology और tools को सार्वजनिक करने की योजना है
-
GitHub पर प्रकाशित की जाने वाली चीज़ें (free)
- पूरा scraping infrastructure code
- API fingerprints निकालने की techniques
- ऐसे detection scripts जिन्हें कोई भी चलाकर देख सके
- प्रमुख AI APIs के response-time patterns का संग्रह
-
गहन विश्लेषण (members only)
- एक "AI unicorn" जिसे 3,300 million डॉलर monthly valuation मिली थी, जबकि वह वास्तव में हर महीने सिर्फ 1,200 डॉलर का OpenAI cost इस्तेमाल कर रही थी
- ऐसा ढांचा जिसे “100 million parameter model” कहा गया, लेकिन वास्तव में वह 3 system prompts से बना था
- सार्वजनिक रूप से serve हो रहा production code (client-side, anonymized snippets)
- wrapper को तुरंत उजागर कर देने वाला 5-question framework
- investor presentations और वास्तविक infrastructure की तुलनात्मक case studies
अंतिम संदेश और ‘ईमानदार AI युग’ की ज़रूरत
- यह जांच कंपनियों के नाम उजागर किए बिना केवल patterns साझा करने के तरीके से की गई, और इस बात पर ज़ोर दिया गया कि बाज़ार अंततः transparency को reward करेगा
- वास्तव में 18 कंपनियां ऐसी पाई गईं जो सही मायने में नई technology बना रही थीं,
- और उन्हें यह संदेश दिया गया: “आप जानते हैं कि आप कौन हैं, बनाते रहिए”
- जांच के बाद 7 founders ने निजी तौर पर संपर्क किया,
- कुछ रक्षात्मक थे, कुछ आभारी थे, और तीन ने “proprietary AI” से “best-in-class APIs के ऊपर built” की ओर marketing shift में मदद मांगी
- एक founder ने स्वीकार किया, “हमें पता था कि हम झूठ बोल रहे हैं, investors यही उम्मीद कर रहे थे, सब यही कर रहे हैं, अब हम इसे कैसे रोकें?”
- लेख के अंत में फिर ज़ोर दिया गया कि AI gold rush खत्म नहीं होगा, लेकिन ईमानदारी का युग शुरू होना चाहिए, और कोई भी DevTools के Network tab (F12) को खोलकर खुद सच देख सकता है
4 टिप्पणियां
टिप्पणियों में एक बात है, "लेखक के अस्तित्व पर ही संदेह है। डेटा का स्रोत भी स्पष्ट नहीं है, और नेटवर्क ट्रैफ़िक को मनमाने ढंग से कैप्चर भी नहीं किया जा सकता। बुनियादी सत्यापन ज़रूरी है" — मैं इससे सहमत हूँ।
Medium प्रोफ़ाइल में दिया गया LinkedIn लिंक भी ऐसे पेज पर जाता है जो मौजूद ही नहीं है, और लगता है कि वह व्यक्ति शुरुआत से ही अस्तित्व में नहीं था। 25 नवंबर को GPT-4o नहीं बल्कि लगातार GPT-4 का ज़िक्र करना भी अजीब है।
यह भी मानना मुश्किल है कि सब्सक्रिप्शन पेमेंट सिस्टम तक जोड़कर कमाई करने लायक डेवलपर, AI API के साथ संचार को server की बजाय client पर implement करे और इस तरह इतनी आसानी से पकड़ा जाए... इस पर भरोसा करना कठिन है।
अगर आप एजेंट बनाने की कोशिश करें, तो prompt engineering AI का उपयोग करने वाले बहुत उत्कृष्ट उत्पादकता वाले application की तरह दिखाई देती है.
Hacker News की राय
2023 वह साल था जब हर हफ्ते prompt demo दिखाए जा रहे थे
AWS इवेंट में भी एक प्रेज़ेंटर ने Claude खोला और रैंडम prompts टाइप करते हुए पूरा एक घंटा निकाल दिया
हमारी टीम ने भी 6 महीने तक “agent” बनाने के नाम पर tools, connectors और evaluation system जोड़े, लेकिन आखिर में फिर prompt engineering पर लौट आई
कभी एक mentor ने कहा था, “टेक्नोलॉजी में expert वही है जो दूसरों से एक-दो चीज़ें ज़्यादा जानता हो”
इसलिए मुझे लगता है कि आज का prompt engineering craze भी एक स्वाभाविक प्रवाह है। जितनी नई तकनीक होती है, वह अक्सर मौजूदा stack पर एक-दो परतें और जोड़ते हुए आगे बढ़ती है
“यह तो बस prompt engineering है” कहना वास्तव में high-performance system बनाने की कठिनाई को कम करके आँकना है
evaluation metrics design, tool calling, caching जैसी चीज़ें साधारण prompt स्तर की नहीं हैं। अगर आप नतीजे दिखा सकते हैं, तो funding जुटाना आसान होगा
2025 के नवंबर में GPT-4 का ज़िक्र करने वाला लेख हो, तो शक होना स्वाभाविक है
network traffic से AI provider पहचानने की methodology भी अजीब लगती है। अगर frontend से सीधे API call किया गया हो, तो security key exposure का ख़तरा बहुत बड़ा है
यह पूरी जांच-पड़ताल कुछ संदिग्ध लगती है
फिर सवाल आता है, “तो आख़िर करना क्या चाहिए?”
90 के दशक में console system के ऊपर UI चढ़ा देना भी बेहतरीन startup idea माना जाता था
सच कहें तो ऐसा AI से पहले वाले startups में भी अक्सर होता था
मौजूदा तकनीक को लपेटकर UX बेहतर कर दिया जाए, तो भी बहुत पैसा बन जाता था। अंदर से वह open source tools का मेल होता था, लेकिन margins इतने ऊँचे थे कि खुद से सब कुछ बनाना बेमानी था
ChatGPT लॉन्च होने के तुरंत बाद से ही मैं यह सोच रहा था
अगर किसी कंपनी के पास सचमुच AGI हो, तो वह उसे बेचेगी ही क्यों। वह सीधे अपने products और services बनाकर प्रतिस्पर्धियों को कुचल देगी
LLM बनाने वाली कंपनियाँ बहुत कम हैं, और उनकी capabilities भी काफ़ी मिलती-जुलती हैं
आखिरकार automation का केंद्र prompt engineering ही है
mobile apps की तरह, अगर big tech ठान ले तो इसे आसानी से copy कर सकता है। Perplexity और Cursor भी जोखिम में हैं
जिस लेख पर चर्चा हो रही है, वह खुद AI-generated content जैसा लगता है
यह भरोसा करना मुश्किल है कि लेखक ने सच में डेटा analyze किया भी था या नहीं
सबसे बड़ा सवाल यही है: “इसने ऐसा डेटा इकट्ठा कैसे किया?”
मेरी कंपनी होती, तो हम customer data इस तरह कभी सार्वजनिक नहीं कर सकते थे
वो बेईमानी कैसे है haha