29 पॉइंट द्वारा GN⁺ 2025-05-06 | 2 टिप्पणियां | WhatsApp पर शेयर करें
  • लेखक बताते हैं कि उन्होंने 10 साल से अधिक समय तक LLM और text generation तकनीकों पर शोध किया है, लेकिन उम्मीद के विपरीत वे रोज़मर्रा की ज़िंदगी में LLM का अक्सर उपयोग नहीं करते
  • LLM इस्तेमाल करते समय वे prompt engineering, system prompt सेट करना, temperature control जैसी बारीक नियंत्रण प्रक्रियाओं को अहम मानते हैं, और सामान्य frontend की बजाय API-आधारित तरीके को पसंद करते हैं
  • data labeling, article cluster summary, style guide review जैसे BuzzFeed के कामों में उन्होंने ठोस समस्या-समाधान के लिए LLM का उपयोग किया और बड़े स्तर पर समय की बचत साबित की
  • वे लेखन के लिए LLM का उपयोग नहीं करते, लेकिन काल्पनिक Hacker News comments के ज़रिए आलोचनात्मक नज़रिये की जांच करने के तरीके से लेख की तर्क-संगति परखने में इसका उपयोग करते हैं
  • LLM coding assistance में उपयोगी है, लेकिन जटिल या उच्च विश्वसनीयता वाले कामों के लिए वे खुद implementation करना पसंद करते हैं, और agents व vibe coding को लेकर संदेहपूर्ण रुख बनाए रखते हैं

मेरे और LLM के बीच की दूरी

  • लेखक लंबे समय से RNN-आधारित text generation, GPT-2 tuning, GPT-3/ChatGPT experiments आदि में generative AI tools का गहरा अनुभव रखने वाले data scientist हैं
  • लेकिन वे इन्हें सीधे तौर पर बार-बार इस्तेमाल कम ही करते हैं, और उपयोग करना है या नहीं यह काम की प्रकृति और ज़रूरत के आधार पर लिया गया एक व्यावहारिक tool-based निर्णय होता है

LLM को नियंत्रित करने का तरीका

  • prompt engineering के ज़रिए मनचाहा output निकालना LLM उपयोग का मुख्य हिस्सा है
  • सामान्य frontend (ChatGPT.com) की बजाय वे सीधे API call करते हैं या backend UI के माध्यम से उपयोग करते हैं, खासकर Claude Sonnet API को पसंद करते हैं
  • system prompt और temperature control के माध्यम से creativity और determinism के बीच संतुलन बनाया जाता है; आम तौर पर 0.0 ~ 0.3 पर सेट करके output की predictability सुनिश्चित की जाती है
  • hallucination की समस्या (तथ्यहीन सामग्री बनाना) temperature बढ़ने पर अधिक गंभीर हो जाती है, इसलिए सावधानी ज़रूरी है

काम में उपयोग के उदाहरण

  • BuzzFeed article classification automation: Claude API, JSON-आधारित classification scheme, और temperature 0.0 सेटिंग के साथ सटीक category assignment किया गया
  • article cluster summary: 5 मिलते-जुलते लेख देकर साझा शीर्षक और विवरण लौटवाना, जिससे कुशल cluster summarization automation संभव हुई
  • punctuation और style guide review: पूरी style guide को system prompt में डालकर policy-आधारित grammar judgment कराया गया
  • हर काम में कुछ घंटों के भीतर POC पूरा किया जा सकता था, और पुरानी विधियों की तुलना में कई दिनों से अधिक समय की बचत साबित हुई

लिखना खुद, आलोचना LLM से

  • ब्लॉग post वे खुद लिखते हैं, क्योंकि उनके writing style में ऐसी विशिष्टता है जिसे LLM दोहराना मुश्किल है
  • लेकिन वे LLM से Hacker News user की तरह आलोचनात्मक comments लिखने को कहते हैं, ताकि तार्किक कमज़ोरियों को खोजने वाले tool के रूप में इसका उपयोग हो सके
  • यह तरीका लेख की गुणवत्ता बेहतर बनाने में मदद करता है, लेकिन LLM लेखन का विकल्प नहीं है

coding में LLM का उपयोग

  • regular expression लिखना, Pillow image compositing जैसे जटिल लेकिन दोहराव वाले कामों में LLM productivity को काफी बढ़ाता है
  • दूसरी ओर Polars जैसी नई libraries के साथ LLM कभी-कभी pandas functions समझ बैठता है, जिससे समस्याएँ पैदा होती हैं
  • Copilot जैसे real-time code suggestions उन्हें पसंद नहीं, क्योंकि लगातार mental context switching से ध्यान भंग होता है
  • LLM द्वारा सुझाए गए विचारों में वे "idea उधार लो + खुद सुधारो" वाले दृष्टिकोण को बेहतर मानते हैं

Agents, MCP, Vibe Coding पर राय

  • MCP और Agents वैचारिक रूप से बेहतर हुए हैं, लेकिन व्यावहारिक रूप से कोई नया use case नहीं दे पाए हैं
  • Vibe Coding शौकिया projects के लिए उपयोगी हो सकती है, लेकिन औपचारिक products के लिए उपयुक्त नहीं है, और इसे जिम्मेदारी से बचने के साधन की तरह इस्तेमाल नहीं करना चाहिए
  • वे इस बात पर ज़ोर देते हैं कि सिर्फ भरोसेमंद code ही पेशेवर होने की पहचान है

LLM उद्योग और नैतिकता पर विचार

  • "LLM बेकार है" जैसा दावा वास्तविक उपयोग की दुनिया को नहीं दर्शाता; असली मुद्दा short-term ROI और industry structure है
  • open source models और वैकल्पिक infrastructure (Cerebras, Groq आदि) OpenAI के न रहने पर भी LLM की मांग पूरी कर सकते हैं
  • अंततः LLM एक ऐसा tool है जिसे उद्देश्य के मुताबिक ठीक तरह से इस्तेमाल करना चाहिए, और अंधी प्रशंसा भी, अंधा विरोध भी—दोनों खतरनाक हैं

समापन

  • LLM एक ऐसा tool है जो गोल छेद में चौकोर कील ठूंसने जैसा भी हो सकता है—यानी यह अकार्यक्षम भी हो सकता है और क्रांतिकारी भी
  • महत्वपूर्ण बात है यह तय करने की तकनीकी समझ कि इसे कब, कहाँ और कैसे इस्तेमाल करना है; LLM युग में यही असली क्षमता है

2 टिप्पणियां

 
ifmkl 2025-05-07

मैं आख़िरी पंक्ति से पूरी तरह सहमत हूँ। साथ ही, मुझे भी कुछ ऐसा ही महसूस हुआ था—आख़िरकार AI और LLM उतने ही उपयोगी और काम में लाने योग्य होते हैं, जितनी उपयोगकर्ता की अपनी क्षमता होती है।

 
GN⁺ 2025-05-06
Hacker News राय
  • अनुभवी प्रोग्रामर जब LLMs के साथ काम करते हैं तो उन्हें होने वाली उलझन भरी बातों पर राय दी गई है

    • pandas, Python में tabular data को manipulate करने के लिए standard library है और 2008 से इस्तेमाल हो रही है
    • हाल में वे नई polars library का उपयोग कर रहे हैं, और LLMs अक्सर polars functions को pandas functions समझ लेते हैं, इसलिए documentation देखनी पड़ती है
    • coding agents का उपयोग न करने का कारण यह है कि वे "ध्यान भटकाने वाले" लगते हैं, और auto-completion पसंद न करने वाले व्यक्ति के रूप में यह बात समझ में आती है
    • "शुद्ध" LLMs coding काम में code errors पैदा करते हैं, लेकिन agent LLM configuration में ऐसा code भी शामिल होता है जो LLM interactions को structure करता है
    • अगर LLM function error पैदा करे तो program compile नहीं होता, और agent इसे पकड़कर LLM से बार-बार सुधार करवाता है
  • UI या वेबसाइट के mock बनाने के लिए vibe coding का उपयोग किया जाता है

    • frontend का अनुभव नहीं है, लेकिन 80% तैयार live demo बनाकर दूसरों को दिखा पाना मूल्यवान है
    • असली product के लिए यह अभी तैयार नहीं है, लेकिन internal discussion के लिए mock बनाने में उपयोगी है
  • LLMs से सबसे अच्छे नतीजे पाने के लिए कई तरह के तरीके आज़माए गए हैं

    • LLMs को "छलने" वाले scenarios सोच निकालना अप्रभावी है, और model version के अनुसार इसका असर बहुत बदल सकता है
  • कम लोकप्रिय libraries पर जटिल code सवालों में LLM के output को लेकर अधिक सावधानी बरती जाती है

    • पिछले कुछ महीनों में ChatGPT interface का उपयोग करके नई libraries से जुड़े code सवाल सुलझाने में यह प्रभावी रहा है
    • नए JavaScript library पर code upgrade करने का काम सफलतापूर्वक किया गया
  • नई library की documentation या पूरा codebase सीधे long-context model में paste करने का तरीका इस्तेमाल किया जाता है

    • 50,000 tokens से छोटी libraries पर यह प्रभावी है, और Gemini 2.5 Pro कई लाख tokens भी अच्छी तरह संभाल लेता है
  • लेखक ने chat logs शामिल किए, यह बात अच्छी लगी

    • बहुत से लोग जानकारी उजागर नहीं कर सकते इसलिए साझा नहीं कर पाते, लेकिन LLM की उपलब्धियों का दावा करते समय उसे support करना ज़रूरी है
  • ChatGPT.com या सामान्य user interface का उपयोग नहीं किया जाता

    • हर LLM service के backend UI का उपयोग करके बेहतर परिणाम मिलते हैं
    • OpenAI, ChatGPT UI में models को सीमित करने की प्रवृत्ति रखता है
  • आधुनिक LLM interfaces, जहाँ system prompt को स्पष्ट रूप से सेट नहीं किया जा सकता, अपना खुद का system prompt इस्तेमाल करते हैं

    • ChatGPT के पास system prompt है, लेकिन Claude के पास नहीं है
    • नए models में system prompt की उपयोगिता घट रही है
  • generated text पर खास constraints सेट करना, user prompt की तुलना में system prompt में अधिक प्रभावी होता है

    • LLMs 30-word concept को समझते हैं, लेकिन ऐसे कामों में हमेशा अच्छा प्रदर्शन नहीं करते
  • हर LLM service के backend UI का उपयोग किया जाता है

    • यह जानने की जिज्ञासा है कि क्या API के साथ interface करने के लिए custom wrapper उपयोग होता है, या पहले से स्थापित client इस्तेमाल किए जाते हैं
  • JSON responses हमेशा उम्मीद के मुताबिक काम नहीं करते

    • consistent JSON लौटाने के लिए JSON schema define किया जाता है ताकि हमेशा वही structure वापस आए
  • LLM का उपयोग नई चीज़ें सीखने या छोटे scripts लिखने के लिए किया जाता है

    • blog post के text को LLM में डालकर उससे यह कहने की तकनीक रोचक लगी कि वह खुद को एक व्यंग्यात्मक Hacker News commenter माने और पाँच comments लिखे