अरे, मैंने इसे पढ़ा क्योंकि लगा कि शायद यह कोई खबर या जानकारी होगी, लेकिन सामग्री कुछ अजीब लगी, इसलिए मैंने पूछा कि क्या यह विज्ञापन है। गंभीरता से जवाब देने के लिए धन्यवाद।
"win rate" ही असली कुंजी है।
सिर्फ अगला शब्द predict करने से तो काम की बात लिखना तो दूर, coding या math भी ठीक से नहीं हो पाती।
ऐसी तकनीकें 60~70 के दशक में आ चुकी थीं।
शायद ऐसा भी कहा जा सकता है।
लेकिन आखिरकार मॉडल खुद में सिर्फ़ एक input/output function ही है।
इसलिए, अगर यह मान लिया जाए कि उसे उपयुक्त harness और agent loop दिया गया है, तो यह कहना सही लगता है कि मॉडल लक्ष्य हासिल करता है।
मैं व्यवस्थापक हूँ.
GeekNews विभिन्न रूपों की खबरें और जानकारी साझा करने का लक्ष्य रखता है, और सीधे संकलित किए गए लेख भी एक निश्चित सीमा के भीतर अनुमति देता है.
हालांकि, यदि एक ही उपयोगकर्ता द्वारा किसी विशेष डोमेन की पोस्ट बार-बार की जाती हैं, तो मानदंडों के अनुसार प्रतिबंध लागू किए जाते हैं.
यह मामला भी उन्हीं मानदंडों के अनुसार समीक्षा और समायोजन के तहत है.
कुछ कार्रवाइयाँ बाहर से दिखाई नहीं दे सकती हैं.
gpt 3 : अगला शब्द predict करना -> सही
gpt 3 के बाद के transformer-आधारित models : अगला शब्द predict करना -> सही.
AlphaGo, AlphaZero, MuZero, ... : अगली चाल predict करना -> सही.
(किसी खास) लक्ष्य को हासिल करने वाला model -> सही.
क्या इसे इस तरह संक्षेपित किया जा सकता है? “अगले token की भविष्यवाणी” implementation स्तर की व्याख्या के रूप में सटीक है, लेकिन मॉडल की क्षमताओं या उद्देश्य को समझाने के तरीके के रूप में अधूरी है।
उम्.. मुझे लग रहा है कि शायद यह लेख मेरी मंशा से अलग तरह से पहुँच गया हो। अगर इस लेख से ऐसा महसूस हुआ कि मैं LLM के तकनीकी मूल्य को कम करके दिखा रहा हूँ, तो मैं क्षमा चाहता हूँ。
हालाँकि, इस लेख का उद्देश्य अतिरंजित पैकेजिंग और रहस्यवाद को हटाकर चीज़ों को ठंडे दिमाग से देखना था। इसलिए व्यक्तिगत रूप से, जब इसे 'लक्ष्य हासिल करने वाला मॉडल' कहा जाता है, तो मुझे लगता है कि इसमें रहस्यवाद जुड़ जाता है। आखिरकार, चाहे सामान्य software हो या model, दोनों किसी न किसी 'लक्ष्य' को हासिल करने के लिए ही होते हैं।
इसलिए, अपनी व्यक्तिगत जिज्ञासा जोड़ते हुए, मैं फिर से पूछना चाहूँगा कि क्या आपने जो अभिव्यक्ति कही, वह तकनीकी रूप से अधिक सटीक है।
यह अंत में आकर Analytics के विज्ञापन जैसा लगता है। बात तो भरोसेमंद लगती है, लेकिन आखिरकार यह विज्ञापन ही है, और ऐसा भी लगता है कि hada.io के ऑपरेटर इसे बहुत ज़्यादा यूँ ही छोड़ रहे हैं।
आखिरकार यह गुणवत्ता के साथ एक trade-off ही है, और यह चिंता भी होती है कि कहीं खोई हुई गुणवत्ता को वापस लाने के लिए फिर से ज़्यादा tokens खर्च करने वाली संरचना न बन जाए।
बड़े संदर्भ में देखें तो यह पिछली बातचीत की खोज जैसा है, इसलिए अगर संगठन से जुड़ी बातों को अच्छी तरह व्यवस्थित किया जाए तो यह एक अच्छा आइडिया लगता है। वास्तव में, मुझे भी लगा कि यह प्रोजेक्ट को व्यवस्थित करने में काफी मददगार रहा।
मैंने भी इसे इम्प्लीमेंट करके देखा है। कई hardware इस्तेमाल करते समय Obsidian vault को GitHub backup के साथ लिंक किया जा सके, इसके लिए थोड़ा-सा और जोड़ा है। Codex और Gemini के लिए parser भी बनाकर शामिल कर दिए हैं। https://github.com/hang-in/seCall
सुना है कि kernel developers पिछले करीब 10-20 साल से PostgreSQL developers से कहते आ रहे थे, 'userland में spinlock की सिफारिश नहीं की जाती, इसलिए अच्छा होगा अगर आप इस पर फिर से विचार करें'..
अरे, मैंने इसे पढ़ा क्योंकि लगा कि शायद यह कोई खबर या जानकारी होगी, लेकिन सामग्री कुछ अजीब लगी, इसलिए मैंने पूछा कि क्या यह विज्ञापन है। गंभीरता से जवाब देने के लिए धन्यवाद।
अच्छा है। फ्रंटएंड और डिज़ाइन करने वाले लोग तो ऐसी चीज़ें पहले से बनाकर ही शुरू करते हैं।
"win rate" ही असली कुंजी है।
सिर्फ अगला शब्द predict करने से तो काम की बात लिखना तो दूर, coding या math भी ठीक से नहीं हो पाती।
ऐसी तकनीकें 60~70 के दशक में आ चुकी थीं।
(सख्ती से कहें तो यह शब्द भी नहीं है)
शायद ऐसा भी कहा जा सकता है।
लेकिन आखिरकार मॉडल खुद में सिर्फ़ एक input/output function ही है।
इसलिए, अगर यह मान लिया जाए कि उसे उपयुक्त harness और agent loop दिया गया है, तो यह कहना सही लगता है कि मॉडल लक्ष्य हासिल करता है।
मूल लेख में कहीं भी यह दावा नहीं किया गया था कि AI पूरी विशेषज्ञता की जगह ले सकता है। मैं भी ऐसा नहीं सोचता...
मैं व्यवस्थापक हूँ.
GeekNews विभिन्न रूपों की खबरें और जानकारी साझा करने का लक्ष्य रखता है, और सीधे संकलित किए गए लेख भी एक निश्चित सीमा के भीतर अनुमति देता है.
हालांकि, यदि एक ही उपयोगकर्ता द्वारा किसी विशेष डोमेन की पोस्ट बार-बार की जाती हैं, तो मानदंडों के अनुसार प्रतिबंध लागू किए जाते हैं.
यह मामला भी उन्हीं मानदंडों के अनुसार समीक्षा और समायोजन के तहत है.
कुछ कार्रवाइयाँ बाहर से दिखाई नहीं दे सकती हैं.
gpt 3 : अगला शब्द predict करना -> सही
gpt 3 के बाद के transformer-आधारित models : अगला शब्द predict करना -> सही.
AlphaGo, AlphaZero, MuZero, ... : अगली चाल predict करना -> सही.
(किसी खास) लक्ष्य को हासिल करने वाला model -> सही.
इस बात में कुछ भी गलत नहीं है
क्या पूरी विशेषज्ञता ही प्रतिस्थापित की जा सकती है? शब्द गढ़ने की प्रक्रिया से ही यह अजीब लगती है।
काफ़ी भ्रमित करने वाला है। क्या आप मज़ाक कर रहे हैं, या फिर कोई नई तकनीक या स्किल आ गई है जिसके बारे में मुझे नहीं पता??
क्या AlphaGo भी अगली चाल का अनुमान इस तरह नहीं लगाता कि किस चाल की जीतने की संभावना सबसे ज़्यादा है?????
क्या इसे इस तरह संक्षेपित किया जा सकता है? “अगले token की भविष्यवाणी” implementation स्तर की व्याख्या के रूप में सटीक है, लेकिन मॉडल की क्षमताओं या उद्देश्य को समझाने के तरीके के रूप में अधूरी है।
तो फिर शायद बीच का रास्ता यह हो कि हम ऐसा मॉडल चुनें जो बेहतर predict करता हो 😄
उम्.. मुझे लग रहा है कि शायद यह लेख मेरी मंशा से अलग तरह से पहुँच गया हो। अगर इस लेख से ऐसा महसूस हुआ कि मैं LLM के तकनीकी मूल्य को कम करके दिखा रहा हूँ, तो मैं क्षमा चाहता हूँ。
हालाँकि, इस लेख का उद्देश्य अतिरंजित पैकेजिंग और रहस्यवाद को हटाकर चीज़ों को ठंडे दिमाग से देखना था। इसलिए व्यक्तिगत रूप से, जब इसे 'लक्ष्य हासिल करने वाला मॉडल' कहा जाता है, तो मुझे लगता है कि इसमें रहस्यवाद जुड़ जाता है। आखिरकार, चाहे सामान्य software हो या model, दोनों किसी न किसी 'लक्ष्य' को हासिल करने के लिए ही होते हैं।
इसलिए, अपनी व्यक्तिगत जिज्ञासा जोड़ते हुए, मैं फिर से पूछना चाहूँगा कि क्या आपने जो अभिव्यक्ति कही, वह तकनीकी रूप से अधिक सटीक है।
यह अंत में आकर Analytics के विज्ञापन जैसा लगता है। बात तो भरोसेमंद लगती है, लेकिन आखिरकार यह विज्ञापन ही है, और ऐसा भी लगता है कि hada.io के ऑपरेटर इसे बहुत ज़्यादा यूँ ही छोड़ रहे हैं।
आखिरकार यह गुणवत्ता के साथ एक trade-off ही है, और यह चिंता भी होती है कि कहीं खोई हुई गुणवत्ता को वापस लाने के लिए फिर से ज़्यादा tokens खर्च करने वाली संरचना न बन जाए।
bm25 कोरियाई सर्च में उतना अच्छा नहीं है, इसलिए हमने अलग से ऐसे guardrails भी लागू किए हैं जो कोरियाई में भी अच्छी तरह सर्च कर सकें।
बड़े संदर्भ में देखें तो यह पिछली बातचीत की खोज जैसा है, इसलिए अगर संगठन से जुड़ी बातों को अच्छी तरह व्यवस्थित किया जाए तो यह एक अच्छा आइडिया लगता है। वास्तव में, मुझे भी लगा कि यह प्रोजेक्ट को व्यवस्थित करने में काफी मददगार रहा।
मैंने भी इसे इम्प्लीमेंट करके देखा है। कई hardware इस्तेमाल करते समय Obsidian vault को GitHub backup के साथ लिंक किया जा सके, इसके लिए थोड़ा-सा और जोड़ा है। Codex और Gemini के लिए parser भी बनाकर शामिल कर दिए हैं। https://github.com/hang-in/seCall
अगर आप आधुनिक LLM को "अगला शब्द predict करना" कहकर खारिज करेंगे, तो AlphaGo भी आखिर "अगली चाल predict करना" भर ही है।
ChatGPT से आगे, अगला शब्द predict करना सिर्फ़ साधारण pre-trained तक सीमित नहीं है।
असल में यह लक्ष्य हासिल करने वाला मॉडल है।
सुना है कि kernel developers पिछले करीब 10-20 साल से PostgreSQL developers से कहते आ रहे थे, 'userland में spinlock की सिफारिश नहीं की जाती, इसलिए अच्छा होगा अगर आप इस पर फिर से विचार करें'..
https://x.com/kosaki55tea/status/2040458791536497035