मुझे लगता है कि अभी तो यह बस शुरुआत है। अगर अब ऐसी दुनिया आ जाए जहाँ AI सीधे भौतिक गतिविधियों और वित्तीय लेन-देन तक जुड़कर उन्हें संचालित कर सके, तो सचमुच एक बड़ी तबाही भी हो सकती है।
Java ecosystem और object-oriented संस्कृति में खास तौर पर बेकार व्याख्यात्मक वाक्य और औपचारिक documentation बहुत रही है, और उसी माहौल को अपनाने वाले Python ecosystem के frameworks में भी उदाहरण खास तौर पर कमजोर होते हैं.
बेमतलब documentation का एक उदाहरण
add(left, right) - बाएँ operand और दाएँ operand को जोड़ता है
जबकि वास्तव में महत्वपूर्ण चीज़ें जैसे parameter का data type, कौन-कौन से exception return हो सकते हैं, result value का रूप, या operation की संरचना जैसी बातें समझाई ही नहीं जातीं.
अगर C language के man page जैसा हो, तो सिर्फ छोटी-सी व्याख्या के साथ भी function और parameter names से अंदाज़ा लगाकर इस्तेमाल किया जा सकता है.
मैं उन सभी टूल्स को पसंद करता हूँ। ये दोनों टूल्स ऐसे हैं जिनके ecosystem और उद्देश्य कुछ जगहों पर एक-दूसरे से मिलते हैं, लेकिन ये पूरी तरह एक जैसे टूल्स नहीं हैं, इसलिए इन्हें कठिनाई के आधार पर नहीं आँकना चाहिए। vite के साथ लिखें तो आप scripts को बहुत व्यापक और बारीकी से बना सकते हैं। वहीं Stimulus या Hotwire script development को न्यूनतम रखने के लिए ज़्यादा उपयुक्त हैं।
मैं हाल ही में शिफ्ट हुआ हूँ, इसलिए मुझे कूड़ेदान साफ़ करने पड़े। पीछे के आँगन में करना बहुत गंदा लगता, इसलिए सोच रहा था, तभी घर के आसपास एक दिलचस्प बिज़नेस दिखा।
एक cleaning vehicle घर के सामने तक आता है, और आपको बस कूड़ेदान उसमें रख देना होता है, फिर उसके अंदर लगा equipment अपने-आप उन्हें पूरी तरह धो देता है। धुलाई के बाद का पानी वे अपने facility में ले जाकर post-processing करके बाहर निकालते हैं, इसलिए लगता है कि environmental company के रूप में रजिस्टर होकर tax benefits भी अच्छे से ले पाते होंगे।
उस कंपनी का नाम happy cans है। यह San Diego की एक local company है, और शायद हर शहर में ऐसी एक जगह तो होगी ही।
असल में इसे इस्तेमाल कर चुके दूसरे लोगों की राय जानने की जिज्ञासा तो है, लेकिन व्यक्तिगत रूप से मुझे लेखों में टाइपो बहुत बार दिखते हैं (जैसे किसी शब्द के बिना ही वाक्य खत्म हो जाना वगैरह), इसलिए इस स्तर की quality हो तो नहीं लगता कि मैं इसे इस्तेमाल करना जारी रखूंगा। काफी उम्मीदें थीं इस service से..
मैं कुछ और स्रोत खोजना चाहता था, लेकिन मूल लेख में संदर्भ के तौर पर लिंक किया गया Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions लेख शायद हट गया है, इसलिए उसका विवरण मैं देख नहीं सका।
मूल लेख में एक बात थोड़ी सवाल उठाती है: उसमें लिखा है, "Reddit पोस्ट, कम्युनिटी डिस्कशन, और experts के threads के बारे में सोचिए। क्या इस तरह का content commercial search terms पर Google के top 10 में आएगा? लगभग नहीं। लेकिन 15~40वें स्थान की रेंज पर Reddit का कब्जा था।" लेकिन ठीक उसके नीचे दिखाए गए Perplexity के Top 10 Websites वाले ग्राफ़ में Reddit 46.7% के साथ Top 1 पर है। यह थोड़ा विरोधाभासी लगता है। personalization recommendation का असर हो सकता है, लेकिन अनुभव के आधार पर भी Google search में Reddit के नतीजे ऊपर दिखने के मामले काफी रहे हैं।
अतिरिक्त रूप से, 12 सितंबर से Google search results में num=100 query parameter का व्यवहार बदलकर केवल 10 results लौटाने वाला हो गया, यह सही है[^1]। लेकिन इस पर भी राय है कि SEO tools पर इसके असर से थोड़े समय की उलझन तो हुई होगी, पर यह ऐसा क्षेत्र है जिसे पहले 1 query की जगह 10 queries की लागत देकर या अधिक सटीक queries के जरिए संभाला जा सकता है[^2]। उल्टा, ChatGPT में Reddit citation traffic की कमी 12 सितंबर को OpenAI के internal model spec में हुए बदलाव की वजह से भी हो सकती है, ऐसी राय भी मौजूद है[^3]।
आइडिया अच्छा है, लेकिन उदाहरण वाली इमेज देखकर लगता है कि यह सच में बहुत धीमे काम करता है... मुझे लगा था कि यह node.js ऐप होगा, लेकिन यह Rust में है, यह देखकर हैरानी हुई।
लंबी और अजीब install script से install करने को कहना भी मुझे पसंद नहीं आया। इसे हटाने का तरीका ढूंढ़कर एक-एक करके सब कुछ मिटाने के बारे में सोचते ही इसे install करने का मन नहीं करता।
अभी के लिए यह शायद बस थोड़ी असुविधा जैसा लगे, लेकिन अगर ऐसा होता है तो AI जो content बढ़ा-चढ़ाकर दोबारा बनाता है, वह भी आखिरकार top 10 के भीतर की चीज़ों पर ही आधारित होगा। नतीजतन, रैंकिंग के बाहर का data accessibility के मामले में तेजी से पीछे धकेल दिया जाएगा, विविधता को नुकसान पहुँचेगा, और थोड़ा बढ़ाकर कहें तो AI content का एक तरह का “निकट-संबंधी प्रजनन” हो जाएगा, जिससे मानो किसी प्रकार की data genetic disease पैदा हो सकती है।
हो सकता है यह बहुत ही अव्यावहारिक कल्पना हो, लेकिन जब सोचते हैं कि बहुत से लोग AI के जरिए सिर्फ सीमित दायरे के data तक ही पहुँचेंगे, और फिर AI के जरिए तैयार किया गया data दोबारा AI की training में जाएगा, तो सहज रूप से यही लगता है कि यह बेहतर दिशा नहीं है।
बेशक, AI की वजह से पैदा होने वाली अत्यधिक traffic की समस्या को भी पूरी तरह नजरअंदाज नहीं किया जा सकता।
कहा जा रहा था कि OpenAI stock options के बदले AMD chips खरीदेगा, इसलिए शेयर तेज़ी से उछले थे, लेकिन उल्टा अगर OpenAI के performance में गिरावट या growth slowdown की खबर आए, तो उसका असर साथ में कितनी दूर तक जाएगा, इसका भी अंदाज़ा नहीं लग रहा। 2008 के subprime mortgage संकट की तरह लगता है कि big tech हो या AI कंपनियाँ, सब एक-दूसरे से बुरी तरह coupled हैं।
मेरी जानकारी के आधार पर जोड़ूँ तो, Google में URL से सर्च करते समय query param के रूप में num=100 डालने पर एक बार में शीर्ष 100 search results लाए जा सकते थे। लेकिन हाल ही में Google ने इसे हटा दिया, इसलिए अब केवल शीर्ष 10 ही लाए जा सकते हैं.
इससे समस्या यह हुई कि SEO-संबंधित SaaS इसी फीचर से दिखाते थे कि Google में किसी keyword को डालने पर वह किस रैंक पर आता है, लेकिन अब सिर्फ 10वें स्थान तक ही दिखता है, इसलिए ranking display टूट गई है। दूसरी बात, जैसा कि मूल लेख में कहा गया है, AI पक्ष में web search के बाद सामग्री लाते समय भी केवल शीर्ष 10 ही दिखते हैं, इसलिए Wikipedia या हमारे यहाँ के हिसाब से कहें तो NamuWiki जैसी सामग्री ही आती है, और Reddit जैसी सबसे महत्वपूर्ण पोस्टें शामिल नहीं हो पातीं.
python, java, c#, go आदि में ऐसे कई मामले काफ़ी आम हैं जहाँ runtime DB driver interface का standard बना देता है.
लेकिन Node में तो अभी एक ही sqlite target वाले drivers के बीच भी statement execution execute() या exec() के रूप में अलग-अलग होता है, इसलिए सिर्फ driver बदलने पर भी कुछ हद तक code में संशोधन करना पड़ता है.
यह बहुत अक्सर होने वाली बात नहीं है, लेकिन DB बदलने की स्थिति भी असुविधाजनक होती है.
मान लीजिए पहले mysql इस्तेमाल कर रहे थे, फिर Oracle जो कर रहा है वह पसंद नहीं आया, या PostgreSQL extensions में कोई ऐसी चीज़ चाहिए जो अनिवार्य हो, इसलिए PostgreSQL पर जाना पड़े
तो jdbc जैसी standard interface वाली स्थिति में सिर्फ SQL verify करना काफ़ी होता है, लेकिन Node ecosystem में DB call logic पूरा फिर से बदलना पड़ने का side effect है.
+लाइब्रेरी बनाने की सिफारिश की गई थी, लेकिन common interface standard हो तो लाइब्रेरी बनाते समय काफ़ी सुविधा होती है.
हमारी कंपनी Java इस्तेमाल करती है, और in-house framework में mysql, db2, oracle, mssql support करना पड़ता है, इसलिए DB-specific adapters की maintenance करते समय jdbc standard का बहुत फ़ायदा मिला.
Google Reader बंद होने के बाद मैं Feedly पर चला गया था, फिर करीब 10 साल तक उसे इस्तेमाल नहीं किया। हाल ही में मैंने उसे फिर से थोड़ा झाड़-पोंछकर इस्तेमाल करना शुरू किया है, और पता चला कि आजकल भी कई तरह की सेवाएं लॉन्च हो रही हैं। मुझे यह अच्छी तरह पता नहीं था।
क्या इसका मतलब है कि ChatGPT जैसे AI वेब पर नतीजे खोजते समय पहले Google Search करते हैं और फिर सिर्फ वही नतीजे इस्तेमाल करते हैं..? यानी अगर Google न बताए, तो वह नतीजों से बाहर हो जाएगा...?
मुझे लगता है कि अभी तो यह बस शुरुआत है। अगर अब ऐसी दुनिया आ जाए जहाँ AI सीधे भौतिक गतिविधियों और वित्तीय लेन-देन तक जुड़कर उन्हें संचालित कर सके, तो सचमुच एक बड़ी तबाही भी हो सकती है।
उम्मीद है कि Windows 11 के explorer की stability थोड़ी बेहतर हो जाए।
टैब अलग करना भी Chromium browser की तरह तेज़ और responsive हो तो अच्छा होगा..
Java ecosystem और object-oriented संस्कृति में खास तौर पर बेकार व्याख्यात्मक वाक्य और औपचारिक documentation बहुत रही है, और उसी माहौल को अपनाने वाले Python ecosystem के frameworks में भी उदाहरण खास तौर पर कमजोर होते हैं.
बेमतलब documentation का एक उदाहरण
add(left, right) - बाएँ operand और दाएँ operand को जोड़ता है
जबकि वास्तव में महत्वपूर्ण चीज़ें जैसे parameter का data type, कौन-कौन से exception return हो सकते हैं, result value का रूप, या operation की संरचना जैसी बातें समझाई ही नहीं जातीं.
अगर C language के man page जैसा हो, तो सिर्फ छोटी-सी व्याख्या के साथ भी function और parameter names से अंदाज़ा लगाकर इस्तेमाल किया जा सकता है.
इन्हें अभी भी पूरी तरह समझ नहीं आया है।
nvmeपर अभी भी यह पॉलिसी लागू है..मैं उन सभी टूल्स को पसंद करता हूँ। ये दोनों टूल्स ऐसे हैं जिनके ecosystem और उद्देश्य कुछ जगहों पर एक-दूसरे से मिलते हैं, लेकिन ये पूरी तरह एक जैसे टूल्स नहीं हैं, इसलिए इन्हें कठिनाई के आधार पर नहीं आँकना चाहिए।
viteके साथ लिखें तो आप scripts को बहुत व्यापक और बारीकी से बना सकते हैं। वहीं Stimulus या Hotwire script development को न्यूनतम रखने के लिए ज़्यादा उपयुक्त हैं।मैं हाल ही में शिफ्ट हुआ हूँ, इसलिए मुझे कूड़ेदान साफ़ करने पड़े। पीछे के आँगन में करना बहुत गंदा लगता, इसलिए सोच रहा था, तभी घर के आसपास एक दिलचस्प बिज़नेस दिखा।
एक cleaning vehicle घर के सामने तक आता है, और आपको बस कूड़ेदान उसमें रख देना होता है, फिर उसके अंदर लगा equipment अपने-आप उन्हें पूरी तरह धो देता है। धुलाई के बाद का पानी वे अपने facility में ले जाकर post-processing करके बाहर निकालते हैं, इसलिए लगता है कि environmental company के रूप में रजिस्टर होकर tax benefits भी अच्छे से ले पाते होंगे।
उस कंपनी का नाम happy cans है। यह San Diego की एक local company है, और शायद हर शहर में ऐसी एक जगह तो होगी ही।
अब सचमुच यह Py(3.14)thon है
असल में इसे इस्तेमाल कर चुके दूसरे लोगों की राय जानने की जिज्ञासा तो है, लेकिन व्यक्तिगत रूप से मुझे लेखों में टाइपो बहुत बार दिखते हैं (जैसे किसी शब्द के बिना ही वाक्य खत्म हो जाना वगैरह), इसलिए इस स्तर की quality हो तो नहीं लगता कि मैं इसे इस्तेमाल करना जारी रखूंगा। काफी उम्मीदें थीं इस service से..
मैंने पहले देखे गए not by AI में भी कुछ ऐसा ही कहा था। "डेटा आनुवंशिक रोग" जैसी अभिव्यक्ति काफ़ी ताज़ा लगी haha
इतना डरावना है कि होश उड़ जाएँ;
मैं कुछ और स्रोत खोजना चाहता था, लेकिन मूल लेख में संदर्भ के तौर पर लिंक किया गया Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions
लेख शायद हट गया है, इसलिए उसका विवरण मैं देख नहीं सका।
मूल लेख में एक बात थोड़ी सवाल उठाती है: उसमें लिखा है, "Reddit पोस्ट, कम्युनिटी डिस्कशन, और experts के threads के बारे में सोचिए। क्या इस तरह का content commercial search terms पर Google के top 10 में आएगा? लगभग नहीं। लेकिन 15~40वें स्थान की रेंज पर Reddit का कब्जा था।" लेकिन ठीक उसके नीचे दिखाए गए Perplexity के Top 10 Websites वाले ग्राफ़ में Reddit 46.7% के साथ Top 1 पर है। यह थोड़ा विरोधाभासी लगता है। personalization recommendation का असर हो सकता है, लेकिन अनुभव के आधार पर भी Google search में Reddit के नतीजे ऊपर दिखने के मामले काफी रहे हैं।
अतिरिक्त रूप से, 12 सितंबर से Google search results में
num=100query parameter का व्यवहार बदलकर केवल 10 results लौटाने वाला हो गया, यह सही है[^1]। लेकिन इस पर भी राय है कि SEO tools पर इसके असर से थोड़े समय की उलझन तो हुई होगी, पर यह ऐसा क्षेत्र है जिसे पहले 1 query की जगह 10 queries की लागत देकर या अधिक सटीक queries के जरिए संभाला जा सकता है[^2]। उल्टा, ChatGPT में Reddit citation traffic की कमी 12 सितंबर को OpenAI के internal model spec में हुए बदलाव की वजह से भी हो सकती है, ऐसी राय भी मौजूद है[^3]।मैं इस राय से सहमत हूँ कि AEO महत्वपूर्ण है, लेकिन "अगर आप Google search के top 10 में नहीं आते, तो ChatGPT समेत AI engines से पूरी तरह गायब हो जाते हैं" यह दावा मुझे कमज़ोर आधार वाला लगता है।
[^1]: https://searchengineland.com/google-search-rank-and-position-tracking-…
[^2]: https://locomotive.agency/blog/…
[^3]: https://sherwood.news/markets/…
आइडिया अच्छा है, लेकिन उदाहरण वाली इमेज देखकर लगता है कि यह सच में बहुत धीमे काम करता है... मुझे लगा था कि यह node.js ऐप होगा, लेकिन यह Rust में है, यह देखकर हैरानी हुई।
लंबी और अजीब install script से install करने को कहना भी मुझे पसंद नहीं आया। इसे हटाने का तरीका ढूंढ़कर एक-एक करके सब कुछ मिटाने के बारे में सोचते ही इसे install करने का मन नहीं करता।
अभी के लिए यह शायद बस थोड़ी असुविधा जैसा लगे, लेकिन अगर ऐसा होता है तो AI जो content बढ़ा-चढ़ाकर दोबारा बनाता है, वह भी आखिरकार top 10 के भीतर की चीज़ों पर ही आधारित होगा। नतीजतन, रैंकिंग के बाहर का data accessibility के मामले में तेजी से पीछे धकेल दिया जाएगा, विविधता को नुकसान पहुँचेगा, और थोड़ा बढ़ाकर कहें तो AI content का एक तरह का “निकट-संबंधी प्रजनन” हो जाएगा, जिससे मानो किसी प्रकार की data genetic disease पैदा हो सकती है।
हो सकता है यह बहुत ही अव्यावहारिक कल्पना हो, लेकिन जब सोचते हैं कि बहुत से लोग AI के जरिए सिर्फ सीमित दायरे के data तक ही पहुँचेंगे, और फिर AI के जरिए तैयार किया गया data दोबारा AI की training में जाएगा, तो सहज रूप से यही लगता है कि यह बेहतर दिशा नहीं है।
बेशक, AI की वजह से पैदा होने वाली अत्यधिक traffic की समस्या को भी पूरी तरह नजरअंदाज नहीं किया जा सकता।
कहा जा रहा था कि OpenAI stock options के बदले AMD chips खरीदेगा, इसलिए शेयर तेज़ी से उछले थे, लेकिन उल्टा अगर OpenAI के performance में गिरावट या growth slowdown की खबर आए, तो उसका असर साथ में कितनी दूर तक जाएगा, इसका भी अंदाज़ा नहीं लग रहा। 2008 के subprime mortgage संकट की तरह लगता है कि big tech हो या AI कंपनियाँ, सब एक-दूसरे से बुरी तरह coupled हैं।
मेरी जानकारी के आधार पर जोड़ूँ तो, Google में URL से सर्च करते समय query param के रूप में
num=100डालने पर एक बार में शीर्ष 100 search results लाए जा सकते थे। लेकिन हाल ही में Google ने इसे हटा दिया, इसलिए अब केवल शीर्ष 10 ही लाए जा सकते हैं.इससे समस्या यह हुई कि SEO-संबंधित SaaS इसी फीचर से दिखाते थे कि Google में किसी keyword को डालने पर वह किस रैंक पर आता है, लेकिन अब सिर्फ 10वें स्थान तक ही दिखता है, इसलिए ranking display टूट गई है। दूसरी बात, जैसा कि मूल लेख में कहा गया है, AI पक्ष में web search के बाद सामग्री लाते समय भी केवल शीर्ष 10 ही दिखते हैं, इसलिए Wikipedia या हमारे यहाँ के हिसाब से कहें तो NamuWiki जैसी सामग्री ही आती है, और Reddit जैसी सबसे महत्वपूर्ण पोस्टें शामिल नहीं हो पातीं.
python, java, c#, go आदि में ऐसे कई मामले काफ़ी आम हैं जहाँ runtime DB driver interface का standard बना देता है.
लेकिन Node में तो अभी एक ही sqlite target वाले drivers के बीच भी statement execution
execute()याexec()के रूप में अलग-अलग होता है, इसलिए सिर्फ driver बदलने पर भी कुछ हद तक code में संशोधन करना पड़ता है.यह बहुत अक्सर होने वाली बात नहीं है, लेकिन DB बदलने की स्थिति भी असुविधाजनक होती है.
मान लीजिए पहले mysql इस्तेमाल कर रहे थे, फिर Oracle जो कर रहा है वह पसंद नहीं आया, या PostgreSQL extensions में कोई ऐसी चीज़ चाहिए जो अनिवार्य हो, इसलिए PostgreSQL पर जाना पड़े
तो jdbc जैसी standard interface वाली स्थिति में सिर्फ SQL verify करना काफ़ी होता है, लेकिन Node ecosystem में DB call logic पूरा फिर से बदलना पड़ने का side effect है.
+लाइब्रेरी बनाने की सिफारिश की गई थी, लेकिन common interface standard हो तो लाइब्रेरी बनाते समय काफ़ी सुविधा होती है.
हमारी कंपनी Java इस्तेमाल करती है, और in-house framework में mysql, db2, oracle, mssql support करना पड़ता है, इसलिए DB-specific adapters की maintenance करते समय jdbc standard का बहुत फ़ायदा मिला.
किसी ने इसे Augmented Coding कहा था, लेकिन वह शब्द जल्दी ही गायब हो गया।
Google Reader बंद होने के बाद मैं Feedly पर चला गया था, फिर करीब 10 साल तक उसे इस्तेमाल नहीं किया। हाल ही में मैंने उसे फिर से थोड़ा झाड़-पोंछकर इस्तेमाल करना शुरू किया है, और पता चला कि आजकल भी कई तरह की सेवाएं लॉन्च हो रही हैं। मुझे यह अच्छी तरह पता नहीं था।
क्या इसका मतलब है कि ChatGPT जैसे AI वेब पर नतीजे खोजते समय पहले Google Search करते हैं और फिर सिर्फ वही नतीजे इस्तेमाल करते हैं..? यानी अगर Google न बताए, तो वह नतीजों से बाहर हो जाएगा...?
हाल में विवादों में रही messenger कंपनी के किसी व्यक्ति की याद दिलाता है ..