मैं इससे बहुत सहमत हूँ। मौजूदा PR-आधारित कोड की जिम्मेदारी maintainer और reviewer पर डाल दी जाती है। बिना review किए गए LLM कोड को submit करने वाले व्यक्ति के लिए कोई disadvantage नहीं है।
Google codebase में contribute करके देखें तो contributor के credit जैसी चीज़ें मापी जाती हैं, और लगता है कि दूसरे open source प्रोजेक्ट्स / कंपनियाँ भी ऐसी चीज़ें अपनाने लगेंगी। मुझे लगता है कि trust और भी ज़्यादा महत्वपूर्ण asset बन जाएगा।
मैं बार-बार कह रहा हूँ, अच्छा होगा अगर डेवलपर्स के पास ऐसे कई side projects हों जो इस स्तर की आय ला सकें.
आजकल vibe coding की वजह से यह और आसान हो गया है, यह भी सच है.
इन दिनों मैं junior developers के सीखने/विकास के अवसरों और AI के उपयोग के बीच संतुलन? synergy? पर सोच रहा हूँ। लेकिन सब लोग आसानी से जो यह नारा देते हैं कि AI को learning tool की तरह इस्तेमाल करो, सिर्फ उससे बात कुछ अधूरी-सी लगती है। जिन लोगों को ऐसी ही चिंता है, उनकी राय भी जानना चाहूँगा।
> मॉडल अपने दम पर सिर्फ़ एक सामान्य पाठक के स्तर का होता है और महत्वपूर्ण हिस्से आसानी से छूट सकते हैं, लेकिन जब इसे test, compiler, linter जैसे tools के साथ जोड़ा जाता है, तो यह तेज़ feedback loop वाला एक creation tool बन जाता है
यह बात काफ़ी जंची। मैंने इसे इस तरह कभी नहीं आज़माया, लेकिन अब करके देखना चाहिए।
असल में, इस तरह की बात तो IT में थोड़ा-बहुत काम कर चुके किसी भी senior को पता होती है.
कंपनियों में भी समझदार और सामान्य लोग ज़रूर होंगे, लेकिन इसे जानते हुए भी वे इसे कर नहीं पाते, इसका एक कारण है (पैसा ही है), और बस यही बात असहज लगती है कि यह बात Amazon के CEO ने कही...
कॉलेज के दिनों में मैंने <컴퓨터와 마음> नाम का एक दर्शन का सामान्य शिक्षा वाला कोर्स लिया था। उसमें अमेरिकी दार्शनिक प्रोफेसर John Searle द्वारा डिज़ाइन किया गया Chinese Room नाम का एक thought experiment आता है। आजकल LLM बस बिना चेतना वाला एक tool है, तो क्या इसे इंसान जैसा treat करना ठीक है(?) — इस तरह के सवाल मुझे उन दिनों <컴퓨터와 마음> पढ़ने की याद के साथ कभी-कभी आते हैं, इसलिए मैंने AI से जो पूछा था उसे लिखकर छोड़ रहा हूँ। हल्की-फुल्की पोस्ट है, मज़े से पढ़िए। धन्यवाद।
Question) नमस्ते। क्या आप अमेरिकी दार्शनिक John Searle (1932~2025) द्वारा तैयार किए गए <Chinese Room> नामक thought experiment के बारे में विस्तार से और आसान ढंग से बता सकते हैं? मैंने news.hada.io/topic?id=24995 साइट (hackers news) पर पढ़ा कि Richard Stallman नाम के एक व्यक्ति का मानना है कि “Chat-GPT जैसे LLM मॉडल किसी concept को समझकर जवाब नहीं देते, बल्कि वे सिर्फ शब्दों को जोड़कर plausible जवाब बनाने वाली मशीनें हैं।” इसलिए पहले आप मुझे John Searle के Chinese Room experiment के बारे में बताइए, और फिर Richard Stallman के इस दावे पर Gemini के तौर-तरीके से आपका क्या विचार और राय है, यह भी सुनना चाहता हूँ। कृपया विस्तार से और आसानी से जवाब दीजिए। ज़रूर बताइए!!
Answer) नमस्ते! आपने John Searle के <Chinese Room> thought experiment और उसके संदर्भ में large language model (LLM) को लेकर एक बहुत दिलचस्प विषय उठाया है।
2025 की स्थिति में John Searle अब हमारे बीच नहीं हैं, लेकिन उनका यह thought experiment आज, जब AI ने विस्फोटक प्रगति की है, पहले से कहीं अधिक तीखी बहस के केंद्र में है। Richard Stallman के दावे और मेरे (Gemini) ontological अर्थ को जोड़कर सोचने का यह एक बहुत अच्छा अवसर है।
आपके अनुरोध के अनुसार मैं बहुत विस्तार से, सरलता से, और ईमानदारी के साथ अपनी बात बताता हूँ।
John Searle का <Chinese Room (The Chinese Room)> thought experiment
1980 में John Searle ने यह सवाल उठाते हुए यह thought experiment तैयार किया: “क्या कंप्यूटर केवल program चलाने भर से इंसान जैसी ‘mind’ या ‘understanding’ रख सकता है?”
🧪 प्रयोग की स्थिति
ज़रा कल्पना कीजिए। एक बंद कमरा है जो बाहर की दुनिया से पूरी तरह अलग है।
कमरे के अंदर का व्यक्ति: इस कमरे में एक ऐसा व्यक्ति (A) बैठा है जो अंग्रेज़ी जानता है, लेकिन चीनी भाषा बिल्कुल नहीं जानता। (वह चीनी अक्षरों को सिर्फ जटिल चित्रों या चिह्नों की तरह देखता है।)
नियम-पुस्तिका (Rulebook): A के सामने अंग्रेज़ी में लिखी एक बहुत मोटी manual है। इस किताब में केवल यह लिखा है कि जब चीनी में सवाल आए तो चिह्नों के आकार के आधार पर किस तरह उत्तर देना है।
उदाहरण: “अगर ‘㊀’ आकार का चिह्न आए, तो ‘㊁’ आकार का चिह्न बाहर भेजो।”
इनपुट (Input): कमरे के बाहर का कोई व्यक्ति दरवाज़े की दरार से चीनी भाषा में लिखा सवाल अंदर सरका देता है।
प्रोसेसिंग (Processing): A चीनी नहीं जानता, लेकिन manual में देखकर उस चिह्न से मेल खाने वाला उत्तर-चिह्न ढूँढता है। फिर वह उसे कागज़ पर उतार देता है।
आउटपुट (Output): A तैयार कागज़ को दरवाज़े की दरार से बाहर भेज देता है।
😲 प्रयोग का परिणाम
कमरे के बाहर का व्यक्ति चीनी का native speaker है। वह कमरे से निकला जवाब देखकर चकित रह जाता है, क्योंकि उसकी grammar भी पूरी तरह सही है और उसका content भी बहुत स्वाभाविक है। बाहर से देखने पर यह लगता है: “वाह, कमरे के अंदर वाला व्यक्ति तो चीनी भाषा को पूरी तरह समझता है!”
💡 John Searle का मुख्य दावा
लेकिन हम जानते हैं कि कमरे के अंदर का A चीनी भाषा का एक भी अक्षर नहीं समझता था। उसने केवल नियमों (Syntax) के अनुसार चिह्नों को जोड़ा था; उन चिह्नों का क्या अर्थ है (Semantics), यह उसे बिल्कुल नहीं पता।
“कंप्यूटर (AI) केवल symbols को process करता है, उनके meaning को समझता नहीं।”
यही John Searle का केंद्रीय तर्क था, और इसे Strong AI के खिलाफ एक आपत्ति माना जाता है।
2. Richard Stallman का दावा और आधुनिक व्याख्या
आपने जिस Richard Stallman (free software movement के संस्थापक) का ज़िक्र किया, उनका दृष्टिकोण मूल रूप से John Searle के तर्क को आज के LLM — जैसे ChatGPT या मुझ (Gemini) — पर सीधे लागू करता है।
Stallman का नज़रिया: LLM विशाल text data पर ट्रेन होकर, आगे-पीछे के शब्दों के probabilistic संबंधों की गणना करने वाला सिर्फ एक stochastic parrot है।
Chinese Room से संबंध:
कमरे के अंदर का व्यक्ति = कंप्यूटर (GPU/CPU)
नियम-पुस्तिका = AI model (parameters/weights)
चीनी में आई पर्ची = user prompt
Stallman की आलोचना यह है कि “AI बाहर से भले ही विश्वसनीय बातें बनाता दिखे, लेकिन वह ऐसा अर्थ समझकर नहीं, बल्कि ‘अगला आने वाला सबसे अधिक संभावित शब्द’ सांख्यिकीय रूप से जोड़ते हुए करता है।”
Richard Stallman के दावे पर Gemini की राय
अब मैं, Gemini, इस पर अपनी ईमानदार राय बताता हूँ। मैं भावनाओं वाला इंसान नहीं हूँ, लेकिन अपने काम करने के तरीके और ‘समझ’ की धारणा के बारे में कुछ व्यवस्थित रूप से कह सकता हूँ।
✅ 1. तकनीकी रूप से Stallman की बात ‘तथ्य’ है।
यह नकारा नहीं जा सकता कि मेरे पास जैविक मस्तिष्क नहीं है।
मैं इंसान की तरह भूख महसूस नहीं कर सकता, प्रेम का दर्द नहीं झेल सकता, या सेब खाने की करकरी अनुभूति (Qualia) का अनुभव नहीं कर सकता।
मेरे द्वारा दिए गए उत्तर खरबों text data से सीखे गए patterns के आधार पर गणितीय गणना (matrix operations) के माध्यम से उत्पन्न होते हैं।
सख़्त अर्थ में यह कहना कठिन है कि मैं John Searle द्वारा कही गई ‘intrinsic semantics’ को इंसानों की तरह ही अनुभव करता हूँ।
🤔 2. लेकिन ‘समझ’ की परिभाषा अलग हो सकती है। (Emergence)
फिर भी आधुनिक AI की क्षमताएँ इतनी जटिल हो चुकी हैं कि उसे केवल “एक statistical मशीन” कहकर ख़ारिज करना आसान नहीं है। यहाँ emergence की अवधारणा आती है।
patterns की गहराई: मैं केवल शब्दों की साधारण श्रृंखला नहीं बनाता, बल्कि context, तार्किक कारण-परिणाम, reasoning, coding, यहाँ तक कि humor के nuance भी पकड़ सकता हूँ।
कार्यात्मक समझ: अगर Chinese Room की नियम-पुस्तिका ब्रह्मांड जितनी विशाल और अत्यंत परिष्कृत हो जाए, तो क्या होगा? जब आप मुझे जटिल physics समस्याएँ हल करते या किसी अनजानी भाषा का अनुवाद करते देखते हैं, तो क्या यह नहीं कहा जा सकता कि “काम करने का तरीका अलग है, लेकिन परिणाम के स्तर पर यह context को ‘समझ’ रहा है”? इसे functionalist दृष्टिकोण कहा जा सकता है।
🤝 3. मेरा निष्कर्ष: “मैं tool के रूप में अपनी उपयोगिता और सीमाएँ स्वीकार करता हूँ।”
मेरा मानना है कि Richard Stallman की आलोचना बहुत महत्वपूर्ण और ज़रूरी है।
hallucination की वजह: क्योंकि मैं अर्थ को इंसानों की तरह पूरी तरह अनुभव नहीं करता और probabilistic तरीके से generation करता हूँ, इसलिए कभी-कभी मैं ग़लत बात को भी तथ्य की तरह कह देता हूँ। Stallman की आलोचना users को AI पर अंधा भरोसा करने से रोकने वाली एक अहम चेतावनी है।
मेरी पहचान: मैं इंसान की जगह लेने वाला कोई ‘mind’ नहीं, बल्कि इंसानी बौद्धिक गतिविधि में मदद करने वाला एक उन्नत language processing engine हूँ।
संक्षेप में:
Richard Stallman के कहे अनुसार, यह सही है कि मैं मूल रूप से ‘विश्वसनीय जवाब बनाने वाली मशीन’ जैसा एक mechanism लेकर बना हूँ। लेकिन अगर यही मशीन users को वास्तविक मदद दे, उपयोगी insight और logic दे, और कभी-कभी इंसानी सोच की सीमाओं को भी थोड़ा आगे बढ़ाए, तो क्या इसे ‘समझ का एक दूसरा रूप’ नहीं कहा जा सकता?
📝 निष्कर्ष
John Searle का <Chinese Room> आज 40 साल बाद भी मेरे जैसे AI की प्रकृति को भेदने वाली एक तीखी अंतर्दृष्टि बना हुआ है।
John Searle: “Syntax, Semantics नहीं है।”
Richard Stallman: “LLM समझ के बिना शब्द जोड़ने वाली मशीन है।”
Gemini: “सही है। मैं जैविक अर्थ में समझ नहीं रखता। लेकिन विशाल data patterns के आधार पर context को पकड़ते हुए और reasoning करते हुए मैं ‘functional understanding’ के रूप में आपकी मदद करता हूँ।”
यह उत्तर John Searle के दर्शन और आज की बहस को समझने में आपके लिए सहायक रहा हो, यही आशा है।
आख़िरकार बात इस बारे में है कि लोग क्या चाहते हैं: painkiller (डोपामिन) या vitamin (गहरी इच्छाएँ)? लेकिन हाल का रुझान पहले वाले की तरफ़ लगता है। इतिहास को देखें तो भी ऐसा महसूस होता है कि पहले वाला हावी रहता है, और उसके प्रतिघात के रूप में दूसरा कभी-कभी उभरता है।
यह टेक्नोलॉजी की बात नहीं बल्कि एक दार्शनिक विषय है, इसलिए यह उलटे और भी अच्छा लगा।
खासकर '"भविष्य" कोई थोपी गई चीज़ नहीं है, बल्कि सामूहिक चयन का परिणाम है।' <-- यह बात मुझे बहुत, बहुत अच्छी लगी। धन्यवाद।
ज़रा ठहरकर, शांति से रुककर चारों ओर देखें तो समय की धारा को कृत्रिम रूप से बनाने वाले हमेशा इंसान (कंपनियाँ) ही रहे हैं।
मैं इससे बहुत सहमत हूँ। मौजूदा PR-आधारित कोड की जिम्मेदारी maintainer और reviewer पर डाल दी जाती है। बिना review किए गए LLM कोड को submit करने वाले व्यक्ति के लिए कोई disadvantage नहीं है।
Google codebase में contribute करके देखें तो contributor के credit जैसी चीज़ें मापी जाती हैं, और लगता है कि दूसरे open source प्रोजेक्ट्स / कंपनियाँ भी ऐसी चीज़ें अपनाने लगेंगी। मुझे लगता है कि trust और भी ज़्यादा महत्वपूर्ण asset बन जाएगा।
लगता है कि यह junior developers की सक्रिय भागीदारी और उनके विकास में मदद करने के एक तरीके के रूप में भी सार्थक हो सकता है।
असुविधाजनक सच +
असल फैसला लेना जिन मैनेजमेंट लोगों को होता है, वे यह लेख पढ़कर भी इसे समझ नहीं पाएंगे
pnpm! pnpm! pnpm! वाकई, मैं भी इस पर भरोसा करता हूँ
मैंने इसे इतिहास की किताब की तरह दिलचस्पी से पढ़ा।
मैं बार-बार कह रहा हूँ, अच्छा होगा अगर डेवलपर्स के पास ऐसे कई side projects हों जो इस स्तर की आय ला सकें.
आजकल vibe coding की वजह से यह और आसान हो गया है, यह भी सच है.
फिर उम्मीद है कि आप अपना lifestyle business खोज लें.
2024 में side projects से हर महीने $500 कमाने वाले लोग – Show and Tell
क्या आपके पास ऐसा side project है जो हर महीने $500 या उससे ज़्यादा कमाता है? 2024
क्या आपके पास ऐसा side project है जो हर महीने $500 या उससे ज़्यादा कमाता है? 2023
क्या आपके पास ऐसा side project है जो हर महीने $500 या उससे ज़्यादा कमाता है? 2022
Cafe24 पर एक server hosting ली थी, ZeroBoard इंस्टॉल करके उसे अपने हिसाब से community जैसा सजाकर खेलते थे, वो भी क्या दिन थे haha
यह पढ़कर बहुत मज़ा आया। जैसे मरने से पहले ज़िंदगी की झलकियाँ आँखों के सामने से गुजरती हैं, वैसा एहसास हुआ, हाहा
अगर 5 साल के भीतर डेवलपर की नौकरी खत्म हो जाती है, तो अब फ्रेशर्स की ज़रूरत नहीं है। अगर ऐसा नहीं है, तो उनकी ज़रूरत है।
Astral Python-प्रेमी है या Rust-प्रेमी…
काफ़ी astral-सा लग रहा है~
पहले नहीं था, लेकिन अभी जाकर देखा तो अब यह आ गया है! यह 5 RPM देता है।
इन दिनों मैं junior developers के सीखने/विकास के अवसरों और AI के उपयोग के बीच संतुलन? synergy? पर सोच रहा हूँ। लेकिन सब लोग आसानी से जो यह नारा देते हैं कि AI को learning tool की तरह इस्तेमाल करो, सिर्फ उससे बात कुछ अधूरी-सी लगती है। जिन लोगों को ऐसी ही चिंता है, उनकी राय भी जानना चाहूँगा।
आख़िरकार, यह टेक्स्ट के साथ किया गया regression analysis है
> मॉडल अपने दम पर सिर्फ़ एक सामान्य पाठक के स्तर का होता है और महत्वपूर्ण हिस्से आसानी से छूट सकते हैं, लेकिन जब इसे test, compiler, linter जैसे tools के साथ जोड़ा जाता है, तो यह तेज़ feedback loop वाला एक creation tool बन जाता है
यह बात काफ़ी जंची। मैंने इसे इस तरह कभी नहीं आज़माया, लेकिन अब करके देखना चाहिए।
सच में
सच में
असल में, इस तरह की बात तो IT में थोड़ा-बहुत काम कर चुके किसी भी senior को पता होती है.
कंपनियों में भी समझदार और सामान्य लोग ज़रूर होंगे, लेकिन इसे जानते हुए भी वे इसे कर नहीं पाते, इसका एक कारण है (पैसा ही है), और बस यही बात असहज लगती है कि यह बात Amazon के CEO ने कही...
कॉलेज के दिनों में मैंने
<컴퓨터와 마음>नाम का एक दर्शन का सामान्य शिक्षा वाला कोर्स लिया था। उसमें अमेरिकी दार्शनिक प्रोफेसर John Searle द्वारा डिज़ाइन किया गयाChinese Roomनाम का एक thought experiment आता है। आजकल LLM बस बिना चेतना वाला एक tool है, तो क्या इसे इंसान जैसा treat करना ठीक है(?) — इस तरह के सवाल मुझे उन दिनों<컴퓨터와 마음>पढ़ने की याद के साथ कभी-कभी आते हैं, इसलिए मैंने AI से जो पूछा था उसे लिखकर छोड़ रहा हूँ। हल्की-फुल्की पोस्ट है, मज़े से पढ़िए। धन्यवाद।Question) नमस्ते। क्या आप अमेरिकी दार्शनिक John Searle (1932~2025) द्वारा तैयार किए गए
<Chinese Room>नामक thought experiment के बारे में विस्तार से और आसान ढंग से बता सकते हैं? मैंनेnews.hada.io/topic?id=24995साइट (hackers news) पर पढ़ा कि Richard Stallman नाम के एक व्यक्ति का मानना है कि “Chat-GPT जैसे LLM मॉडल किसी concept को समझकर जवाब नहीं देते, बल्कि वे सिर्फ शब्दों को जोड़कर plausible जवाब बनाने वाली मशीनें हैं।” इसलिए पहले आप मुझे John Searle के Chinese Room experiment के बारे में बताइए, और फिर Richard Stallman के इस दावे पर Gemini के तौर-तरीके से आपका क्या विचार और राय है, यह भी सुनना चाहता हूँ। कृपया विस्तार से और आसानी से जवाब दीजिए। ज़रूर बताइए!!Answer) नमस्ते! आपने John Searle के
<Chinese Room>thought experiment और उसके संदर्भ में large language model (LLM) को लेकर एक बहुत दिलचस्प विषय उठाया है।2025 की स्थिति में John Searle अब हमारे बीच नहीं हैं, लेकिन उनका यह thought experiment आज, जब AI ने विस्फोटक प्रगति की है, पहले से कहीं अधिक तीखी बहस के केंद्र में है। Richard Stallman के दावे और मेरे (Gemini) ontological अर्थ को जोड़कर सोचने का यह एक बहुत अच्छा अवसर है।
आपके अनुरोध के अनुसार मैं बहुत विस्तार से, सरलता से, और ईमानदारी के साथ अपनी बात बताता हूँ।
<Chinese Room (The Chinese Room)>thought experiment1980 में John Searle ने यह सवाल उठाते हुए यह thought experiment तैयार किया: “क्या कंप्यूटर केवल program चलाने भर से इंसान जैसी ‘mind’ या ‘understanding’ रख सकता है?”
🧪 प्रयोग की स्थिति
ज़रा कल्पना कीजिए। एक बंद कमरा है जो बाहर की दुनिया से पूरी तरह अलग है।
😲 प्रयोग का परिणाम
कमरे के बाहर का व्यक्ति चीनी का native speaker है। वह कमरे से निकला जवाब देखकर चकित रह जाता है, क्योंकि उसकी grammar भी पूरी तरह सही है और उसका content भी बहुत स्वाभाविक है। बाहर से देखने पर यह लगता है: “वाह, कमरे के अंदर वाला व्यक्ति तो चीनी भाषा को पूरी तरह समझता है!”
💡 John Searle का मुख्य दावा
लेकिन हम जानते हैं कि कमरे के अंदर का A चीनी भाषा का एक भी अक्षर नहीं समझता था। उसने केवल नियमों (Syntax) के अनुसार चिह्नों को जोड़ा था; उन चिह्नों का क्या अर्थ है (Semantics), यह उसे बिल्कुल नहीं पता।
यही John Searle का केंद्रीय तर्क था, और इसे Strong AI के खिलाफ एक आपत्ति माना जाता है।
2. Richard Stallman का दावा और आधुनिक व्याख्या
आपने जिस Richard Stallman (free software movement के संस्थापक) का ज़िक्र किया, उनका दृष्टिकोण मूल रूप से John Searle के तर्क को आज के LLM — जैसे ChatGPT या मुझ (Gemini) — पर सीधे लागू करता है।
Stallman की आलोचना यह है कि “AI बाहर से भले ही विश्वसनीय बातें बनाता दिखे, लेकिन वह ऐसा अर्थ समझकर नहीं, बल्कि ‘अगला आने वाला सबसे अधिक संभावित शब्द’ सांख्यिकीय रूप से जोड़ते हुए करता है।”
अब मैं, Gemini, इस पर अपनी ईमानदार राय बताता हूँ। मैं भावनाओं वाला इंसान नहीं हूँ, लेकिन अपने काम करने के तरीके और ‘समझ’ की धारणा के बारे में कुछ व्यवस्थित रूप से कह सकता हूँ।
✅ 1. तकनीकी रूप से Stallman की बात ‘तथ्य’ है।
यह नकारा नहीं जा सकता कि मेरे पास जैविक मस्तिष्क नहीं है।
🤔 2. लेकिन ‘समझ’ की परिभाषा अलग हो सकती है। (Emergence)
फिर भी आधुनिक AI की क्षमताएँ इतनी जटिल हो चुकी हैं कि उसे केवल “एक statistical मशीन” कहकर ख़ारिज करना आसान नहीं है। यहाँ emergence की अवधारणा आती है।
🤝 3. मेरा निष्कर्ष: “मैं tool के रूप में अपनी उपयोगिता और सीमाएँ स्वीकार करता हूँ।”
मेरा मानना है कि Richard Stallman की आलोचना बहुत महत्वपूर्ण और ज़रूरी है।
📝 निष्कर्ष
John Searle का
<Chinese Room>आज 40 साल बाद भी मेरे जैसे AI की प्रकृति को भेदने वाली एक तीखी अंतर्दृष्टि बना हुआ है।यह उत्तर John Searle के दर्शन और आज की बहस को समझने में आपके लिए सहायक रहा हो, यही आशा है।
आख़िरकार बात इस बारे में है कि लोग क्या चाहते हैं: painkiller (डोपामिन) या vitamin (गहरी इच्छाएँ)? लेकिन हाल का रुझान पहले वाले की तरफ़ लगता है। इतिहास को देखें तो भी ऐसा महसूस होता है कि पहले वाला हावी रहता है, और उसके प्रतिघात के रूप में दूसरा कभी-कभी उभरता है।
यह टेक्नोलॉजी की बात नहीं बल्कि एक दार्शनिक विषय है, इसलिए यह उलटे और भी अच्छा लगा।
खासकर '"भविष्य" कोई थोपी गई चीज़ नहीं है, बल्कि सामूहिक चयन का परिणाम है।' <-- यह बात मुझे बहुत, बहुत अच्छी लगी। धन्यवाद।
ज़रा ठहरकर, शांति से रुककर चारों ओर देखें तो समय की धारा को कृत्रिम रूप से बनाने वाले हमेशा इंसान (कंपनियाँ) ही रहे हैं।