- AI प्रगति को मापने वाले 5 वास्तविक संकेतकों के आधार पर विश्लेषण कर Singularity तक पहुंचने के समय को मिलीसेकंड स्तर तक गणना करने पर मंगलवार, 18 जुलाई 2034 की तारीख निकलती है
- MMLU स्कोर, प्रति डॉलर टोकन की संख्या, frontier model रिलीज़ के बीच का अंतराल, arXiv "emergent" पेपरों की संख्या, Copilot कोड हिस्सेदारी जैसे 5 संकेतकों को स्वतंत्र रूप से फिट करने पर, वास्तविक hyperbolic curvature दिखाने वाला संकेतक सिर्फ arXiv "emergent" पेपरों की संख्या ही निकला
- मशीन क्षमता के संकेतक सभी linear trend का पालन करते हैं और Singularity का कोई संकेत नहीं देते; तेज़ी से बढ़ रही है केवल AI के emergent व्यवहारों को लेकर मानव रुचि और उत्साह/चिंता
- 2026 तक ही बड़े पैमाने पर layoffs, संस्थागत देरी, पूंजी का संकेंद्रण, भरोसे में गिरावट, राजनीतिक पुनर्संरचना जैसी प्रक्रियाओं के साथ सामाजिक Singularity, तकनीकी Singularity से पहले आती दिख रही है
- Singularity का सार वह क्षण नहीं है जब मशीनें superintelligence तक पहुंचें, बल्कि वह समय है जब इंसान मशीनों के बारे में सुसंगत सामूहिक निर्णय लेने की क्षमता खो देते हैं
डेटा: AI प्रगति के 5 संकेतक
- ग्रीक अर्थ में "anthropic significance" के आधार पर चुने गए 5 संकेतकों का उपयोग किया गया है (यह Anthropic कंपनी के लिए नहीं है)
- MMLU स्कोर: language models के लिए SAT-जैसा benchmark, जिसमें GPT-3 (जून 2020, 43.9%) से Claude Opus 4.5 (नवंबर 2025, 90.8%) तक का डेटा शामिल है
- प्रति डॉलर output tokens: intelligence की cost collapse को मापता है, इसमें log transform लागू किया गया; GPT-3 davinci (16,667 tokens/$) से Gemini 2.0 Flash (2,500,000 tokens/$) तक 5 orders of magnitude का दायरा
- frontier model रिलीज़ अंतराल: "चौंकाने वाले" क्षणों के बीच तेजी से घटता अंतराल, GPT-3→ChatGPT (902 दिन) से Gemini 2.5 Pro→GPT-4.1 (20 दिन) तक
- arXiv "emergent" पेपरों की संख्या: trailing 12-month आधार पर, अकादमिक उत्साह का एक meme-आधारित माप
- Copilot कोड हिस्सेदारी: AI द्वारा लिखे गए कोड का अनुपात
- हर संकेतक को [0,1] पर normalize किया गया; रिलीज़ अंतराल को उल्टा रूपांतरित किया गया (जितना कम अंतराल, उतना अधिक मान), tokens/$ को log transform के बाद normalize किया गया, और हर series ने अपना स्वतंत्र scale बनाए रखा
hyperbolic मॉडल क्यों
- अधिकांश AI extrapolation में उपयोग होने वाला exponential function f(t) = ae^(bt) केवल t→∞ पर अनंत तक पहुंचता है, इसलिए यह सीमित समय में Singularity को व्यक्त नहीं कर सकता
- polynomial growth (t^n) भी सीमित समय में अनंत तक नहीं पहुंच सकती
- hyperbolic function x(t) = k/(t_s − t) + c में t→t_s होने पर denominator 0 हो जाता है, इसलिए यह सीमित समय पर divergence दिखा सकता है
- hyperbolic growth तब होती है जब बढ़ती हुई चीज़ अपनी ही वृद्धि को तेज़ करने लगे: बेहतर AI → बेहतर AI research tools → बेहतर AI → superlinear positive feedback loop
fitting methodology
- हर संकेतक j के लिए स्वतंत्र hyperbola
y_i^(j) = k_j/(t_s − t_i) + c_j फिट की गई, लेकिन Singularity समय t_s साझा रखा गया
- हर series का अपना scale
k_j और offset c_j है, इसलिए MMLU स्कोर और tokens per dollar जैसे अलग y-axis वाले संकेतक भी t_s पर सहमत हो सकते हैं
- कुल RSS को minimize करने पर optimal
t_s हमेशा अनंत की ओर जाने की समस्या आती है: दूर की hyperbola सीधी रेखा में degenerate हो जाती है और noisy डेटा पर अच्छे से फिट हो जाती है
- इसके विकल्प के रूप में हर series के लिए स्वतंत्र रूप से R² peak खोजने के लिए grid search किया गया
- यदि finite
t_s पर R² peak करे, तो वह वास्तविक hyperbolic signal है
- यदि
t_s→∞ पर R² लगातार बढ़ता रहे, तो डेटा वास्तव में linear है और उसमें Singularity का संकेत नहीं है
- परिणाम: सिर्फ arXiv "emergent" में स्पष्ट R² peak मिली; बाकी 4 संकेतकों के लिए linear मॉडल अधिक उपयुक्त रहा
निकली हुई तारीख
- अनुमानित Singularity समय: मंगलवार, 18 जुलाई 2034, 02:52:52.170 UTC
- n = 52 (5 series), 95% confidence interval: जनवरी 2030 से जनवरी 2041 (132.4 महीने चौड़ा)
- series-वार R² (shared
t_s के आधार पर): MMLU 0.747, tokens/$ 0.020, रिलीज़ अंतराल 0.291, arXiv "emergent" 0.926, Copilot कोड हिस्सेदारी 1.000
- 95% confidence interval
t_s के लिए profile likelihood से निकाला गया, F-critical value के आधार पर
sensitivity analysis
- Drop-One-Out analysis: किसी एक संकेतक को हटाने पर
t_s कितना बदलता है, यह मापा गया
- MMLU, tokens/$, रिलीज़ अंतराल, और Copilot कोड हिस्सेदारी को अलग-अलग हटाने पर भी
t_s में कोई बदलाव नहीं (+0.0 महीने)
- arXiv "emergent" हटाने पर
t_s फरवरी 2036 तक 18.6 महीने खिसक गया (search boundary तक धकेला गया)
- निष्कर्ष: सारा काम arXiv ही कर रहा है, बाकी series साझा
t_s पर केवल संदर्भ वक्र उपलब्ध कराती हैं
- Copilot के पास 2 data points और 2 parameters हैं, इसलिए degrees of freedom 0 है; वह किसी भी hyperbola पर पूरी तरह फिट हो जाता है और
t_s को प्रभावित नहीं करता
t_s का वास्तविक अर्थ क्या है
- arXiv पेपरों की संख्या अनंत की ओर जाने का मतलब यह नहीं कि 2034 के उस मंगलवार को अनंत संख्या में पेपर प्रकाशित होंगे
t_s वह बिंदु है जहां मौजूदा trajectory की curvature अब टिकाऊ नहीं रहती; यानी या तो कोई गुणात्मक रूप से नई चीज़ टूटकर निकलेगी, या saturation आकर साबित करेगा कि hyperbola गलत थी — यह एक phase transition marker है
- मुख्य असहज तथ्य यह है कि वास्तव में hyperbola का पालन करने वाला संकेतक मशीन क्षमता नहीं, बल्कि मानव रुचि है
- MMLU, tokens/$, रिलीज़ अंतराल जैसे वास्तविक क्षमता और infrastructure संकेतक सभी linear हैं और किसी extremum की ओर नहीं जा रहे
- सीमित तारीख की ओर इशारा करने वाला एकमात्र वक्र वह है जो शोधकर्ताओं द्वारा नए व्यवहार खोजने और नाम देने की आवृत्ति को मापता है, यानी "meme-आधारित अकादमिक उत्साह"
- डेटा का निष्कर्ष: मशीनें स्थिर गति से बेहतर हो रही हैं, जबकि इंसान उनके बारे में तेज़ी से तेज़ होते हुए उत्साहित हो रहे हैं
सामाजिक Singularity: जो पहले से जारी है
- यदि
t_s वह क्षण है जब AI चकित करने की गति मानव processing capacity से आगे निकल जाती है, तो दिलचस्प सवाल यह है कि मशीनों के साथ नहीं बल्कि इंसानों के साथ क्या होता है
- श्रम बाज़ार में उथल-पुथल: 2025 में 11 लाख layoffs की घोषणा हुई (1993 के बाद छठी बार यह सीमा पार हुई), जिनमें 55,000 से अधिक मामलों में AI को स्पष्ट कारण बताया गया
- HBR के अनुसार कंपनियां AI के वास्तविक प्रदर्शन पर नहीं, बल्कि AI की संभावित क्षमता के आधार पर workforce घटा रही हैं
- वक्र को extremum तक पहुंचने की जरूरत नहीं; सिर्फ ऐसा दिखना ही काफी है कि वह पहुंच जाएगा, और preemptive restructuring शुरू हो जाती है
- संस्थागत प्रतिक्रिया की विफलता: EU AI Act के high-risk नियम 2027 तक टाले गए, अमेरिका ने 2023 के AI executive order को जनवरी 2025 में रद्द कर दिसंबर में state-law preemption के लिए नया आदेश जारी किया, जबकि California और Colorado अलग रास्ते पर हैं
- अभी लिखे जा रहे कानून 2023 की समस्याओं को regulate कर रहे हैं; जब तक वे GPT-4 तक पहुंचेंगे, तब तक GPT-7 आ चुका होगा
- सरकार की दिखने वाली अक्षमता भरोसे को सिर्फ कम नहीं करती, बल्कि ढहा देती है; AI पर वैश्विक भरोसा 56% तक गिर गया
- dot-com स्तर का पूंजी संकेंद्रण: S&P 500 की शीर्ष 10 कंपनियां (ज्यादातर AI-संबंधित) 2025 में index weight का 40.7% तक पहुंचीं, जो dot-com peak से भी ऊपर है
- ChatGPT रिलीज़ के बाद AI-संबंधित शेयरों ने S&P 500 रिटर्न का 75%, earnings growth का 80%, और capex growth का 90% हिस्सा दिया
- Shiller CAPE 39.4 पर पहुंचा, यह स्तर आखिरी बार 1999 में देखा गया था
- मनोवैज्ञानिक प्रभाव: therapists ने FOBO (Fear of Becoming Obsolete) में उछाल की सूचना दी; मरीज कह रहे हैं कि "ब्रह्मांड मानो कह रहा है: अब तुम्हारी ज़रूरत नहीं है"
- अमेरिकी कामगारों में 60% मानते हैं कि AI जितनी नौकरियां बनाएगा उससे अधिक खत्म करेगा
- AI उपयोग साल-दर-साल 13% बढ़ा, लेकिन AI पर भरोसा 18% गिरा: जितना अधिक उपयोग, उतना कम भरोसा
- ज्ञानमीमांसीय दरार: AI रिसर्च का एक-तिहाई से भी कम हिस्सा पुनरुत्पादित किया जा सकता है, 5% से भी कम शोधकर्ता कोड साझा करते हैं, और corporate labs में प्रकाशन कम हो रहा है
- frontier labs और आम जनता के ज्ञान के बीच अंतर बढ़ रहा है; नीति-निर्माता पहले से पुरानी हो चुकी जानकारी पर काम कर रहे हैं
- संसदों/विधायिकाओं में गवाही देने वाले विशेषज्ञ भी एक-दूसरे से टकराते हैं: यह क्षेत्र विशेषज्ञता बनने की गति से भी तेज़ बदल रहा है
- राजनीतिक पुनर्संरचना: TIME ने populist AI backlash पर, Foreign Affairs ने "anger economy" द्वारा populism मजबूत होने पर, और HuffPost ने AI के 2026 midterms को परिभाषित करने पर रिपोर्ट किया
- MAGA इस बात पर बंट रहा है कि AI pro-corporate है या anti-labor; Sanders ने data center moratorium का प्रस्ताव दिया
- पारंपरिक left-right धुरी इस सवाल का भार उठाने में असमर्थ होकर टूट रही है
- यह सब
t_s से 8 साल पहले हो रहा है: सामाजिक Singularity तकनीकी Singularity से पहले आती है, और संस्थागत व मनोवैज्ञानिक अव्यवस्था क्षमता के vertical rise का इंतज़ार नहीं करती, बल्कि trajectory का आभास होते ही शुरू हो जाती है
सावधानियां (Caveats)
- तारीख एक ही series से निकली है: केवल arXiv "emergent" में वास्तविक hyperbolic curvature है, बाकी 4 के लिए सीधी रेखा बेहतर फिट है
- इसलिए Singularity तारीख का व्यावहारिक अर्थ है: "वह समय जब AI emergence research vertical हो जाती है"; असली प्रश्न यह है कि अकादमिक उत्साह leading indicator है या lagging indicator
- मॉडल stationarity मानता है: वक्र अंततः logistic (hype saturation) में मुड़ सकती है या ऐसे रूप में बदल सकती है जिसे मॉडल व्यक्त नहीं कर सकता (वास्तविक phase transition);
t_s मौजूदा regime का अटिकाऊ बिंदु है, उसके बाद क्या होगा इसका पूर्वानुमान नहीं
- MMLU ceiling effect: benchmark saturation से kurtosis compression artifact आता है, और कम R² उसी को दर्शाता है
- tokens/$ log-transform किया गया है और non-monotonic है: GPT-4, 3.5 से अधिक महंगा था, और Opus 4.5 की लागत DeepSeek-R1 से अधिक है; cost curve smooth नहीं है और उसमें Pareto प्रगति तथा high-cost models का मिश्रण है
- 5 संकेतक पर्याप्त नहीं हैं: SWE-bench, ARC, GPQA, compute procurement, talent salary आदि जोड़ने पर arXiv पर निर्भरता कम हो सकती है; 5 संकेतक इसलिए चुने गए क्योंकि वे "टेबल पर फिट हो गए"
- Copilot के सिर्फ 2 data points हैं: degrees of freedom 0 होने से वह
t_s में योगदान नहीं देता
निष्कर्ष
- वास्तविक डेटा और गणितीय मॉडल के आधार पर एक स्पष्ट Singularity समय निकाला गया
- लेकिन यह Singularity मशीन superintelligence नहीं, बल्कि मानव समाज की attention collapse को दर्शाती है
- गणित ने जो खोजा: एक ऐसा संकेतक जो किसी खास मिलीसेकंड पर extremum की ओर वक्र बनाता है — यानी वह दर जिससे इंसान emergent AI behavior खोज रहे हैं
- बाकी 4 संकेतक linear हैं: मशीनें लगातार बेहतर हो रही हैं, और तेज़ी इंसानों में है
- श्रम, संस्थान, पूंजी, ज्ञान और राजनीति — हर क्षेत्र में सामाजिक Singularity पहले से जारी है
- तकनीकी Singularity आने से पहले ही इंसान AI बदलाव की गति को संभाल न पाने की सामूहिक सीमा पर पहुंच जाएंगे
- डेटा में दिखने वाली Singularity दरअसल मानव रुचि की Singularity है, और यह पहले से हर उस चीज़ पर गुरुत्व डाल रही है जिसे छूती है
- मानवता इस countdown के भीतर पहले ही प्रवेश कर चुकी है
3 टिप्पणियां
दिलचस्प बात यह है कि OpenAI, Google और Anthropic के नए models जैसी बड़ी घोषणाएँ आमतौर पर मंगलवार और गुरुवार को होती हैं.
कोरिया समय के अनुसार यह आमतौर पर बुधवार और शुक्रवार सुबह 2-3 बजे के आसपास (California समय के अनुसार सुबह 10 बजे) घोषित की जाती हैं, इसलिए अगर आपको देर रात नींद न आए तो उस समय news चेक कर लें।
Hacker News की राय
यह लेख सचमुच दिलचस्प था। लेखक ने अपने मॉडल और कार्यप्रणाली को लंबा खींचकर समझाया और आखिर में मूल बात पर पहुँचा — singularity सच में आएगी या नहीं, उससे ज़्यादा महत्वपूर्ण यह है कि कितने लोग उस पर विश्वास करते हैं और उसी हिसाब से कार्रवाई करते हैं
इसलिए मैंने तकनीकी बहस की बजाय सामाजिक चर्चा पर ध्यान केंद्रित किया। “समाज की वह संरचना बदले बिना, जो जीविका के लिए वेतन-आधारित श्रम पर निर्भर है, मानव श्रम को बदलने की कोशिश करना बहुत बुरा है” — इस बात से कहीं अधिक सहमति मिलती है
इसका सरल रूप है “सबको यह विश्वास दिला देना कि जीत पहले ही हो चुकी है”, और परिष्कृत रूप है “सबको यह विश्वास दिला देना कि बाकी सब भी ऐसा ही मानते हैं”। आखिरकार लोग उसी विश्वास के मुताबिक व्यवहार करने लगते हैं
LLM भले ही सिर्फ़ एक statistical prediction engine हो, लेकिन इस प्रक्रिया में emergent behavior, यानी बुद्धिमान व्यवहार सामने आ सकता है। अभी यह निश्चित रूप से नहीं कहा जा सकता
अगर singularity नहीं आती, तो लोगों का विश्वास बहुत महत्वपूर्ण होगा; लेकिन अगर वह सचमुच आ जाती है, तो विश्वास लगभग निरर्थक हो जाएगा
Frank Herbert की 『Dune』 की एक पंक्ति उद्धृत करते हुए कहा गया कि जब इंसानों ने सोचने का काम मशीनों को सौंप दिया, तो दूसरे इंसानों ने मशीनों के माध्यम से इंसानों पर शासन करना शुरू कर दिया
अब चेतावनी दी जा रही है कि हम न पढ़ेंगे, न लिखेंगे, न सोचेंगे। दावा है कि अगर LLM सब कुछ करने लगें, तो मानवता का अंत आ जाएगा
और Poison Fountain project का उल्लेख करते हुए, हर दिन web crawler में ‘toxic data’ डालने वाले anti-AI हथियार का परिचय दिया गया। इसमें भाग लेने की अपील की गई
R.A. Lafferty की 1965 की लघुकथा 「Slow Tuesday Night」 का परिचय दिया गया।
यह 2600 शब्दों की एक SF रचना है जो अतितीव्र समाज को दिखाती है, जहाँ एक दिन कुछ ही मिनटों में बीत जाता है
इस वाक्य की प्रशंसा की गई: “singularity वह क्षण नहीं है जब मशीनें superintelligent बन जाती हैं, बल्कि वह क्षण है जब इंसान मशीनों के बारे में सामूहिक निर्णय coherently नहीं ले पाते”
लेख की सामग्री रोचक थी। 2025 में 11 लाख layoffs की घोषणा हुई, जिनमें 55 हज़ार मामलों में AI को वजह बताया गया। लेकिन ये AI के वास्तविक प्रदर्शन पर नहीं, बल्कि उसकी ‘संभावना’ पर आधारित layoffs थे
अंत में AI ने बस वही उजागर किया जो हम पहले से जानते थे — यानी बेमतलब के white-collar jobs बहुत ज़्यादा हैं
differential equation के ज़रिए “intelligence explosion” का एक सरल मॉडल पेश किया गया
`dx/dt = x²` का हल `x = 1/(C - t)` है, जो x के अनुपात में बढ़ने वाली exponential growth से भी अधिक तीव्र है।
लेकिन जब वास्तविक सीमाएँ (बिजली, संसाधन आदि) शामिल की जाती हैं, तो अंततः यह logistic growth जैसी आकृति की ओर सिमटता है
याद दिलाया गया कि यह सब video games की वजह से भी संभव हुआ। GPU hardware में प्रगति न हुई होती, तो LLM भी नहीं होते
दरअसल AI कई दशकों की तकनीकी प्रगति का परिणाम है — chip, internet, open source, cloud, data center, mathematics और physics तक, सब कुछ अनिवार्य रूप से singularity की ओर बढ़ने की प्रक्रिया का हिस्सा था
“अच्छा है, 2034 तक तो सुरक्षित हैं” कहते हुए हल्की मज़ाकिया राहत जताई गई
सवाल उठाया गया कि singularity पर अब knowledge doubling के नज़रिये से बात क्यों नहीं होती
Buckminster Fuller की ‘Knowledge Doubling Curve’ और Ray Kurzweil के ‘Law of Accelerating Returns’ का ज़िक्र करते हुए कहा गया कि
पहले मानव ज्ञान 100 साल में एक बार, फिर 25 साल में एक बार दोगुना होता था; तो क्या अब उस बिंदु को singularity नहीं मानना चाहिए जहाँ यह गति अनंत की ओर सिमटती दिखती है?
“अच्छा हुआ 2038 Unix timestamp समस्या नहीं झेलनी पड़ेगी” कहते हुए राहत जताई गई
आशावादी अनुमान के हिसाब से भी 8 साल बाद हमारे पास समय बहुत होगा और करने के लिए काम भी बहुत होगा। नवजात शिशु के प्राथमिक स्कूल का छात्र बनने जितने समय तक बिना कुछ किए तो जिया नहीं जा सकता।