- Tim Gowers ने ChatGPT 5.5 Pro के साथ लगभग 1 घंटे में संयोजनशास्त्र में PhD-स्तर का शोध परिणाम हासिल किया, और उनका मानना था कि इसमें उनका अपना गणितीय इनपुट लगभग न के बराबर था
- ChatGPT 5.5 Pro ने Mel Nathanson की additive number theory समस्या में दिए गए sumset आकार वाले समुच्चयों के diameter के लिए अनिवार्य रूप से सर्वोत्तम मानी जाने वाली द्विघात upper bound construction सिर्फ 17 मिनट 5 सेकंड में प्रस्तुत कर दी
- इसके बाद उसने restricted sumset समस्या भी उसी तरीके से हल की, और Isaac Rajagopal की मौजूदा exponential upper bound को polynomial dependence में सुधारने वाला तर्क भी तैयार किया, जो Rajagopal को लगभग निश्चित रूप से सही लगा
- मुख्य विचार यह था कि Rajagopal की construction में geometric progression वाले components को h-dissociated set आधारित construction से बदल दिया जाए, ताकि आवश्यक sumset size pattern को polynomial आकार के interval के भीतर पुनः निर्मित किया जा सके
- AI द्वारा बनाया गया परिणाम प्रकाशन योग्य स्तर का दिखता है, लेकिन journal publication या arXiv registration की बजाय ऐसा अलग repository ज़रूरी हो सकता है जहाँ मानव गणितज्ञ उसकी शुद्धता प्रमाणित करें; साथ ही शुरुआती शोधकर्ताओं के प्रशिक्षण का मानदंड भी LLM के साथ सहयोग करके उन चीज़ों को सिद्ध करने की दिशा में जा सकता है जो LLM अकेले नहीं कर सकता
LLM कैसे बदल रहे हैं संयोजनशास्त्र की समस्या-समाधान प्रक्रिया
- बड़े language model अब शोध-स्तर की समस्याएँ हल कर सकने के चरण में दिखाई देते हैं, और यह भी बताया गया है कि उन्होंने Thomas Bloom की Erdős problem site पर डाली गई कई समस्याएँ भी हल की हैं
- शुरुआती LLM उपलब्धियाँ अक्सर साहित्य में मौजूद उत्तर खोज लेने या ज्ञात परिणामों से आसानी से निकलने वाले निष्कर्ष देने तक सीमित थीं, लेकिन अब यह संभावना बढ़ रही है कि LLM ऐसे आसान तर्क खोज निकालें जिन्हें मनुष्य नज़रअंदाज़ कर चुके हों
- मानव गणित में भी मौजूदा ज्ञान और proof techniques को जोड़ना काम का एक बड़ा हिस्सा है, इसलिए यह तसल्ली कि LLM “सिर्फ मौजूदा ज्ञान को जोड़ता है” सीमित महत्व रखती है
- संयोजनशास्त्र में नए combinatorial parameters पेश करने वाले शोधपत्र स्वाभाविक रूप से कई समस्याएँ पैदा करते हैं, और पहले यह नए शोधकर्ताओं के लिए अच्छे खुले प्रश्नों का स्रोत थे, लेकिन अब नया मानदंड यह बनता जा रहा है कि क्या वे इतनी कठिन हैं कि LLM उन्हें हल न कर सके
Nathanson समस्या और पहली उपलब्धि
- Gowers ने Mel Nathanson के शोधपत्र Diversity, Equity and Inclusion for Problems in Additive Number Theory में दिए गए प्रश्नों को ChatGPT 5.5 Pro से हल करने की कोशिश कराई
- Nathanson को उन समस्याओं और प्रमेयों में शुरुआती रुचि रखने वाले व्यक्ति के रूप में पेश किया गया है जो बाद में लोकप्रिय हुए, और इसी वजह से उन्होंने समयानुकूल और प्रभावशाली पाठ्यपुस्तकें लिखीं
- मुख्य विषय था पूर्णांकों के समुच्चय का sumset, कई बार जोड़े गए sumset, और दिए गए तत्वों की संख्या के लिए संभव sumset आकार
- जब तत्वों की संख्या दी जाती है, तो संभव sumset आकार हमेशा न्यूनतम और अधिकतम के बीच के सभी मान नहीं लेते, और इसका पूर्ण characterisation अभी भी उपलब्ध नहीं है
- Nathanson ने दिए गए तत्वों की संख्या और sumset आकार वाले समुच्चय बनाने के लिए आवश्यक diameter की upper bound दी थी, और पूछा था कि क्या इसे और बेहतर किया जा सकता है
- ChatGPT 5.5 Pro ने 17 मिनट 5 सेकंड सोचने के बाद एक ऐसी construction दी जो अनिवार्य रूप से सर्वोत्तम द्विघात upper bound देती है
- जब Gowers ने उससे इसे सामान्य गणितीय preprint शैली की LaTeX file में दोबारा लिखने को कहा, तो ChatGPT ने 2 मिनट 23 सेकंड बाद वह रूप दे दिया, और Gowers ने तर्क की शुद्धता जाँचने में समय लगाया
Sidon sets और restricted sumset तक विस्तार
- Nathanson का तर्क और ChatGPT का तर्क, दोनों ही दिए गए आकार के समुच्चय और दिए गए आकार के sumset बनाने के लिए Sidon set और arithmetic progression को साथ इस्तेमाल करने के विचार पर आधारित हैं
- यहाँ Sidon set का उपयोग उस सरल अर्थ में किया गया है कि वह ऐसा समुच्चय है जिसका sumset आकार अधिकतम होता है
- सूक्ष्म समायोजन के लिए arithmetic progression के पास एक अतिरिक्त बिंदु जोड़ा जा सकता है, और कई parameters को नियंत्रित करके इच्छित आकार के समुच्चय प्राप्त किए जा सकते हैं
- Nathanson ने इस शोधपत्र के Theorem 5 में एक inductive तर्क दिया था, लेकिन उसे विस्तार से लिखने पर वह मूलतः 2 की घातों वाले Sidon set का उपयोग करने वाली संरचना जैसा दिखता है
- ChatGPT का सुधार अधिक दक्ष Sidon set के उपयोग से आया, और यह तथ्य अच्छी तरह ज्ञात है कि द्विघात diameter वाले Sidon set मिल सकते हैं
- इसके बाद Gowers ने sumset आकार की जगह restricted sumset के आकार को देखने वाली निकट संबंधी समस्या भी उसे दी, और ChatGPT ने बिना खास कठिनाई के उसी तरह का परिणाम दिया
- इन दोनों परिणामों को बिना दोहराव के एक नोट में समेटने वाला दस्तावेज़ यहाँ सार्वजनिक किया गया है
सामान्य degree समस्या और Rajagopal के शोधपत्र में सुधार
- Gowers ने यह भी पूछा कि अधिक सामान्य स्थिति में ChatGPT क्या कर सकता है
- शुरू में वह काफी कम आशावादी थे, क्योंकि पिछला proof मूल रूप से Erdős और Szemerédi के परिणाम पर निर्भर था—यानी इस तथ्य पर कि बनाने वाले आकारों की सटीक जानकारी उपलब्ध थी
- Nathanson के शोधपत्र में MIT छात्र Isaac Rajagopal का शोधपत्र आता है, जिसमें Rajagopal ने प्रत्येक fixed degree के लिए exponential dependence सिद्ध की थी
- Rajagopal के लिए असली कठिनाई यह नहीं थी कि “संभव आकारों के समुच्चय की जानकारी नहीं है”
- उनका तर्क पर्याप्त बड़े मामलों के लिए पूर्ण characterisation देता है
- fixed degree के लिए polynomial dependence दिखाने हेतु सिर्फ पर्याप्त बड़े मामलों को मान लेना ही काफी है
- वास्तविक कठिनाई यह है कि दिए गए sumset आकार वाला समुच्चय बनाने की construction कहीं अधिक जटिल है, और degree बढ़ने के साथ polynomial की degree भी बढ़ती है, इसलिए अधिक parameters की आवश्यकता पड़ती है
- ChatGPT का काम समस्या को शुरू से हल करना नहीं, बल्कि Rajagopal के तर्क को कसना था
- प्रक्रिया इस प्रकार रही
- 16 मिनट 41 सेकंड बाद उसने ऐसा तर्क दिया जो मौजूदा upper bound को exponential function से सुधारकर किसी भी धनात्मक स्थिरांक के लिए उससे छोटे exponent वाले रूप में ले जाता था
- इसे preprint रूप में लिखने में अतिरिक्त 47 मिनट 39 सेकंड लगे
- Gowers ने यह Nathanson को भेजा, Nathanson ने Rajagopal को पहुँचाया, और Rajagopal को यह सही प्रतीत हुआ
- ChatGPT और Rajagopal, दोनों ने इस पर कुछ अनुमान लगाए कि इसे polynomial upper bound तक और आगे बढ़ाने के लिए क्या चाहिए होगा, और Gowers ने ChatGPT से यह प्रयास भी कराया
- 13 मिनट 33 सेकंड बाद ChatGPT ने उत्तर दिया कि ऐसे तर्क के मौजूद होने की संभावना को लेकर वह आशावादी है, लेकिन कुछ तकनीकी प्रतिज्ञप्तियों की पुष्टि आवश्यक है
- पुष्टि करने को कहने पर उसने 9 मिनट 12 सेकंड बाद जाँच पूरी कर ली, और फिर उससे दोबारा preprint रूप में लिखने को कहा गया
- 31 मिनट 40 सेकंड बाद preprint तैयार थी, और दस्तावेज़ यहाँ सार्वजनिक किया गया
- Rajagopal ने इसे लगभग निश्चित रूप से सही माना, और इसका अर्थ सिर्फ line-by-line नहीं बल्कि विचार के स्तर पर भी सही होना समझा गया
AI-निर्मित गणितीय परिणामों को कहाँ रखा जाए
- अगर यह परिणाम किसी मनुष्य ने बनाया होता, तो यह प्रकाशन योग्य माना जाता, इसलिए इसे AI slop कहना उचित नहीं लगता
- दूसरी ओर, इसे journal में छापना बहुत अर्थपूर्ण नहीं दिखता
- परिणाम मुफ्त में सार्वजनिक किए जा सकते हैं
- किसी को भी “श्रेय” की आवश्यकता नहीं है
- हालाँकि वह framework बनाने के लिए Rajagopal को काफी श्रेय है, जिस पर ChatGPT निर्माण कर सका
- यह समझा जाता है कि arXiv की नीति AI-लिखित सामग्री स्वीकार न करने की है, और इसे उचित माना गया है
- AI द्वारा बनाए गए परिणामों के लिए अलग repository की आवश्यकता हो सकती है
- ऐसा moderation process वांछनीय हो सकता है जिसमें सिर्फ वे परिणाम शामिल हों जिनकी शुद्धता मानव गणितज्ञों ने प्रमाणित की हो
- इससे भी बेहतर यह हो सकता है कि परिणाम proof assistant के माध्यम से formalise किए गए हों
- यह भी एक मानदंड हो सकता है कि क्या परिणाम किसी मानव-लिखित शोधपत्र में उठाए गए प्रश्न का उत्तर देता है
- अगर moderation process बहुत बड़ा कार्यभार पैदा करे तो यह समस्या होगी, और वह काम फिर से AI को सौंप देने की दिशा में स्पष्ट जोखिम मौजूद है
- फिलहाल ये परिणाम सार्वजनिक लिंक के ज़रिए उपलब्ध हैं, और क्योंकि LLM की literature search क्षमता बेहतर हो गई है, इसलिए Nathanson की समस्या के हल की तलाश करने वाले लोगों को यह मिल भी सकता है
Isaac Rajagopal का मूल्यांकन और तकनीकी पृष्ठभूमि
-
ChatGPT का मुख्य योगदान
- ChatGPT ने कुछ ही prompts में एक खास upper bound को exponential dependence से polynomial dependence तक बेहतर कर दिया
- पहला सुधार Rajagopal के काम में अपेक्षाकृत सामान्य संशोधन था, लेकिन polynomial सुधार काफ़ी प्रभावशाली था
- ChatGPT का दिया गया विचार मौलिक और चतुर था, और अगर Rajagopal को यह 1–2 हफ़्ते सोचने के बाद सूझता, तो वे इस पर गर्व करते
- ChatGPT ने Rajagopal के अपने proof जैसी ही विधि का उपयोग करके एक घंटे से भी कम समय में विचार ढूँढ लिया और उसे सिद्ध भी कर दिया
-
समस्या की पृष्ठभूमि
- यह upper bound समस्या Rajagopal द्वारा Duluth REU (Research Experience for Undergrads) प्रोग्राम में देखी गई समस्या से काफ़ी निकट से जुड़ी है
- मुख्य वस्तु उन संभव iterated sumset sizes के समुच्चय और उन्हें किसी निश्चित संख्या के elements वाले integer set से पूरी तरह साकार करने के लिए आवश्यक न्यूनतम range है
- Rajagopal ने पिछले ग्रीष्म में sufficiently large cases में possible values के set को स्पष्ट रूप से characterize किया था
- उन्होंने ऐसे sets बनाए जो उन सभी sizes को साकार करते थे जिन्हें असंभव साबित करके बाहर नहीं किया जा सका था, और उसी से संबंधित upper bound उस construction को optimize करके प्राप्त किया जा सकता है
-
exponential-size construction का विकल्प
- Rajagopal की मूल construction कई छोटे component sets को जोड़ने की शैली की थी, जिन्हें analyze करना आसान था
- कुछ components कई parameter values के लिए geometric progression के रूप में थे, और उनके elements parameter के सापेक्ष exponentially बड़े हो जाते थे
- Rajagopal ने Tim के माध्यम से ChatGPT से पूछा कि क्या ऐसे sets हो सकते हैं जिनके sumset sizes उस geometric progression जैसे हों, लेकिन elements का आकार polynomial तक सीमित रहे
- ChatGPT ने ऐसे sets बनाए जो मानो “polynomial interval के भीतर geometric progression का आधा हिस्सा ठूँस दिया गया हो” जैसा व्यवहार करते हैं
- यह एक प्रतिनैसर्गिक construction लगता है
Bₕ sets, dissociated sets, और ChatGPT की construction idea
-
Bₕ sets की भूमिका
- किसी दिए गए order के लिए, जिस set में sum relation केवल उन्हीं trivial solutions में हो जहाँ एक तरफ़ का sum दूसरी तरफ़ के sum की सिर्फ़ rearrangement हो, उसे Bₕ set कहते हैं
- निश्चित आकार के Bₕ set में, repetition की अनुमति देकर elements चुनने के तरीके और iterated sumset के elements का ठीक-ठीक correspondence होता है
- “stars and bars” से गिनने पर, यह उसी आकार के set के लिए संभव अधिकतम iterated sumset size होता है
- Sidon set इस दृष्टि से B₂ set है
-
geometric progression जिन गुणों को पुनः उत्पन्न कर रही थी
- एक खास geometric progression set, Bₕ set तो है, लेकिन higher-order B set नहीं है
- बाधा डालने वाले relations एक निश्चित रूप के sum relations के रूप में प्रकट होते हैं
- एक set में sumset size parameter का linear function बनता है, और दूसरे set में quadratic function
- ChatGPT ने ऐसे नए sets ढूँढे जो इन चारों गुणों को संतुष्ट करते हैं, जबकि उनके सभी elements parameter के सापेक्ष polynomial size के हैं
-
h-dissociated sets का उपयोग
- ChatGPT की construction h-dissociated sets का उपयोग करती है
- h-dissociated set वह set है जिसमें सीमित order तक के sum relations में केवल trivial solutions की अनुमति होती है
- ऐसे h-dissociated sets बनाए जा सकते हैं जिनका आकार लगभग parameter के बराबर हो और जिनका diameter polynomial हो
- ऐसी constructions का इतिहास finite fields का उपयोग करने वाली Singer (1938) और Bose–Chowla (1963) constructions तक जाता है, जिनकी चर्चा Appendix 1 में है
-
relations की केवल आधी संख्या समेटने की intuition
- ChatGPT द्वारा बनाए गए दो sets, geometric progression वाले analogues की तुलना में, कुछ खास sum relations का लगभग आधा हिस्सा ही शामिल करते हैं
- साथ ही h-dissociated गुण के कारण अन्य low-order relations लगभग नहीं के बराबर हैं
- परिणामस्वरूप वे polynomial interval के भीतर रहते हुए भी आवश्यक sumset size pattern को पुनः उत्पन्न करते हैं
- Rajagopal को low-order relations को h-dissociated sets से नियंत्रित करने का ChatGPT का विचार बहुत ही चतुर और पूरी तरह मौलिक लगा
ChatGPT के proof और Rajagopal के proof का संबंध
- ChatGPT का proof, Rajagopal के मूल proof में geometric progression components को ChatGPT के नए components से बदल देने वाले रूप से बहुत मिलता-जुलता है
- अंतिम construction में कई order values के लिए नए sets को जोड़ा जाता है, और इसके साथ एक और set जो arithmetic progression और एक single point के sumset से बना होता है
- सहज रूप से नए sets बड़े sumsets बनाते हैं, और arithmetic progression छोटे sumsets बनाती है, इसलिए इन्हें मिलाकर सभी मध्यम आकार के sumsets प्राप्त किए जा सकने चाहिए
- वास्तविक proof काफ़ी जटिल है, और Rajagopal के paper के Section 4 तथा ChatGPT preprint के पूरे भाग में फैला है
- तुलना के लिए, यह देखना आसान है कि संबंधित positive lower bound कम से कम किसी खास order की power के स्तर का है, लेकिन वास्तविक मान ज्ञात नहीं है
- Rajagopal ने कहा कि उन्हें यह जानकर आश्चर्य हुआ कि Tim ने ChatGPT 5.5 Pro को जो समस्या दी थी, वही संयोग से उनके अपने arXiv paper तक पहुँच गई
गणितीय शोध और PhD प्रशिक्षण के लिए निहितार्थ
- ChatGPT ने जो परिणाम 2 घंटे के भीतर निकाला, उसे combinatorics PhD thesis के एक पूरी तरह उचित chapter के स्तर का माना गया
- यह Isaac के विचारों पर काफ़ी निर्भर था, इसलिए यह कोई चमत्कारिक परिणाम नहीं था, लेकिन उन विचारों का nontrivial extension ज़रूर था
- यदि कोई PhD छात्र वही extension ढूँढने की कोशिश करता, तो उसे Rajagopal का paper समझने, उसमें संभावित non-optimal हिस्से पहचानने, और इस्तेमाल की गई अनेक algebraic techniques से परिचित होने में काफ़ी समय लगता
- शुरुआती PhD छात्रों को अपेक्षाकृत smooth open problem देकर शोध प्रशिक्षण देने का तरीका अधिक कठिन हो सकता है
- अगर LLM “smooth problems” हल कर सकता है, तो गणित में योगदान देने की lower bound अब “ऐसा परिणाम जिसे अभी तक किसी ने सिद्ध नहीं किया और कोई उसे रोचक मानता हो” से खिसककर “ऐसा परिणाम जिसे LLM सिद्ध न कर सके” की ओर जा सकती है
- क्योंकि शुरुआती लोग भी LLM का उपयोग कर सकते हैं, इसलिए वास्तविक काम शायद वह हो सकता है जिसमें LLM के साथ सहयोग करके वह चीज़ सिद्ध की जाए जो LLM अकेले नहीं कर सकता
- Gowers ने हाल में LLM के साथ कई सहयोग किए हैं, और उनका मानना है कि अभी भले game-changing ideas न मिले हों, उपयोगी योगदान ज़रूर मिला है
क्षेत्रों के बीच अंतर और आगे के बदलाव
- यह स्पष्ट नहीं है कि यह बदलाव गणित के अन्य क्षेत्रों में कितनी व्यापकता से लागू होगा
- combinatorics में problem-centered प्रवृत्ति बहुत मज़बूत होती है
- यानी प्रश्न से शुरू करके पीछे की ओर तर्क करना, या आगे की ओर तर्क करते हुए भी उस प्रश्न को लगातार ध्यान में रखना
- अन्य क्षेत्रों में ideas की एक श्रेणी से शुरू करके यह देखना कि वे कहाँ तक ले जाती हैं, यानी forward reasoning, अधिक महत्वपूर्ण हो सकती है
- ऐसे क्षेत्रों में यह क्षमता चाहिए कि कौन-सा observation रोचक है और कौन-सा नहीं, और LLM इसमें कितना अच्छा होगा, यह स्पष्ट नहीं है
- LLM के बारे में वर्तमान आकलन कुछ ही महीनों में पुराना पड़ सकता है, क्योंकि प्रगति की गति बहुत तेज़ है
- गणितीय शोध करने का तरीका, विशेषकर नए शोधकर्ताओं को इस क्षेत्र में लाने का तरीका, बड़े पैमाने पर बाधित हो सकता है
- जो लोग अगले academic year में PhD शुरू करेंगे, वे सबसे जल्दी 2029 में समाप्त करेंगे, और तब तक गणितीय शोध का अर्थ आज की तुलना में इतना बदल चुका हो सकता है कि पहचानना मुश्किल हो
गणित करने के कारणों में बदलाव
- उन्होंने कहा कि उन्हें अक्सर ऐसे ईमेल मिलते हैं जिनमें पूछा जाता है कि क्या गणितीय शोध को करियर के रूप में जारी रखना अब भी सार्थक है
- गणितीय समस्याओं से जूझने में अब भी बहुत मूल्य है, लेकिन वह युग, जब किसी खास theorem या definition के साथ आपका नाम स्थायी रूप से जुड़ने की खुशी मिलती थी, शायद समाप्ति के क़रीब है
- अगर गणित करने का उद्देश्य किसी प्रकार की अमरता है, तो यह समझना होगा कि वह शायद अधिक समय तक संभव न रहे
- एक thought experiment के रूप में, यदि किसी गणितज्ञ ने LLM के साथ लंबी बातचीत करके उपयोगी मार्गदर्शक की भूमिका निभाई हो, लेकिन तकनीकी काम और मुख्य विचार सब LLM ने करके कोई बड़ी समस्या हल कर दी हो, तो क्या इसे उस गणितज्ञ की बड़ी उपलब्धि माना जाएगा, यह संदिग्ध है
- पहले से हल ज्ञात समस्या को हल करना भी संतोषजनक हो सकता है, लेकिन जीवन के कई वर्ष लगाने के लिए यह पर्याप्त कारण नहीं है
- बेहतर कारण यह है कि कठिन समस्याएँ हल करते हुए अपने विशेषज्ञता-क्षेत्र में समस्या-समाधान की प्रक्रिया पर ही अंतर्दृष्टि प्राप्त की जाए
- जिसने कठिन समस्याएँ स्वयं हल की हैं, वह AI की मदद से समस्याएँ हल करने में भी अधिक सक्षम होने की संभावना रखता है
- जैसे अच्छा coder, कम कुशल व्यक्ति की तुलना में vibe coding बेहतर कर सकता है
- जैसे जिसे basic arithmetic अच्छी तरह समझ आती है, वह calculator को बेहतर ढंग से इस्तेमाल करता है, और खासकर तब जब उत्तर अजीब लगे तो उसे जल्दी पहचान लेता है
- गणित एक ऐसा कौशल है जिसकी transferability बहुत अधिक है, और यह शोध-स्तर के गणित पर भी लागू होता है
- हो सकता है कि गणितीय शोध से पहले की पीढ़ियों जैसे rewards न मिलें, लेकिन यह आपको आने वाली दुनिया के लिए बहुत अच्छी तरह तैयार कर सकता है
परिशिष्ट की तकनीकी सामग्री
-
परिशिष्ट 1: h-dissociated सेट का निर्माण
- लक्ष्य ऐसा h-dissociated सेट बनाना है जिसका diameter लगभग polynomial स्तर का हो
- यह निर्माण Bose–Chowla(1963) के निर्माण का बहुत छोटा-सा रूपांतरण है, और Rajagopal ने बताया है कि उन्होंने इसे इस शोधपत्र से सीखा
- ChatGPT preprint का Lemma 3.1 moment curve का उपयोग करने वाला एक अलग, कम efficient निर्माण इस्तेमाल करता है
- इस निर्माण में prime, finite field, finite field extension का generator, और प्रत्येक element को किसी विशेष power expression से जोड़ने का तरीका इस्तेमाल होता है
- सीमित degree तक के additive relation को generator की power relation में बदलकर देखा जा सकता है
- extension degree और generator के गुणों के कारण यह कम degree वाले किसी nonzero polynomial को satisfy नहीं करता, इसलिए दोनों ओर के polynomial समान होने चाहिए
- इसलिए संबंधित additive relation केवल trivial relation होते हैं, और सेट h-dissociated बन जाता है
- आवश्यकता हो तो कुछ elements हटाकर इसे इच्छित आकार तक घटाया जा सकता है
-
परिशिष्ट 2: ChatGPT निर्माण की विस्तृत संरचना
- fixed constants चुने जाते हैं, और ChatGPT द्वारा बनाए गए दो सेट इस्तेमाल किए जाते हैं
- इच्छित आकार हासिल करने वाला सेट निर्माण चार प्रकार के components को मिलाता है
- एक प्रकार जिसमें दो parameters चुने जाते हैं
- दो प्रकार जिनमें प्रत्येक degree value के लिए दो parameters चुने जाते हैं
- एक ऐसा सेट जो कुल elements की संख्या को सही बनाता है
- इस निर्माण के जटिल होने का एक कारण यह है कि पर्याप्त संख्या में अलग-अलग सेट बनाने पड़ते हैं
- इसके लिए एक क्षेत्र के parameters और दूसरे क्षेत्र के parameters को साथ में बदला जाता है
- यदि parameters में से एक को हटा दिया जाए और बाकी को वैसा ही रखा जाए, तो आवश्यक संख्या में सेट नहीं बनाए जा सकते
- degree 2 के लिए Nathanson का निर्माण Sidon सेट, arithmetic progression, और एक अतिरिक्त value को मिलाता है, और arithmetic progression के आकार तथा अतिरिक्त value को एक निश्चित range में बदलकर आवश्यक सेट बनाता है; यह अधिक सरल संरचना है
- परिशिष्ट 1 के निर्माण से प्रत्येक degree के लिए polynomial diameter वाले h-dissociated सेट प्राप्त किए जा सकते हैं
- कई components को मिलाते समय, basis vectors वाली lattice-जैसी संरचना का उपयोग किया जाता है
- यह निर्माण Rajagopal के Lemma 4.9 की तरह generating function multiplication identity सुनिश्चित करता है
- ChatGPT preprint के standard Lemma 2.3 के अनुसार, इस निर्माण को एक निश्चित degree के Freiman isomorphism के माध्यम से integers के interval के subset में ले जाया जा सकता है
- पर्याप्त बड़े मामलों में पूरा निर्माण काम करता है
-
परिशिष्ट 3: Rajagopal शोधपत्र और ChatGPT preprint का correspondence
- Rajagopal शोधपत्र का Section 4.2 अधिक सरल निर्माण का उपयोग करके ऐसे सेट बनाता है जो विशिष्ट values हासिल करते हैं
- ये सेट ऐसे interval के subset हैं जिनके elements polynomial आकार के हैं, और इस तथ्य को ChatGPT preprint के Section 5 में देखा गया है
- Rajagopal शोधपत्र का Section 4.3 कई components को मिलाने वाला मुख्य निर्माण करता है, और यह ChatGPT preprint के Sections 2, 3, 4, 6 के अनुरूप है
- Rajagopal शोधपत्र का Section 4.3.1 इस हिस्से का overview देता है, जिसमें कई moving parts हैं
- Rajagopal शोधपत्र का Section 4.3.2 components को जोड़ने का तरीका समझाता है, और Rajagopal इसे disjoint union कहते हैं
- generating function को bookkeeping tool के रूप में प्रस्तुत किया जाता है ताकि सेटों के union के आकार को track किया जा सके, और यह ChatGPT preprint के Section 2 और Section 4 के अनुरूप है
- Rajagopal शोधपत्र का Section 4.3.3 प्रत्येक component सेट के generating function की गणना करता है, और इसमें Lemma 4.15 तथा Lemma 4.17 शामिल हैं
- यह ChatGPT preprint के Section 3 और Section 6.1 के अनुरूप है, और ChatGPT preprint में एक generating function की गणना Lemma 3.3 में तथा दूसरे generating function की गणना Lemma 3.4 में की गई है
- generating function की गणना के बाद शेष प्रमाण Rajagopal शोधपत्र और ChatGPT preprint में लगभग समान है
- Rajagopal शोधपत्र का Section 4.3.4 यह दिखाता है कि निर्मित सेटों को बदलने पर union के आकार के मान सभी संभव मान ग्रहण करते हैं
- मुख्य बिंदु यह है कि संभव मानों का सेट एक interval बनाता है, और उसमें किसी विशेष threshold value से छोटे तथा उसके बराबर सभी संख्याएँ शामिल होती हैं
1 टिप्पणियां
Hacker News की राय
5.5 Pro को थोड़ी देर इस्तेमाल करने का अनुभव इससे मेल खाता है। पहली बार लगा कि यह ऐसा LLM है जिसे उबाऊ लेकिन साफ़ समस्या को सच में हल करने के लिए धकेला जा सकता है
यह अब भी बहुत गलतियाँ करता है और इसे बहुत कसकर निर्देश देना पड़ता है, लेकिन दूसरे मॉडलों के विपरीत अपनी ही reasoning का पीछा करते हुए खुद को सुधारने की इसकी क्षमता काफ़ी अच्छी है
कमी इसकी लागत है। यह पागलों की तरह tokens खाता है, token की कीमत भी महंगी है, और बड़ी समस्या को ऊँची accuracy से हल कराने के लिए sub-agent flow इस्तेमाल करें तो और महंगा पड़ता है
बड़े पैमाने की समस्याओं में context limit की वजह से यह काफ़ी धीमा भी हो जाता है। हर हिस्से के लिए context फिर से खोजना पड़ता है, और accuracy के लिए अगले छोटे हिस्से पर जाने से पहले context साफ़ करना पड़ता है या और agents चलाने पड़ते हैं
अगर समस्या गणितीय proof जैसी हो, जहाँ समस्या और proof को समझने के लिए अतिरिक्त context छोटा हो और “महत्वपूर्ण” हो, तो यह ठीक हो सकता है, लेकिन बड़े codebase में code correctness जाँचना या सूक्ष्म assumptions verify करना—इनमें इसकी स्पष्ट सीमाएँ हैं
इसलिए अगर आप उन भाग्यशाली लोगों में नहीं हैं जो 5.5 Pro को unlimited इस्तेमाल कर सकते हैं, तो ऐसे मॉडलों की प्रभावशाली क्षमता प्रोग्रामर की रोज़मर्रा की ज़िंदगी में घुलने-मिलने में अभी कुछ समय लेगी
यह लंबी और तकनीकी लेख है, जिसमें गणित के हिस्से और दार्शनिक हिस्से मिले हुए हैं, लेकिन खास तौर पर असरदार बात यह है कि शुरुआती PhD छात्र का प्रशिक्षण अब और कठिन हो गया है
पहले अपेक्षाकृत आसान research problems देकर शुरुआत करवाई जा सकती थी, लेकिन अगर LLM ऐसे “आसान problems” हल कर सकता है तो वह विकल्प अब नहीं बचता
गणित में योगदान की निचली सीमा अब “जिसे अभी तक किसी ने prove नहीं किया और जो interesting है” नहीं, बल्कि “जिसे LLM prove नहीं कर सकता” बन जाती है
फिर भी training की शुरुआत basics से ही करनी होगी। हर कोई छोटे integers का जोड़ सीखकर शुरू करता है, और calculator तो बहुत पहले से यह बिना गलती किए कर रहा है
लेख के दूसरे हिस्सों की तरह, कठिन समस्याएँ खुद हल करनी पड़ती हैं ताकि problem-solving process पर insight मिले, और जिसने पहले से कठिन समस्याएँ हल की हों, उसके AI का बेहतर उपयोग करने की संभावना अधिक है
coding ऐसी चीज़ें बनाना है जिन्हें लोग पैसे कमाने के लिए इस्तेमाल करेंगे, इसलिए AI से तेज़ deliver करके नौकरी बनाए रखी जा सकती है, लेकिन गणित को भी उसी तरह देखा जा सकता है या नहीं, यह स्पष्ट नहीं है
अगर LLM ने सारे मुख्य ideas और तकनीकी काम कर दिए और गणितज्ञ ने सिर्फ उपयोगी तरीके से दिशा दी, तो क्या उसे गणितज्ञ की बड़ी उपलब्धि माना जाए—यह संदिग्ध है
कंपनियों में भी लोग LLM को काम सौंपते हैं तो नतीजा हमेशा बुरा नहीं होता और कभी-कभी स्वीकार्य भी होता है, लेकिन वह उस व्यक्ति का काम नहीं होता
इसलिए लेखक न तो उस काम को दूसरों से बेहतर जानता या समझता है, न उसे own कर सकता है, न समझा सकता है। वह सचमुच सिर्फ एक पास-थ्रू पॉइंट बनकर रह जाता है, इसलिए उसकी value खत्म हो जाती है
अगर LLM “आसान research” ही हल कर दे, तो वह process और कठिन हो जाती है
जैसे छोटे शेर दूसरे छोटे शेरों से लड़ते-खेलते हुए आगे की शिकार सीखते हैं, लेकिन अगर अचानक TikTok आ जाए और वे खेलना बंद कर दें, तो पहली शिकार बहुत कठिन होगी
AI से तेज़ deliver करके पैसा कमाना सही है, लेकिन यह अच्छा coder बनने की समस्या से अलग है। अगर आप अच्छे coder नहीं बनते, तो आप बस खराब vibe coder बने रहेंगे
Baez की दिलचस्प बात यह है कि विचार और गहरे ideas की value आती कहाँ से है
अगर वह value मुख्यतः scarcity से आती है—यानी किसी idea तक पहुँचना मुश्किल होने से—तो idea production के automate होते ही उसकी value तेज़ी से गिर सकती है
लेकिन अगर value idea की utility से आती है—यानी वह idea क्या लाभ देता है—तो बात अलग है। अधिक और बेहतर ideas बनाना उल्टा और अच्छा हो सकता है
हो सकता है गणितज्ञों को scarcity economy से abundance economy की तरफ़ बदलाव के साथ खुद को ढालना पड़े
https://gowers.wordpress.com/2026/05/08/a-recent-experience-...
दूसरे हैं शुद्ध theory builders, जिनका प्रतिनिधित्व Conway करते हैं; उन्हें theorems से ज़्यादा theory और ideas में रुचि होती है और वे गणित का इलाका बढ़ाना चाहते हैं
तीसरे हैं applied mathematicians, जो गणित को लक्ष्य नहीं बल्कि साधन मानते हैं, और गणित के बाहर की समस्याओं को गणित से हल करना चाहते हैं
पहली श्रेणी के problem solvers को AI से सबसे तात्कालिक ख़तरा दिखता है। हालांकि अभी AI नई conjectures खोजने से ज़्यादा problem solving में मज़बूत है
दूसरी श्रेणी के theory builders को ख़तरा अधिक दूर के भविष्य में है। अभी तक AI की नई और रोचक mathematical ideas देने की क्षमता सीमित है, और ऐसे काम के लिए उसे train कैसे किया जाए, यह भी किसी को नहीं पता
तीसरी श्रेणी को AI से सबसे ज़्यादा लाभ मिल सकता है। अगर AI उनके mathematical questions का जवाब दे दे, तो वे गणित पर कम समय लगाकर उन बाहरी समस्याओं पर ज़्यादा ध्यान दे सकते हैं जिन्हें वे गणित से हल करना चाहते थे
दूसरी ओर Wiles और Perelman online दुनिया से दूर रहे और असली समस्याएँ हल कीं
भौतिकी के प्रोफ़ेसर के रूप में मैं papers जाँचने के लिए Gemini का अक्सर उपयोग करता हूँ, और यह एक शक्तिशाली tool है
इसने ऐसे clerical errors पकड़े हैं जैसे complex equations में imaginary unit छूट जाना, जिन्हें मैं कई दिनों तक नहीं ढूँढ़ पाया था, और यह अक्सर concepts और ideas के बीच वे connections भी दिखा देता है जो मेरी नज़र से छूट गए थे
लेकिन यह conceptual errors भी अक्सर करता है, और मैं उन्हें सिर्फ इसलिए पकड़ पाता हूँ क्योंकि विषय को अच्छी तरह जानता हूँ। उदाहरण के लिए, 3D Clifford algebra में यह बार-बार bivector के exponent और pseudoscalar के exponent को गड़बड़ा देता है
मुझे यक़ीन है कि ChatGPT 5.5 Pro publishable paper बना सकता है, लेकिन Gemini को अब तक जितना देखा है, उससे LLM को papers और किताबें फटाफट पढ़ जाने वाले बेहद कुशल छात्र की तरह देखना बेहतर लगता है, जिसे अभी भी बहुत मार्गदर्शन चाहिए
और 3–4 साल पहले तक LLM high-school math भी भरोसे से हल नहीं कर पाते थे, इसलिए उनकी प्रगति अचानक रुकने का कोई कारण नहीं दिखता
CritPt benchmark unpublished research-level physics problems से बना है, इसलिए इसे ट्रैक करना दिलचस्प होगा
https://critpt.com/
frontier models अभी भी समाधान से काफ़ी दूर हैं, लेकिन प्रगति तेज़ है। o3 high 1.5 साल पहले 1.4% पर था, GPT 5.4 xhigh 23.4%, GPT-5.5 xhigh 27.1%, और GPT-5.5 Pro xhigh 30.6% है
https://artificialanalysis.ai/evaluations/critpt
मैं भी यह गलती बार-बार करता हूँ
custom prompts और instructions से LLM की memory को manually manage करना झुंझलाहट का एक कारण है
मैंने long-term memory feature अभी ठीक से इस्तेमाल नहीं किया है, लेकिन prompt से भी कम भरोसेमंद लगेगा। 1–2 साल में इतनी चीज़ें बदल जाएँगी कि उस “memory” को कई बार फिर से बनाना पड़ सकता है
expectation न हो तो आपको सब कुछ face value पर लेना पड़ता है, और उसी क्षण आप मशीन की दया पर होते हैं
आप अपने fundamentals साथ लाते हैं, उतावले agents की sanity check करते हैं, और कोशिश करते हैं कि दूसरे लोग भी वही कर सकें, इसलिए उनमें भी वही fundamentals डाले जाएँ
आखिरकार यही एकमात्र तरीका लगता है जिससे पूरी चीज़ काम कर सकती है। जब तक कभी कंपनियाँ छोटे और किफ़ायती local models पर शिफ्ट न हो जाएँ
सही होने की संभावना और आपको चट्टान से कूदवा देने की संभावना लगभग आधी-आधी होती है, लेकिन यात्रा हमेशा खूबसूरत 5-star अनुभव जैसी पैक होकर आती है
गलती पकड़कर LLM को बताओ तो अक्सर स्थिति और बदतर हो जाती है। LLM खुश करने की कोशिश में माफ़ी माँगता है और दिशा बदल देता है
ऐसी स्थिति में मैं आम तौर पर session save या cancel करके बिल्कुल शुरुआत से फिर शुरू करता हूँ, या जानबूझकर दिशा बदल देता हूँ
मेरे लिए Gemini सबसे कम predictable LLM है, और overall GPT सबसे बेहतर fit बैठता है
हाल ही में Gemini ने एक ही सवाल के दो अलग जवाब दिए। यह जानबूझकर नई chat खोलकर वही prompt paste करके किया गया test था
coding domain में reasoning feature उतनी मददगार नहीं लगती। LLM की explanations बहुत high-level होती हैं और औपचारिक रूप से सही लगती हैं
LLM की वजह से मैं उल्टा और ज़्यादा googling करने लगा हूँ। अंत में कोई मेरे लिए कुछ बना देता है, जिसे button दबाने से पहले मुझे खुद verify करना पड़ता है—और वह चमकदार button सच में चलेगा या नरक की ओर ले जाएगा, यह थोड़ी देर बाद ही पता चलता है
अगर किसी गणितज्ञ ने LLM के साथ लंबी बातचीत की, उपयोगी दिशा दी, लेकिन तकनीकी काम और मुख्य ideas सब LLM ने किए, तो इसे गणितज्ञ की बड़ी उपलब्धि माना जाए या नहीं—यह सांस्कृतिक चयन है
मौजूदा गणितीय संस्कृति में इसका अटपटा लगना स्वाभाविक है, लेकिन दूसरे क्षेत्रों या बहुत से लोगों के लिए इसमें इंसान की बड़ी उपलब्धि दिख सकती है
जब तक human-AI collaboration सबसे अच्छे परिणाम दे रही है, तब तक इंसान का meaningful contribution मौजूद है, और कोई गहरा expert तथा कुशल LLM handler बड़ा योगदान दे सकता है
असली बदलाव तब आएगा जब pure AI, इंसान और human-AI collaboration—दोनों को पीछे छोड़ देगी
गणित में भी इंसान LLM को सही रास्ते पर रख सकता है, उसे किसी खास problem या दूसरी problem की ओर मोड़ सकता है, इसलिए वह कुछ श्रेय का हकदार है
car बनाने वाली टीम, horse की देखभाल करने वाला, या AI बनाने वाली टीम शायद ज़्यादा बड़े श्रेय के पात्र हों, लेकिन हम आम तौर पर सबसे दिखने वाले एक व्यक्ति पर ज़्यादा ध्यान देते हैं
अगर image लोगों को हँसाती है, तो prompt डालने वाला व्यक्ति production work का अधिकांश credit नहीं ले सकता, लेकिन शुरुआती idea और कई drafts में से किसी खास नतीजे को चुनने वाली taste का श्रेय उसे मिल सकता है
अगर किसी गणितज्ञ ने LLM से “किया हुआ” कोई चौंकाने वाला परिणाम हासिल किया, तो prompt देने और दिशा दिखाने के लिए उसे कुछ श्रेय मिलना चाहिए
लेकिन सवाल यह है कि जैसे पहले व्यक्ति को artist नहीं बल्कि comedian कहा जा सकता है, वैसे क्या वह गणितज्ञ अब भी mathematician है या कुछ और बन गया है
बस दूसरे गणितज्ञों को जितना reward मिलता है उतना ही दे दिया जाए। हाँ, तब शायद अरबपति गणितज्ञ बहुत होंगे, इसलिए वह reward काफ़ी बड़ा होगा
“अगर गणित करने का उद्देश्य किसी तरह की अमरता हासिल करना है, तो शायद वह अब बहुत लंबे समय तक संभव न रहे” — यह पंक्ति थोड़ी उदास लगी
फिल्म की शुरुआत MIT campus में घूमते छात्रों और उच्च शिक्षा से जुड़े वादों और प्रतिष्ठा से भरी हुई है
यह समझते ही कि AI को कितना कुछ सौंपा जा सकता है, वैसी ही उदासी महसूस हुई
[0] - https://youtu.be/0lsUsWdkk0Y?si=TJl7f_b1RcWcDqF8&t=278
अगला विचार था, “मैं किसमें अच्छा हूँ?” और उसके भीतर कम-से-कम यह भी शामिल था, “मैं किस चीज़ में world-class बन सकता हूँ?” या “किसमें बहुत अच्छा हो सकता हूँ?”
मैंने कभी यह नहीं सोचा कि कोई परिणाम खोजकर, उसका नाम रखकर, और उसे अपने बाद जीवित छोड़कर गणितीय अमरता पाना मेरे लिए पर्याप्त होगा, लेकिन अगर ऐसा सोचा होता तो यह बुरी खबर वैसा ही झटका देती
फिर भी सीमारेखा पर मैं इस premise से सहमत नहीं हूँ। चाहे कितने भी proof assistants या cluster computing लगें, Riemann hypothesis साबित करने वाली टीम या व्यक्ति मशहूर होगा। कम-से-कम गणित जगत में तो होगा ही
शायद बहुतों ने गणित→भौतिकी→इंजीनियरिंग तक जाने वाले अप्रत्यक्ष practical applications को लक्ष्य किया होगा, या बस गणित की सुंदरता और बौद्धिक आनंद के लिए किया होगा
AI practical applications तक तो पहुँच सकता है, लेकिन बाकी पहलुओं का आनंद अभी भी लिया जा सकता है
एक graduate student के रूप में यह लेख उदास करने वाला था। मुझे विश्वास रहा है कि मेरा काम मेरे अपने जीवन से आगे, इस ब्रह्मांडीय अनुभव में मिले सीमित समय से परे भी मेरे बारे में कुछ कहेगा
अमरता की वह भावना graduate school में कूदते समय एक छोटा, अमूर्त बोनस लगती थी, लेकिन AI की वजह से मैं खुद को कम मूल्यवान महसूस करता हूँ
यह काम इसलिए करने लायक है क्योंकि आप इसे कर सकते हैं। इसे प्यार की वजह से कीजिए, और mystery से प्यार की वजह से कीजिए
जब तक आप यह कर सकते हैं, हर पल का आनंद लें। उन लोगों के विपरीत जिन्हें ऐसे कामों में फँसना पड़ता है जो उन्हें संतोष नहीं देते, इस बड़े सौभाग्य में खुशी ढूँढ़ें कि आप यह काम कर सकते हैं
कभी-कभी यह उबाऊ होता है, लेकिन कभी-कभी अपने आप में अविश्वसनीय रूप से rewarding भी
लेकिन शाश्वत महिमा की संभावना के लिए काम नहीं करना चाहिए। ऐसी चीज़ अब रही नहीं
उससे बड़ा challenge कोई नहीं
पूर्वी यूरोप में theoretical computer science के assistant professor के रूप में, यह देखना हमेशा थोड़ा ईर्ष्याजनक लगता है कि गणित जगत के बड़े नाम महंगे long-reasoning models तक कितनी आसानी से पहुँच रखते हैं
मौजूदा academic budget के साथ यहाँ Pro के लिए भुगतान करना वास्तविकता से बाहर की बात है। बजट की उपयोग-सीमा तय है और software payments के लिए शायद ही कोई उपयुक्त category होती है
व्यवहार में आपको नया grant apply करना होगा, उम्मीद करनी होगी कि उसके नियम बड़े software expenses की अनुमति दें, और यह भी कि कोई anti-AI reviewer न मिले। ऐसी प्रक्रिया में कम-से-कम 1 साल लग जाता है
ऊपर से Microsoft ने Copilot के personal और academic उपयोग पर भी कसाव बढ़ा दिया है, जिससे हाल में Claude Opus access भी बंद हो गया
ChatGPT 5.5 Plus नई research directions में गहराई से उतरने के लिए पर्याप्त नहीं लगा, और मैंने खुद इसे आज़माया है
उसे सेट करने में 2 साल लगे, और वह सिर्फ gpt-oss-120b देती है, इसलिए लोग अब भी दूसरी services इस्तेमाल करते हैं
फिर भी इससे किसी administrator को विश्वविद्यालय की website पर हर जगह “AI” शब्द छिड़कने का मौका मिल जाता है, और “AI तो पहले से है” कहकर AI subscription requests ठुकराने का बहाना भी
गरीब और अमीर के boots का एक उदाहरण है। गरीब के boots घिसते रहते हैं और उन्हें बार-बार बदलना पड़ता है, जबकि अमीर के boots बेहतर quality के होते हैं और कई साल चलते हैं
समय बीतने पर गरीब व्यक्ति boots पर ज़्यादा पैसा खर्च कर चुका होता है
बचत से इस्तेमाल करें तो आम तौर पर काफ़ी सस्ता पड़ता है
विश्वविद्यालय न भी दे, तब भी अपने लक्ष्यों के लिए आप इसे लेना चाहेंगे, ऐसा लगता है
आलोचना नहीं कर रहा, बस जानना चाहता हूँ कि क्या वहाँ के अधिकांश researchers के लिए यह सचमुच पूरी तरह पहुँच से बाहर की लागत है
लगभग 10 साल पहले Seattle में AMS-MAA joint meeting में मैंने Tim Gowers को बोलते सुना था, जहाँ उन्होंने भविष्यवाणी की थी कि 100 साल बाद इंसान research mathematics नहीं करेंगे। अब सोचता हूँ कि क्या उन्होंने अपनी timeline बदली होगी
उस समय मुझे लगता था कि MathOverflow जैसे काम करने वाली natural-language search वह मुख्य tool है जो अभी गायब है। यानी आप किसी problem या idea को अपने समझने के तरीके से बयान करें, और वह आपके अनुभव या vocabulary के बाहर की संबंधित literature खोज दे
महान गणितज्ञ होना सही होना नहीं है। सच तो यह है कि गणितज्ञों के पास कई बार काफ़ी अजीब theories भी होती हैं
इस शरद ऋतु higher education में प्रवेश करने वाले छात्रों की भारी बहुमत, अगर research भी करें, तो 4–5 साल बाद ही विज्ञान में बड़ा योगदान दे पाएगी। और अगर PhD के गंभीर चरण तक देखें, तो व्यवहार में 6–7 साल लगते हैं
5–7 साल पहले के models के स्तर को देखें, तो उस समय PhD के लिए अस्तित्वगत ख़तरे जैसी कोई चीज़ radar पर भी नहीं थी। जो लोग अभी PhD पूरी कर रहे हैं, वे इन tools का सच में उपयोग कर पाने वाली पहली पीढ़ी हैं
समस्या तब होगी अगर researcher बनने वाले छात्र हार की भावना से ही छोड़ दें, या पूरी तरह AI models पर निर्भर होकर उनसे काम कराने लगें
PhD positions की funding पर भी यही बात लागू होती है। अगर सहायता “researchers को train करने” से हटकर “results हासिल करने” की तरफ़ चली गई, तो जो पैसा PhD छात्रों पर जाता था, वह computing resources की ओर बह सकता है
निंदक नज़र से देखें तो कुछ researchers कुछ साल छात्रों को train करने की बजाय computing पर पैसा खर्च करके कहीं अधिक papers निकाल सकते हैं
समय दिलचस्प है, लेकिन अनिश्चितता बहुत अधिक है। जिन छात्रों को अभी तय करना है कि क्या करें, उनके लिए बुरा लगता है
खासकर नरम विषयों में तो PhD thesis और अच्छा publication record अभी भी खरीदा जा सकता है
और अगर आप academia में नहीं बल्कि industry में हैं, तो promotion भी खरीदी जा सकती है। अगर employer हर employee को AI budget देता है, तो promotion मिलने तक चुपचाप अपनी जेब से उस budget को दोगुना कीजिए, और promotion के बाद रुककर बड़ी salary का आनंद लीजिए
साफ़ दिखता है कि वे अब वह research कर पा रहे हैं जो पहले नहीं कर सकते थे
यह भी दिखता है कि AI use ने code खुद लिखने की क्षमता को कुछ हद तक कमजोर किया है, लेकिन मैं इसे scikit-learn या Pytorch से machine learning models बनाने जैसा ही मानता हूँ
निचले स्तर की details abstract हो जाती हैं और AI के बिना आप बहुत कुछ नहीं कर पाएँगे, लेकिन research फिर भी वास्तव में उसी व्यक्ति की वजह से होती है; अकेले AI से वह नहीं होती
वह पैसा लगभग बाद में जोड़ी गई budget line जैसा है, और इतना बड़ा या लुभावना लक्ष्य नहीं कि उसे महँगी दूसरी प्रक्रियाओं के लिए खींच लिया जाए