2 पॉइंट द्वारा GN⁺ 3 시간 전 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • Tim Gowers ने ChatGPT 5.5 Pro के साथ लगभग 1 घंटे में संयोजनशास्त्र में PhD-स्तर का शोध परिणाम हासिल किया, और उनका मानना था कि इसमें उनका अपना गणितीय इनपुट लगभग न के बराबर था
  • ChatGPT 5.5 Pro ने Mel Nathanson की additive number theory समस्या में दिए गए sumset आकार वाले समुच्चयों के diameter के लिए अनिवार्य रूप से सर्वोत्तम मानी जाने वाली द्विघात upper bound construction सिर्फ 17 मिनट 5 सेकंड में प्रस्तुत कर दी
  • इसके बाद उसने restricted sumset समस्या भी उसी तरीके से हल की, और Isaac Rajagopal की मौजूदा exponential upper bound को polynomial dependence में सुधारने वाला तर्क भी तैयार किया, जो Rajagopal को लगभग निश्चित रूप से सही लगा
  • मुख्य विचार यह था कि Rajagopal की construction में geometric progression वाले components को h-dissociated set आधारित construction से बदल दिया जाए, ताकि आवश्यक sumset size pattern को polynomial आकार के interval के भीतर पुनः निर्मित किया जा सके
  • AI द्वारा बनाया गया परिणाम प्रकाशन योग्य स्तर का दिखता है, लेकिन journal publication या arXiv registration की बजाय ऐसा अलग repository ज़रूरी हो सकता है जहाँ मानव गणितज्ञ उसकी शुद्धता प्रमाणित करें; साथ ही शुरुआती शोधकर्ताओं के प्रशिक्षण का मानदंड भी LLM के साथ सहयोग करके उन चीज़ों को सिद्ध करने की दिशा में जा सकता है जो LLM अकेले नहीं कर सकता

LLM कैसे बदल रहे हैं संयोजनशास्त्र की समस्या-समाधान प्रक्रिया

  • बड़े language model अब शोध-स्तर की समस्याएँ हल कर सकने के चरण में दिखाई देते हैं, और यह भी बताया गया है कि उन्होंने Thomas Bloom की Erdős problem site पर डाली गई कई समस्याएँ भी हल की हैं
  • शुरुआती LLM उपलब्धियाँ अक्सर साहित्य में मौजूद उत्तर खोज लेने या ज्ञात परिणामों से आसानी से निकलने वाले निष्कर्ष देने तक सीमित थीं, लेकिन अब यह संभावना बढ़ रही है कि LLM ऐसे आसान तर्क खोज निकालें जिन्हें मनुष्य नज़रअंदाज़ कर चुके हों
  • मानव गणित में भी मौजूदा ज्ञान और proof techniques को जोड़ना काम का एक बड़ा हिस्सा है, इसलिए यह तसल्ली कि LLM “सिर्फ मौजूदा ज्ञान को जोड़ता है” सीमित महत्व रखती है
  • संयोजनशास्त्र में नए combinatorial parameters पेश करने वाले शोधपत्र स्वाभाविक रूप से कई समस्याएँ पैदा करते हैं, और पहले यह नए शोधकर्ताओं के लिए अच्छे खुले प्रश्नों का स्रोत थे, लेकिन अब नया मानदंड यह बनता जा रहा है कि क्या वे इतनी कठिन हैं कि LLM उन्हें हल न कर सके

Nathanson समस्या और पहली उपलब्धि

  • Gowers ने Mel Nathanson के शोधपत्र Diversity, Equity and Inclusion for Problems in Additive Number Theory में दिए गए प्रश्नों को ChatGPT 5.5 Pro से हल करने की कोशिश कराई
  • Nathanson को उन समस्याओं और प्रमेयों में शुरुआती रुचि रखने वाले व्यक्ति के रूप में पेश किया गया है जो बाद में लोकप्रिय हुए, और इसी वजह से उन्होंने समयानुकूल और प्रभावशाली पाठ्यपुस्तकें लिखीं
  • मुख्य विषय था पूर्णांकों के समुच्चय का sumset, कई बार जोड़े गए sumset, और दिए गए तत्वों की संख्या के लिए संभव sumset आकार
  • जब तत्वों की संख्या दी जाती है, तो संभव sumset आकार हमेशा न्यूनतम और अधिकतम के बीच के सभी मान नहीं लेते, और इसका पूर्ण characterisation अभी भी उपलब्ध नहीं है
  • Nathanson ने दिए गए तत्वों की संख्या और sumset आकार वाले समुच्चय बनाने के लिए आवश्यक diameter की upper bound दी थी, और पूछा था कि क्या इसे और बेहतर किया जा सकता है
  • ChatGPT 5.5 Pro ने 17 मिनट 5 सेकंड सोचने के बाद एक ऐसी construction दी जो अनिवार्य रूप से सर्वोत्तम द्विघात upper bound देती है
  • जब Gowers ने उससे इसे सामान्य गणितीय preprint शैली की LaTeX file में दोबारा लिखने को कहा, तो ChatGPT ने 2 मिनट 23 सेकंड बाद वह रूप दे दिया, और Gowers ने तर्क की शुद्धता जाँचने में समय लगाया

Sidon sets और restricted sumset तक विस्तार

  • Nathanson का तर्क और ChatGPT का तर्क, दोनों ही दिए गए आकार के समुच्चय और दिए गए आकार के sumset बनाने के लिए Sidon set और arithmetic progression को साथ इस्तेमाल करने के विचार पर आधारित हैं
  • यहाँ Sidon set का उपयोग उस सरल अर्थ में किया गया है कि वह ऐसा समुच्चय है जिसका sumset आकार अधिकतम होता है
  • सूक्ष्म समायोजन के लिए arithmetic progression के पास एक अतिरिक्त बिंदु जोड़ा जा सकता है, और कई parameters को नियंत्रित करके इच्छित आकार के समुच्चय प्राप्त किए जा सकते हैं
  • Nathanson ने इस शोधपत्र के Theorem 5 में एक inductive तर्क दिया था, लेकिन उसे विस्तार से लिखने पर वह मूलतः 2 की घातों वाले Sidon set का उपयोग करने वाली संरचना जैसा दिखता है
  • ChatGPT का सुधार अधिक दक्ष Sidon set के उपयोग से आया, और यह तथ्य अच्छी तरह ज्ञात है कि द्विघात diameter वाले Sidon set मिल सकते हैं
  • इसके बाद Gowers ने sumset आकार की जगह restricted sumset के आकार को देखने वाली निकट संबंधी समस्या भी उसे दी, और ChatGPT ने बिना खास कठिनाई के उसी तरह का परिणाम दिया
  • इन दोनों परिणामों को बिना दोहराव के एक नोट में समेटने वाला दस्तावेज़ यहाँ सार्वजनिक किया गया है

सामान्य degree समस्या और Rajagopal के शोधपत्र में सुधार

  • Gowers ने यह भी पूछा कि अधिक सामान्य स्थिति में ChatGPT क्या कर सकता है
  • शुरू में वह काफी कम आशावादी थे, क्योंकि पिछला proof मूल रूप से Erdős और Szemerédi के परिणाम पर निर्भर था—यानी इस तथ्य पर कि बनाने वाले आकारों की सटीक जानकारी उपलब्ध थी
  • Nathanson के शोधपत्र में MIT छात्र Isaac Rajagopal का शोधपत्र आता है, जिसमें Rajagopal ने प्रत्येक fixed degree के लिए exponential dependence सिद्ध की थी
  • Rajagopal के लिए असली कठिनाई यह नहीं थी कि “संभव आकारों के समुच्चय की जानकारी नहीं है”
    • उनका तर्क पर्याप्त बड़े मामलों के लिए पूर्ण characterisation देता है
    • fixed degree के लिए polynomial dependence दिखाने हेतु सिर्फ पर्याप्त बड़े मामलों को मान लेना ही काफी है
    • वास्तविक कठिनाई यह है कि दिए गए sumset आकार वाला समुच्चय बनाने की construction कहीं अधिक जटिल है, और degree बढ़ने के साथ polynomial की degree भी बढ़ती है, इसलिए अधिक parameters की आवश्यकता पड़ती है
  • ChatGPT का काम समस्या को शुरू से हल करना नहीं, बल्कि Rajagopal के तर्क को कसना था
  • प्रक्रिया इस प्रकार रही
    • 16 मिनट 41 सेकंड बाद उसने ऐसा तर्क दिया जो मौजूदा upper bound को exponential function से सुधारकर किसी भी धनात्मक स्थिरांक के लिए उससे छोटे exponent वाले रूप में ले जाता था
    • इसे preprint रूप में लिखने में अतिरिक्त 47 मिनट 39 सेकंड लगे
    • Gowers ने यह Nathanson को भेजा, Nathanson ने Rajagopal को पहुँचाया, और Rajagopal को यह सही प्रतीत हुआ
    • ChatGPT और Rajagopal, दोनों ने इस पर कुछ अनुमान लगाए कि इसे polynomial upper bound तक और आगे बढ़ाने के लिए क्या चाहिए होगा, और Gowers ने ChatGPT से यह प्रयास भी कराया
    • 13 मिनट 33 सेकंड बाद ChatGPT ने उत्तर दिया कि ऐसे तर्क के मौजूद होने की संभावना को लेकर वह आशावादी है, लेकिन कुछ तकनीकी प्रतिज्ञप्तियों की पुष्टि आवश्यक है
    • पुष्टि करने को कहने पर उसने 9 मिनट 12 सेकंड बाद जाँच पूरी कर ली, और फिर उससे दोबारा preprint रूप में लिखने को कहा गया
    • 31 मिनट 40 सेकंड बाद preprint तैयार थी, और दस्तावेज़ यहाँ सार्वजनिक किया गया
    • Rajagopal ने इसे लगभग निश्चित रूप से सही माना, और इसका अर्थ सिर्फ line-by-line नहीं बल्कि विचार के स्तर पर भी सही होना समझा गया

AI-निर्मित गणितीय परिणामों को कहाँ रखा जाए

  • अगर यह परिणाम किसी मनुष्य ने बनाया होता, तो यह प्रकाशन योग्य माना जाता, इसलिए इसे AI slop कहना उचित नहीं लगता
  • दूसरी ओर, इसे journal में छापना बहुत अर्थपूर्ण नहीं दिखता
    • परिणाम मुफ्त में सार्वजनिक किए जा सकते हैं
    • किसी को भी “श्रेय” की आवश्यकता नहीं है
    • हालाँकि वह framework बनाने के लिए Rajagopal को काफी श्रेय है, जिस पर ChatGPT निर्माण कर सका
  • यह समझा जाता है कि arXiv की नीति AI-लिखित सामग्री स्वीकार न करने की है, और इसे उचित माना गया है
  • AI द्वारा बनाए गए परिणामों के लिए अलग repository की आवश्यकता हो सकती है
    • ऐसा moderation process वांछनीय हो सकता है जिसमें सिर्फ वे परिणाम शामिल हों जिनकी शुद्धता मानव गणितज्ञों ने प्रमाणित की हो
    • इससे भी बेहतर यह हो सकता है कि परिणाम proof assistant के माध्यम से formalise किए गए हों
    • यह भी एक मानदंड हो सकता है कि क्या परिणाम किसी मानव-लिखित शोधपत्र में उठाए गए प्रश्न का उत्तर देता है
  • अगर moderation process बहुत बड़ा कार्यभार पैदा करे तो यह समस्या होगी, और वह काम फिर से AI को सौंप देने की दिशा में स्पष्ट जोखिम मौजूद है
  • फिलहाल ये परिणाम सार्वजनिक लिंक के ज़रिए उपलब्ध हैं, और क्योंकि LLM की literature search क्षमता बेहतर हो गई है, इसलिए Nathanson की समस्या के हल की तलाश करने वाले लोगों को यह मिल भी सकता है

Isaac Rajagopal का मूल्यांकन और तकनीकी पृष्ठभूमि

  • ChatGPT का मुख्य योगदान

    • ChatGPT ने कुछ ही prompts में एक खास upper bound को exponential dependence से polynomial dependence तक बेहतर कर दिया
    • पहला सुधार Rajagopal के काम में अपेक्षाकृत सामान्य संशोधन था, लेकिन polynomial सुधार काफ़ी प्रभावशाली था
    • ChatGPT का दिया गया विचार मौलिक और चतुर था, और अगर Rajagopal को यह 1–2 हफ़्ते सोचने के बाद सूझता, तो वे इस पर गर्व करते
    • ChatGPT ने Rajagopal के अपने proof जैसी ही विधि का उपयोग करके एक घंटे से भी कम समय में विचार ढूँढ लिया और उसे सिद्ध भी कर दिया
  • समस्या की पृष्ठभूमि

    • यह upper bound समस्या Rajagopal द्वारा Duluth REU (Research Experience for Undergrads) प्रोग्राम में देखी गई समस्या से काफ़ी निकट से जुड़ी है
    • मुख्य वस्तु उन संभव iterated sumset sizes के समुच्चय और उन्हें किसी निश्चित संख्या के elements वाले integer set से पूरी तरह साकार करने के लिए आवश्यक न्यूनतम range है
    • Rajagopal ने पिछले ग्रीष्म में sufficiently large cases में possible values के set को स्पष्ट रूप से characterize किया था
    • उन्होंने ऐसे sets बनाए जो उन सभी sizes को साकार करते थे जिन्हें असंभव साबित करके बाहर नहीं किया जा सका था, और उसी से संबंधित upper bound उस construction को optimize करके प्राप्त किया जा सकता है
  • exponential-size construction का विकल्प

    • Rajagopal की मूल construction कई छोटे component sets को जोड़ने की शैली की थी, जिन्हें analyze करना आसान था
    • कुछ components कई parameter values के लिए geometric progression के रूप में थे, और उनके elements parameter के सापेक्ष exponentially बड़े हो जाते थे
    • Rajagopal ने Tim के माध्यम से ChatGPT से पूछा कि क्या ऐसे sets हो सकते हैं जिनके sumset sizes उस geometric progression जैसे हों, लेकिन elements का आकार polynomial तक सीमित रहे
    • ChatGPT ने ऐसे sets बनाए जो मानो “polynomial interval के भीतर geometric progression का आधा हिस्सा ठूँस दिया गया हो” जैसा व्यवहार करते हैं
    • यह एक प्रतिनैसर्गिक construction लगता है

Bₕ sets, dissociated sets, और ChatGPT की construction idea

  • Bₕ sets की भूमिका

    • किसी दिए गए order के लिए, जिस set में sum relation केवल उन्हीं trivial solutions में हो जहाँ एक तरफ़ का sum दूसरी तरफ़ के sum की सिर्फ़ rearrangement हो, उसे Bₕ set कहते हैं
    • निश्चित आकार के Bₕ set में, repetition की अनुमति देकर elements चुनने के तरीके और iterated sumset के elements का ठीक-ठीक correspondence होता है
    • “stars and bars” से गिनने पर, यह उसी आकार के set के लिए संभव अधिकतम iterated sumset size होता है
    • Sidon set इस दृष्टि से B₂ set है
  • geometric progression जिन गुणों को पुनः उत्पन्न कर रही थी

    • एक खास geometric progression set, Bₕ set तो है, लेकिन higher-order B set नहीं है
    • बाधा डालने वाले relations एक निश्चित रूप के sum relations के रूप में प्रकट होते हैं
    • एक set में sumset size parameter का linear function बनता है, और दूसरे set में quadratic function
    • ChatGPT ने ऐसे नए sets ढूँढे जो इन चारों गुणों को संतुष्ट करते हैं, जबकि उनके सभी elements parameter के सापेक्ष polynomial size के हैं
  • h-dissociated sets का उपयोग

    • ChatGPT की construction h-dissociated sets का उपयोग करती है
    • h-dissociated set वह set है जिसमें सीमित order तक के sum relations में केवल trivial solutions की अनुमति होती है
    • ऐसे h-dissociated sets बनाए जा सकते हैं जिनका आकार लगभग parameter के बराबर हो और जिनका diameter polynomial हो
    • ऐसी constructions का इतिहास finite fields का उपयोग करने वाली Singer (1938) और Bose–Chowla (1963) constructions तक जाता है, जिनकी चर्चा Appendix 1 में है
  • relations की केवल आधी संख्या समेटने की intuition

    • ChatGPT द्वारा बनाए गए दो sets, geometric progression वाले analogues की तुलना में, कुछ खास sum relations का लगभग आधा हिस्सा ही शामिल करते हैं
    • साथ ही h-dissociated गुण के कारण अन्य low-order relations लगभग नहीं के बराबर हैं
    • परिणामस्वरूप वे polynomial interval के भीतर रहते हुए भी आवश्यक sumset size pattern को पुनः उत्पन्न करते हैं
    • Rajagopal को low-order relations को h-dissociated sets से नियंत्रित करने का ChatGPT का विचार बहुत ही चतुर और पूरी तरह मौलिक लगा

ChatGPT के proof और Rajagopal के proof का संबंध

  • ChatGPT का proof, Rajagopal के मूल proof में geometric progression components को ChatGPT के नए components से बदल देने वाले रूप से बहुत मिलता-जुलता है
  • अंतिम construction में कई order values के लिए नए sets को जोड़ा जाता है, और इसके साथ एक और set जो arithmetic progression और एक single point के sumset से बना होता है
  • सहज रूप से नए sets बड़े sumsets बनाते हैं, और arithmetic progression छोटे sumsets बनाती है, इसलिए इन्हें मिलाकर सभी मध्यम आकार के sumsets प्राप्त किए जा सकने चाहिए
  • वास्तविक proof काफ़ी जटिल है, और Rajagopal के paper के Section 4 तथा ChatGPT preprint के पूरे भाग में फैला है
  • तुलना के लिए, यह देखना आसान है कि संबंधित positive lower bound कम से कम किसी खास order की power के स्तर का है, लेकिन वास्तविक मान ज्ञात नहीं है
  • Rajagopal ने कहा कि उन्हें यह जानकर आश्चर्य हुआ कि Tim ने ChatGPT 5.5 Pro को जो समस्या दी थी, वही संयोग से उनके अपने arXiv paper तक पहुँच गई

गणितीय शोध और PhD प्रशिक्षण के लिए निहितार्थ

  • ChatGPT ने जो परिणाम 2 घंटे के भीतर निकाला, उसे combinatorics PhD thesis के एक पूरी तरह उचित chapter के स्तर का माना गया
  • यह Isaac के विचारों पर काफ़ी निर्भर था, इसलिए यह कोई चमत्कारिक परिणाम नहीं था, लेकिन उन विचारों का nontrivial extension ज़रूर था
  • यदि कोई PhD छात्र वही extension ढूँढने की कोशिश करता, तो उसे Rajagopal का paper समझने, उसमें संभावित non-optimal हिस्से पहचानने, और इस्तेमाल की गई अनेक algebraic techniques से परिचित होने में काफ़ी समय लगता
  • शुरुआती PhD छात्रों को अपेक्षाकृत smooth open problem देकर शोध प्रशिक्षण देने का तरीका अधिक कठिन हो सकता है
  • अगर LLM “smooth problems” हल कर सकता है, तो गणित में योगदान देने की lower bound अब “ऐसा परिणाम जिसे अभी तक किसी ने सिद्ध नहीं किया और कोई उसे रोचक मानता हो” से खिसककर “ऐसा परिणाम जिसे LLM सिद्ध न कर सके” की ओर जा सकती है
  • क्योंकि शुरुआती लोग भी LLM का उपयोग कर सकते हैं, इसलिए वास्तविक काम शायद वह हो सकता है जिसमें LLM के साथ सहयोग करके वह चीज़ सिद्ध की जाए जो LLM अकेले नहीं कर सकता
  • Gowers ने हाल में LLM के साथ कई सहयोग किए हैं, और उनका मानना है कि अभी भले game-changing ideas न मिले हों, उपयोगी योगदान ज़रूर मिला है

क्षेत्रों के बीच अंतर और आगे के बदलाव

  • यह स्पष्ट नहीं है कि यह बदलाव गणित के अन्य क्षेत्रों में कितनी व्यापकता से लागू होगा
  • combinatorics में problem-centered प्रवृत्ति बहुत मज़बूत होती है
    • यानी प्रश्न से शुरू करके पीछे की ओर तर्क करना, या आगे की ओर तर्क करते हुए भी उस प्रश्न को लगातार ध्यान में रखना
  • अन्य क्षेत्रों में ideas की एक श्रेणी से शुरू करके यह देखना कि वे कहाँ तक ले जाती हैं, यानी forward reasoning, अधिक महत्वपूर्ण हो सकती है
  • ऐसे क्षेत्रों में यह क्षमता चाहिए कि कौन-सा observation रोचक है और कौन-सा नहीं, और LLM इसमें कितना अच्छा होगा, यह स्पष्ट नहीं है
  • LLM के बारे में वर्तमान आकलन कुछ ही महीनों में पुराना पड़ सकता है, क्योंकि प्रगति की गति बहुत तेज़ है
  • गणितीय शोध करने का तरीका, विशेषकर नए शोधकर्ताओं को इस क्षेत्र में लाने का तरीका, बड़े पैमाने पर बाधित हो सकता है
  • जो लोग अगले academic year में PhD शुरू करेंगे, वे सबसे जल्दी 2029 में समाप्त करेंगे, और तब तक गणितीय शोध का अर्थ आज की तुलना में इतना बदल चुका हो सकता है कि पहचानना मुश्किल हो

गणित करने के कारणों में बदलाव

  • उन्होंने कहा कि उन्हें अक्सर ऐसे ईमेल मिलते हैं जिनमें पूछा जाता है कि क्या गणितीय शोध को करियर के रूप में जारी रखना अब भी सार्थक है
  • गणितीय समस्याओं से जूझने में अब भी बहुत मूल्य है, लेकिन वह युग, जब किसी खास theorem या definition के साथ आपका नाम स्थायी रूप से जुड़ने की खुशी मिलती थी, शायद समाप्ति के क़रीब है
  • अगर गणित करने का उद्देश्य किसी प्रकार की अमरता है, तो यह समझना होगा कि वह शायद अधिक समय तक संभव न रहे
  • एक thought experiment के रूप में, यदि किसी गणितज्ञ ने LLM के साथ लंबी बातचीत करके उपयोगी मार्गदर्शक की भूमिका निभाई हो, लेकिन तकनीकी काम और मुख्य विचार सब LLM ने करके कोई बड़ी समस्या हल कर दी हो, तो क्या इसे उस गणितज्ञ की बड़ी उपलब्धि माना जाएगा, यह संदिग्ध है
  • पहले से हल ज्ञात समस्या को हल करना भी संतोषजनक हो सकता है, लेकिन जीवन के कई वर्ष लगाने के लिए यह पर्याप्त कारण नहीं है
  • बेहतर कारण यह है कि कठिन समस्याएँ हल करते हुए अपने विशेषज्ञता-क्षेत्र में समस्या-समाधान की प्रक्रिया पर ही अंतर्दृष्टि प्राप्त की जाए
  • जिसने कठिन समस्याएँ स्वयं हल की हैं, वह AI की मदद से समस्याएँ हल करने में भी अधिक सक्षम होने की संभावना रखता है
    • जैसे अच्छा coder, कम कुशल व्यक्ति की तुलना में vibe coding बेहतर कर सकता है
    • जैसे जिसे basic arithmetic अच्छी तरह समझ आती है, वह calculator को बेहतर ढंग से इस्तेमाल करता है, और खासकर तब जब उत्तर अजीब लगे तो उसे जल्दी पहचान लेता है
  • गणित एक ऐसा कौशल है जिसकी transferability बहुत अधिक है, और यह शोध-स्तर के गणित पर भी लागू होता है
  • हो सकता है कि गणितीय शोध से पहले की पीढ़ियों जैसे rewards न मिलें, लेकिन यह आपको आने वाली दुनिया के लिए बहुत अच्छी तरह तैयार कर सकता है

परिशिष्ट की तकनीकी सामग्री

  • परिशिष्ट 1: h-dissociated सेट का निर्माण

    • लक्ष्य ऐसा h-dissociated सेट बनाना है जिसका diameter लगभग polynomial स्तर का हो
    • यह निर्माण Bose–Chowla(1963) के निर्माण का बहुत छोटा-सा रूपांतरण है, और Rajagopal ने बताया है कि उन्होंने इसे इस शोधपत्र से सीखा
    • ChatGPT preprint का Lemma 3.1 moment curve का उपयोग करने वाला एक अलग, कम efficient निर्माण इस्तेमाल करता है
    • इस निर्माण में prime, finite field, finite field extension का generator, और प्रत्येक element को किसी विशेष power expression से जोड़ने का तरीका इस्तेमाल होता है
    • सीमित degree तक के additive relation को generator की power relation में बदलकर देखा जा सकता है
    • extension degree और generator के गुणों के कारण यह कम degree वाले किसी nonzero polynomial को satisfy नहीं करता, इसलिए दोनों ओर के polynomial समान होने चाहिए
    • इसलिए संबंधित additive relation केवल trivial relation होते हैं, और सेट h-dissociated बन जाता है
    • आवश्यकता हो तो कुछ elements हटाकर इसे इच्छित आकार तक घटाया जा सकता है
  • परिशिष्ट 2: ChatGPT निर्माण की विस्तृत संरचना

    • fixed constants चुने जाते हैं, और ChatGPT द्वारा बनाए गए दो सेट इस्तेमाल किए जाते हैं
    • इच्छित आकार हासिल करने वाला सेट निर्माण चार प्रकार के components को मिलाता है
      • एक प्रकार जिसमें दो parameters चुने जाते हैं
      • दो प्रकार जिनमें प्रत्येक degree value के लिए दो parameters चुने जाते हैं
      • एक ऐसा सेट जो कुल elements की संख्या को सही बनाता है
    • इस निर्माण के जटिल होने का एक कारण यह है कि पर्याप्त संख्या में अलग-अलग सेट बनाने पड़ते हैं
    • इसके लिए एक क्षेत्र के parameters और दूसरे क्षेत्र के parameters को साथ में बदला जाता है
    • यदि parameters में से एक को हटा दिया जाए और बाकी को वैसा ही रखा जाए, तो आवश्यक संख्या में सेट नहीं बनाए जा सकते
    • degree 2 के लिए Nathanson का निर्माण Sidon सेट, arithmetic progression, और एक अतिरिक्त value को मिलाता है, और arithmetic progression के आकार तथा अतिरिक्त value को एक निश्चित range में बदलकर आवश्यक सेट बनाता है; यह अधिक सरल संरचना है
    • परिशिष्ट 1 के निर्माण से प्रत्येक degree के लिए polynomial diameter वाले h-dissociated सेट प्राप्त किए जा सकते हैं
    • कई components को मिलाते समय, basis vectors वाली lattice-जैसी संरचना का उपयोग किया जाता है
    • यह निर्माण Rajagopal के Lemma 4.9 की तरह generating function multiplication identity सुनिश्चित करता है
    • ChatGPT preprint के standard Lemma 2.3 के अनुसार, इस निर्माण को एक निश्चित degree के Freiman isomorphism के माध्यम से integers के interval के subset में ले जाया जा सकता है
    • पर्याप्त बड़े मामलों में पूरा निर्माण काम करता है
  • परिशिष्ट 3: Rajagopal शोधपत्र और ChatGPT preprint का correspondence

    • Rajagopal शोधपत्र का Section 4.2 अधिक सरल निर्माण का उपयोग करके ऐसे सेट बनाता है जो विशिष्ट values हासिल करते हैं
    • ये सेट ऐसे interval के subset हैं जिनके elements polynomial आकार के हैं, और इस तथ्य को ChatGPT preprint के Section 5 में देखा गया है
    • Rajagopal शोधपत्र का Section 4.3 कई components को मिलाने वाला मुख्य निर्माण करता है, और यह ChatGPT preprint के Sections 2, 3, 4, 6 के अनुरूप है
    • Rajagopal शोधपत्र का Section 4.3.1 इस हिस्से का overview देता है, जिसमें कई moving parts हैं
    • Rajagopal शोधपत्र का Section 4.3.2 components को जोड़ने का तरीका समझाता है, और Rajagopal इसे disjoint union कहते हैं
    • generating function को bookkeeping tool के रूप में प्रस्तुत किया जाता है ताकि सेटों के union के आकार को track किया जा सके, और यह ChatGPT preprint के Section 2 और Section 4 के अनुरूप है
    • Rajagopal शोधपत्र का Section 4.3.3 प्रत्येक component सेट के generating function की गणना करता है, और इसमें Lemma 4.15 तथा Lemma 4.17 शामिल हैं
    • यह ChatGPT preprint के Section 3 और Section 6.1 के अनुरूप है, और ChatGPT preprint में एक generating function की गणना Lemma 3.3 में तथा दूसरे generating function की गणना Lemma 3.4 में की गई है
    • generating function की गणना के बाद शेष प्रमाण Rajagopal शोधपत्र और ChatGPT preprint में लगभग समान है
    • Rajagopal शोधपत्र का Section 4.3.4 यह दिखाता है कि निर्मित सेटों को बदलने पर union के आकार के मान सभी संभव मान ग्रहण करते हैं
    • मुख्य बिंदु यह है कि संभव मानों का सेट एक interval बनाता है, और उसमें किसी विशेष threshold value से छोटे तथा उसके बराबर सभी संख्याएँ शामिल होती हैं

1 टिप्पणियां

 
GN⁺ 3 시간 전
Hacker News की राय
  • 5.5 Pro को थोड़ी देर इस्तेमाल करने का अनुभव इससे मेल खाता है। पहली बार लगा कि यह ऐसा LLM है जिसे उबाऊ लेकिन साफ़ समस्या को सच में हल करने के लिए धकेला जा सकता है
    यह अब भी बहुत गलतियाँ करता है और इसे बहुत कसकर निर्देश देना पड़ता है, लेकिन दूसरे मॉडलों के विपरीत अपनी ही reasoning का पीछा करते हुए खुद को सुधारने की इसकी क्षमता काफ़ी अच्छी है
    कमी इसकी लागत है। यह पागलों की तरह tokens खाता है, token की कीमत भी महंगी है, और बड़ी समस्या को ऊँची accuracy से हल कराने के लिए sub-agent flow इस्तेमाल करें तो और महंगा पड़ता है
    बड़े पैमाने की समस्याओं में context limit की वजह से यह काफ़ी धीमा भी हो जाता है। हर हिस्से के लिए context फिर से खोजना पड़ता है, और accuracy के लिए अगले छोटे हिस्से पर जाने से पहले context साफ़ करना पड़ता है या और agents चलाने पड़ते हैं
    अगर समस्या गणितीय proof जैसी हो, जहाँ समस्या और proof को समझने के लिए अतिरिक्त context छोटा हो और “महत्वपूर्ण” हो, तो यह ठीक हो सकता है, लेकिन बड़े codebase में code correctness जाँचना या सूक्ष्म assumptions verify करना—इनमें इसकी स्पष्ट सीमाएँ हैं
    इसलिए अगर आप उन भाग्यशाली लोगों में नहीं हैं जो 5.5 Pro को unlimited इस्तेमाल कर सकते हैं, तो ऐसे मॉडलों की प्रभावशाली क्षमता प्रोग्रामर की रोज़मर्रा की ज़िंदगी में घुलने-मिलने में अभी कुछ समय लेगी

  • यह लंबी और तकनीकी लेख है, जिसमें गणित के हिस्से और दार्शनिक हिस्से मिले हुए हैं, लेकिन खास तौर पर असरदार बात यह है कि शुरुआती PhD छात्र का प्रशिक्षण अब और कठिन हो गया है
    पहले अपेक्षाकृत आसान research problems देकर शुरुआत करवाई जा सकती थी, लेकिन अगर LLM ऐसे “आसान problems” हल कर सकता है तो वह विकल्प अब नहीं बचता
    गणित में योगदान की निचली सीमा अब “जिसे अभी तक किसी ने prove नहीं किया और जो interesting है” नहीं, बल्कि “जिसे LLM prove नहीं कर सकता” बन जाती है
    फिर भी training की शुरुआत basics से ही करनी होगी। हर कोई छोटे integers का जोड़ सीखकर शुरू करता है, और calculator तो बहुत पहले से यह बिना गलती किए कर रहा है
    लेख के दूसरे हिस्सों की तरह, कठिन समस्याएँ खुद हल करनी पड़ती हैं ताकि problem-solving process पर insight मिले, और जिसने पहले से कठिन समस्याएँ हल की हों, उसके AI का बेहतर उपयोग करने की संभावना अधिक है
    coding ऐसी चीज़ें बनाना है जिन्हें लोग पैसे कमाने के लिए इस्तेमाल करेंगे, इसलिए AI से तेज़ deliver करके नौकरी बनाए रखी जा सकती है, लेकिन गणित को भी उसी तरह देखा जा सकता है या नहीं, यह स्पष्ट नहीं है
    अगर LLM ने सारे मुख्य ideas और तकनीकी काम कर दिए और गणितज्ञ ने सिर्फ उपयोगी तरीके से दिशा दी, तो क्या उसे गणितज्ञ की बड़ी उपलब्धि माना जाए—यह संदिग्ध है

    • कठिन समस्या खुद हल करने से न सिर्फ दूसरी समस्याएँ बेहतर हल होती हैं, बल्कि उस समस्या की समझ भी बहुत गहरी हो जाती है
      कंपनियों में भी लोग LLM को काम सौंपते हैं तो नतीजा हमेशा बुरा नहीं होता और कभी-कभी स्वीकार्य भी होता है, लेकिन वह उस व्यक्ति का काम नहीं होता
      इसलिए लेखक न तो उस काम को दूसरों से बेहतर जानता या समझता है, न उसे own कर सकता है, न समझा सकता है। वह सचमुच सिर्फ एक पास-थ्रू पॉइंट बनकर रह जाता है, इसलिए उसकी value खत्म हो जाती है
    • शायद उसे भी बड़ी उपलब्धि माना जाना चाहिए
    • लगता है दो मुख्य बातें थोड़ी छूट गईं। basics से सीखना सही है, लेकिन किसी बिंदु पर—मान लें PhD शुरू करते समय—आपको basic learning नहीं बल्कि research करनी होती है
      अगर LLM “आसान research” ही हल कर दे, तो वह process और कठिन हो जाती है
      जैसे छोटे शेर दूसरे छोटे शेरों से लड़ते-खेलते हुए आगे की शिकार सीखते हैं, लेकिन अगर अचानक TikTok आ जाए और वे खेलना बंद कर दें, तो पहली शिकार बहुत कठिन होगी
      AI से तेज़ deliver करके पैसा कमाना सही है, लेकिन यह अच्छा coder बनने की समस्या से अलग है। अगर आप अच्छे coder नहीं बनते, तो आप बस खराब vibe coder बने रहेंगे
    • क्या यह सच में इतना महत्वपूर्ण है? और दार्शनिक रूप से यह पुराने computer-assisted proofs से कितना अलग है?
  • Baez की दिलचस्प बात यह है कि विचार और गहरे ideas की value आती कहाँ से है
    अगर वह value मुख्यतः scarcity से आती है—यानी किसी idea तक पहुँचना मुश्किल होने से—तो idea production के automate होते ही उसकी value तेज़ी से गिर सकती है
    लेकिन अगर value idea की utility से आती है—यानी वह idea क्या लाभ देता है—तो बात अलग है। अधिक और बेहतर ideas बनाना उल्टा और अच्छा हो सकता है
    हो सकता है गणितज्ञों को scarcity economy से abundance economy की तरफ़ बदलाव के साथ खुद को ढालना पड़े
    https://gowers.wordpress.com/2026/05/08/a-recent-experience-...

    • गणितज्ञों के तीन प्रकार होते हैं। पहले हैं शुद्ध problem solvers, जिनका प्रतिनिधित्व Tao करते हैं, और इनके लिए currency दिलचस्प problems और उनके solutions हैं
      दूसरे हैं शुद्ध theory builders, जिनका प्रतिनिधित्व Conway करते हैं; उन्हें theorems से ज़्यादा theory और ideas में रुचि होती है और वे गणित का इलाका बढ़ाना चाहते हैं
      तीसरे हैं applied mathematicians, जो गणित को लक्ष्य नहीं बल्कि साधन मानते हैं, और गणित के बाहर की समस्याओं को गणित से हल करना चाहते हैं
      पहली श्रेणी के problem solvers को AI से सबसे तात्कालिक ख़तरा दिखता है। हालांकि अभी AI नई conjectures खोजने से ज़्यादा problem solving में मज़बूत है
      दूसरी श्रेणी के theory builders को ख़तरा अधिक दूर के भविष्य में है। अभी तक AI की नई और रोचक mathematical ideas देने की क्षमता सीमित है, और ऐसे काम के लिए उसे train कैसे किया जाए, यह भी किसी को नहीं पता
      तीसरी श्रेणी को AI से सबसे ज़्यादा लाभ मिल सकता है। अगर AI उनके mathematical questions का जवाब दे दे, तो वे गणित पर कम समय लगाकर उन बाहरी समस्याओं पर ज़्यादा ध्यान दे सकते हैं जिन्हें वे गणित से हल करना चाहते थे
    • लगता है नई चीज़ों को धक्का देने वाले हमेशा वही online pundits होते हैं। महान विद्वानों के मामले में भी यही दिखता है
      दूसरी ओर Wiles और Perelman online दुनिया से दूर रहे और असली समस्याएँ हल कीं
  • भौतिकी के प्रोफ़ेसर के रूप में मैं papers जाँचने के लिए Gemini का अक्सर उपयोग करता हूँ, और यह एक शक्तिशाली tool है
    इसने ऐसे clerical errors पकड़े हैं जैसे complex equations में imaginary unit छूट जाना, जिन्हें मैं कई दिनों तक नहीं ढूँढ़ पाया था, और यह अक्सर concepts और ideas के बीच वे connections भी दिखा देता है जो मेरी नज़र से छूट गए थे
    लेकिन यह conceptual errors भी अक्सर करता है, और मैं उन्हें सिर्फ इसलिए पकड़ पाता हूँ क्योंकि विषय को अच्छी तरह जानता हूँ। उदाहरण के लिए, 3D Clifford algebra में यह बार-बार bivector के exponent और pseudoscalar के exponent को गड़बड़ा देता है
    मुझे यक़ीन है कि ChatGPT 5.5 Pro publishable paper बना सकता है, लेकिन Gemini को अब तक जितना देखा है, उससे LLM को papers और किताबें फटाफट पढ़ जाने वाले बेहद कुशल छात्र की तरह देखना बेहतर लगता है, जिसे अभी भी बहुत मार्गदर्शन चाहिए

    • ऊपर का अनुभव GPT-5.5 Pro जैसे Deep Think mode का नहीं बल्कि “सामान्य” Gemini 3.1 Pro का लगता है। सामान्य 3.1 Pro एक स्तर नीचे है और इसमें गलतियाँ अधिक होती हैं
      और 3–4 साल पहले तक LLM high-school math भी भरोसे से हल नहीं कर पाते थे, इसलिए उनकी प्रगति अचानक रुकने का कोई कारण नहीं दिखता
      CritPt benchmark unpublished research-level physics problems से बना है, इसलिए इसे ट्रैक करना दिलचस्प होगा
      https://critpt.com/
      frontier models अभी भी समाधान से काफ़ी दूर हैं, लेकिन प्रगति तेज़ है। o3 high 1.5 साल पहले 1.4% पर था, GPT 5.4 xhigh 23.4%, GPT-5.5 xhigh 27.1%, और GPT-5.5 Pro xhigh 30.6% है
      https://artificialanalysis.ai/evaluations/critpt
    • “mentoring” जैसा शब्द anthropomorphizing है, और यह अनजाने में हमें यह सोचने पर मजबूर करता है कि model कुछ सीख रहा होगा। वास्तव में वह नहीं सीखता, और LLM जैसी बुद्धिमान दिखने वाली चीज़ वास्तव में नहीं सीखती—यह बात लगातार याद रखना इंसानों के लिए काफ़ी मुश्किल है
      मैं भी यह गलती बार-बार करता हूँ
      custom prompts और instructions से LLM की memory को manually manage करना झुंझलाहट का एक कारण है
      मैंने long-term memory feature अभी ठीक से इस्तेमाल नहीं किया है, लेकिन prompt से भी कम भरोसेमंद लगेगा। 1–2 साल में इतनी चीज़ें बदल जाएँगी कि उस “memory” को कई बार फिर से बनाना पड़ सकता है
    • LLM तब सबसे अच्छा काम करता है जब output को लेकर आपकी कुछ expectations हों। आम तौर पर अगर आपको सही जवाब का आकार-पैटर्न पता है, तो आप line-by-line नहीं बल्कि sense के आधार पर evaluate कर सकते हैं
      expectation न हो तो आपको सब कुछ face value पर लेना पड़ता है, और उसी क्षण आप मशीन की दया पर होते हैं
    • मैं physics professor नहीं हूँ, लेकिन senior engineer स्तर पर tools इस्तेमाल करने का तरीका कुछ ऐसा ही है
      आप अपने fundamentals साथ लाते हैं, उतावले agents की sanity check करते हैं, और कोशिश करते हैं कि दूसरे लोग भी वही कर सकें, इसलिए उनमें भी वही fundamentals डाले जाएँ
      आखिरकार यही एकमात्र तरीका लगता है जिससे पूरी चीज़ काम कर सकती है। जब तक कभी कंपनियाँ छोटे और किफ़ायती local models पर शिफ्ट न हो जाएँ
    • LLM काम को बहुत सुंदर और विश्वसनीय अंदाज़ में पेश करता है और कहता है कि अगर जारी रखो तो और भी कर देगा
      सही होने की संभावना और आपको चट्टान से कूदवा देने की संभावना लगभग आधी-आधी होती है, लेकिन यात्रा हमेशा खूबसूरत 5-star अनुभव जैसी पैक होकर आती है
      गलती पकड़कर LLM को बताओ तो अक्सर स्थिति और बदतर हो जाती है। LLM खुश करने की कोशिश में माफ़ी माँगता है और दिशा बदल देता है
      ऐसी स्थिति में मैं आम तौर पर session save या cancel करके बिल्कुल शुरुआत से फिर शुरू करता हूँ, या जानबूझकर दिशा बदल देता हूँ
      मेरे लिए Gemini सबसे कम predictable LLM है, और overall GPT सबसे बेहतर fit बैठता है
      हाल ही में Gemini ने एक ही सवाल के दो अलग जवाब दिए। यह जानबूझकर नई chat खोलकर वही prompt paste करके किया गया test था
      coding domain में reasoning feature उतनी मददगार नहीं लगती। LLM की explanations बहुत high-level होती हैं और औपचारिक रूप से सही लगती हैं
      LLM की वजह से मैं उल्टा और ज़्यादा googling करने लगा हूँ। अंत में कोई मेरे लिए कुछ बना देता है, जिसे button दबाने से पहले मुझे खुद verify करना पड़ता है—और वह चमकदार button सच में चलेगा या नरक की ओर ले जाएगा, यह थोड़ी देर बाद ही पता चलता है
  • अगर किसी गणितज्ञ ने LLM के साथ लंबी बातचीत की, उपयोगी दिशा दी, लेकिन तकनीकी काम और मुख्य ideas सब LLM ने किए, तो इसे गणितज्ञ की बड़ी उपलब्धि माना जाए या नहीं—यह सांस्कृतिक चयन है
    मौजूदा गणितीय संस्कृति में इसका अटपटा लगना स्वाभाविक है, लेकिन दूसरे क्षेत्रों या बहुत से लोगों के लिए इसमें इंसान की बड़ी उपलब्धि दिख सकती है
    जब तक human-AI collaboration सबसे अच्छे परिणाम दे रही है, तब तक इंसान का meaningful contribution मौजूद है, और कोई गहरा expert तथा कुशल LLM handler बड़ा योगदान दे सकता है
    असली बदलाव तब आएगा जब pure AI, इंसान और human-AI collaboration—दोनों को पीछे छोड़ देगी

    • car racing में performance का अधिकांश हिस्सा car से आता है, फिर भी हम driver की तारीफ़ करते हैं। जब दो cars की performance मिलती-जुलती हो, तो driver की brilliance या गलती फ़र्क बनाती है। horse riding भी कुछ ऐसी ही है
      गणित में भी इंसान LLM को सही रास्ते पर रख सकता है, उसे किसी खास problem या दूसरी problem की ओर मोड़ सकता है, इसलिए वह कुछ श्रेय का हकदार है
      car बनाने वाली टीम, horse की देखभाल करने वाला, या AI बनाने वाली टीम शायद ज़्यादा बड़े श्रेय के पात्र हों, लेकिन हम आम तौर पर सबसे दिखने वाले एक व्यक्ति पर ज़्यादा ध्यान देते हैं
    • यह बात AI images और comedy की याद दिलाती है
      अगर image लोगों को हँसाती है, तो prompt डालने वाला व्यक्ति production work का अधिकांश credit नहीं ले सकता, लेकिन शुरुआती idea और कई drafts में से किसी खास नतीजे को चुनने वाली taste का श्रेय उसे मिल सकता है
      अगर किसी गणितज्ञ ने LLM से “किया हुआ” कोई चौंकाने वाला परिणाम हासिल किया, तो prompt देने और दिशा दिखाने के लिए उसे कुछ श्रेय मिलना चाहिए
      लेकिन सवाल यह है कि जैसे पहले व्यक्ति को artist नहीं बल्कि comedian कहा जा सकता है, वैसे क्या वह गणितज्ञ अब भी mathematician है या कुछ और बन गया है
    • अगर किसी ने prompts ढूँढ़ लिए हों या बातचीत automate करके खुले गणितीय प्रश्नों को खंगाल डाला हो, और उससे उपयोगी परिणाम बना हो तथा किसी को नुकसान न पहुँचा हो, तो मैं उसे मूल्यवान मानवीय गतिविधि मानूँगा और उसे पुरस्कृत किया जाना चाहिए
      बस दूसरे गणितज्ञों को जितना reward मिलता है उतना ही दे दिया जाए। हाँ, तब शायद अरबपति गणितज्ञ बहुत होंगे, इसलिए वह reward काफ़ी बड़ा होगा
    • यह गणितज्ञ की बड़ी उपलब्धि न भी हो, फिर भी बड़ा परिणाम तो है
  • “अगर गणित करने का उद्देश्य किसी तरह की अमरता हासिल करना है, तो शायद वह अब बहुत लंबे समय तक संभव न रहे” — यह पंक्ति थोड़ी उदास लगी

    • कल मैंने YouTube पर फिल्म ‘21’ (2008) मुफ्त में देखी
      फिल्म की शुरुआत MIT campus में घूमते छात्रों और उच्च शिक्षा से जुड़े वादों और प्रतिष्ठा से भरी हुई है
      यह समझते ही कि AI को कितना कुछ सौंपा जा सकता है, वैसी ही उदासी महसूस हुई
      [0] - https://youtu.be/0lsUsWdkk0Y?si=TJl7f_b1RcWcDqF8&t=278
    • वह पंक्ति निबंध की सबसे दिलचस्प बात लगी। मुझे वह समय याद आया जब मैंने अकादमिक गणित करियर छोड़ने का फैसला किया था, और 19–20 साल की उम्र में मुझे लगा था कि मैं उस क्षेत्र में विश्व-स्तरीय नहीं बन सकता। और सच में, यह सही था
      अगला विचार था, “मैं किसमें अच्छा हूँ?” और उसके भीतर कम-से-कम यह भी शामिल था, “मैं किस चीज़ में world-class बन सकता हूँ?” या “किसमें बहुत अच्छा हो सकता हूँ?”
      मैंने कभी यह नहीं सोचा कि कोई परिणाम खोजकर, उसका नाम रखकर, और उसे अपने बाद जीवित छोड़कर गणितीय अमरता पाना मेरे लिए पर्याप्त होगा, लेकिन अगर ऐसा सोचा होता तो यह बुरी खबर वैसा ही झटका देती
      फिर भी सीमारेखा पर मैं इस premise से सहमत नहीं हूँ। चाहे कितने भी proof assistants या cluster computing लगें, Riemann hypothesis साबित करने वाली टीम या व्यक्ति मशहूर होगा। कम-से-कम गणित जगत में तो होगा ही
    • पता नहीं यह इतना निराश होने वाली बात है भी या नहीं। मुझे नहीं लगता कि महान गणितज्ञों में से अधिकांश ने वास्तव में अमरता पाने के लिए यह किया था
      शायद बहुतों ने गणित→भौतिकी→इंजीनियरिंग तक जाने वाले अप्रत्यक्ष practical applications को लक्ष्य किया होगा, या बस गणित की सुंदरता और बौद्धिक आनंद के लिए किया होगा
      AI practical applications तक तो पहुँच सकता है, लेकिन बाकी पहलुओं का आनंद अभी भी लिया जा सकता है
    • यही बात हर तरह की मानवीय उपलब्धि पर दोहराई जा सकती है
  • एक graduate student के रूप में यह लेख उदास करने वाला था। मुझे विश्वास रहा है कि मेरा काम मेरे अपने जीवन से आगे, इस ब्रह्मांडीय अनुभव में मिले सीमित समय से परे भी मेरे बारे में कुछ कहेगा
    अमरता की वह भावना graduate school में कूदते समय एक छोटा, अमूर्त बोनस लगती थी, लेकिन AI की वजह से मैं खुद को कम मूल्यवान महसूस करता हूँ

    • जो इस रास्ते पर काफ़ी आगे निकल चुका है, उसकी हैसियत से मैं सावधानी से कहूँगा कि ऐसी सोच छोड़ देना बेहतर है। मैंने बहुत से प्रतिभाशाली और महत्वाकांक्षी लोगों को इसी वजह से depression में जाते देखा है
      यह काम इसलिए करने लायक है क्योंकि आप इसे कर सकते हैं। इसे प्यार की वजह से कीजिए, और mystery से प्यार की वजह से कीजिए
      जब तक आप यह कर सकते हैं, हर पल का आनंद लें। उन लोगों के विपरीत जिन्हें ऐसे कामों में फँसना पड़ता है जो उन्हें संतोष नहीं देते, इस बड़े सौभाग्य में खुशी ढूँढ़ें कि आप यह काम कर सकते हैं
      कभी-कभी यह उबाऊ होता है, लेकिन कभी-कभी अपने आप में अविश्वसनीय रूप से rewarding भी
      लेकिन शाश्वत महिमा की संभावना के लिए काम नहीं करना चाहिए। ऐसी चीज़ अब रही नहीं
    • यह पूरी तरह क़ीमती है। graduate school में skills निखारने से आप इन AI systems को उन लोगों से बेहतर direct कर पाएँगे जिन्होंने लंबे समय तक कठिन समस्याओं से कुश्ती नहीं की है
    • “अगर आप intelligence को बाकी सभी मानवीय गुणों से ऊपर मानेंगे, तो आपका समय कठिन होगा।” - Ilya Sutskever, 2023
    • इस वास्तविकता में सीखने के लिए LLMs की खुद से समझ सकने वाली चीज़ों से कहीं ज़्यादा है। खासकर सत्य, ethics, morality के बारे में, और इस दुनिया से जाते समय आखिर में महत्वपूर्ण भी वही है
      उससे बड़ा challenge कोई नहीं
    • मुझे लगता है कि साहस समय को अजीब वैज्ञानिक breakthroughs से बेहतर पार करता है। ऐसे breakthroughs अक्सर एक व्यक्ति के खाते में लिखे जाते हैं, जबकि उनकी जड़ें बहुत बार उन अनाम “कम महत्वपूर्ण” लोगों में होती हैं
  • पूर्वी यूरोप में theoretical computer science के assistant professor के रूप में, यह देखना हमेशा थोड़ा ईर्ष्याजनक लगता है कि गणित जगत के बड़े नाम महंगे long-reasoning models तक कितनी आसानी से पहुँच रखते हैं
    मौजूदा academic budget के साथ यहाँ Pro के लिए भुगतान करना वास्तविकता से बाहर की बात है। बजट की उपयोग-सीमा तय है और software payments के लिए शायद ही कोई उपयुक्त category होती है
    व्यवहार में आपको नया grant apply करना होगा, उम्मीद करनी होगी कि उसके नियम बड़े software expenses की अनुमति दें, और यह भी कि कोई anti-AI reviewer न मिले। ऐसी प्रक्रिया में कम-से-कम 1 साल लग जाता है
    ऊपर से Microsoft ने Copilot के personal और academic उपयोग पर भी कसाव बढ़ा दिया है, जिससे हाल में Claude Opus access भी बंद हो गया
    ChatGPT 5.5 Plus नई research directions में गहराई से उतरने के लिए पर्याप्त नहीं लगा, और मैंने खुद इसे आज़माया है

    • @NotOscarWilde अपना ईमेल छोड़ दें, मैं आपसे संपर्क करूँगा। मैं OAI में काम करता हूँ और आपको कुछ महीनों तक 5.5 Pro आज़माने के लिए Pro account दिला सकता हूँ
    • हमारे विश्वविद्यालय में भी हाल तक सब लोग AI subscriptions अपनी जेब से भरते थे, जब तक हाल ही में एक साझा AI service शुरू नहीं हुई
      उसे सेट करने में 2 साल लगे, और वह सिर्फ gpt-oss-120b देती है, इसलिए लोग अब भी दूसरी services इस्तेमाल करते हैं
      फिर भी इससे किसी administrator को विश्वविद्यालय की website पर हर जगह “AI” शब्द छिड़कने का मौका मिल जाता है, और “AI तो पहले से है” कहकर AI subscription requests ठुकराने का बहाना भी
    • यह उस सामान्य स्थिति का एक और उदाहरण है जिसमें सबसे फ़ायदेमंद स्थिति में बैठे लोग reward बटोरते रहने की सबसे अच्छी स्थिति में भी बने रहते हैं
      गरीब और अमीर के boots का एक उदाहरण है। गरीब के boots घिसते रहते हैं और उन्हें बार-बार बदलना पड़ता है, जबकि अमीर के boots बेहतर quality के होते हैं और कई साल चलते हैं
      समय बीतने पर गरीब व्यक्ति boots पर ज़्यादा पैसा खर्च कर चुका होता है
    • OpenRouter बिना subscription के सिर्फ per-token billing पर भी उपलब्ध है, और यह Opus 4.7 तथा GPT-5.5 सहित अधिकांश frontier models देता है
      बचत से इस्तेमाल करें तो आम तौर पर काफ़ी सस्ता पड़ता है
    • मेरी जानकारी में ChatGPT 5.5 Pro access 100 डॉलर प्रति माह में मिल सकता है। सोच रहा हूँ कि क्या आपकी जगह और क्षेत्र में यह वास्तव में वहन से बाहर है
      विश्वविद्यालय न भी दे, तब भी अपने लक्ष्यों के लिए आप इसे लेना चाहेंगे, ऐसा लगता है
      आलोचना नहीं कर रहा, बस जानना चाहता हूँ कि क्या वहाँ के अधिकांश researchers के लिए यह सचमुच पूरी तरह पहुँच से बाहर की लागत है
  • लगभग 10 साल पहले Seattle में AMS-MAA joint meeting में मैंने Tim Gowers को बोलते सुना था, जहाँ उन्होंने भविष्यवाणी की थी कि 100 साल बाद इंसान research mathematics नहीं करेंगे। अब सोचता हूँ कि क्या उन्होंने अपनी timeline बदली होगी
    उस समय मुझे लगता था कि MathOverflow जैसे काम करने वाली natural-language search वह मुख्य tool है जो अभी गायब है। यानी आप किसी problem या idea को अपने समझने के तरीके से बयान करें, और वह आपके अनुभव या vocabulary के बाहर की संबंधित literature खोज दे

    • Teichmüller भी सोचता था कि Germany द्वितीय विश्वयुद्ध जीतेगा और वह पूर्वी मोर्चे पर volunteer बन गया था
      महान गणितज्ञ होना सही होना नहीं है। सच तो यह है कि गणितज्ञों के पास कई बार काफ़ी अजीब theories भी होती हैं
  • इस शरद ऋतु higher education में प्रवेश करने वाले छात्रों की भारी बहुमत, अगर research भी करें, तो 4–5 साल बाद ही विज्ञान में बड़ा योगदान दे पाएगी। और अगर PhD के गंभीर चरण तक देखें, तो व्यवहार में 6–7 साल लगते हैं
    5–7 साल पहले के models के स्तर को देखें, तो उस समय PhD के लिए अस्तित्वगत ख़तरे जैसी कोई चीज़ radar पर भी नहीं थी। जो लोग अभी PhD पूरी कर रहे हैं, वे इन tools का सच में उपयोग कर पाने वाली पहली पीढ़ी हैं
    समस्या तब होगी अगर researcher बनने वाले छात्र हार की भावना से ही छोड़ दें, या पूरी तरह AI models पर निर्भर होकर उनसे काम कराने लगें
    PhD positions की funding पर भी यही बात लागू होती है। अगर सहायता “researchers को train करने” से हटकर “results हासिल करने” की तरफ़ चली गई, तो जो पैसा PhD छात्रों पर जाता था, वह computing resources की ओर बह सकता है
    निंदक नज़र से देखें तो कुछ researchers कुछ साल छात्रों को train करने की बजाय computing पर पैसा खर्च करके कहीं अधिक papers निकाल सकते हैं
    समय दिलचस्प है, लेकिन अनिश्चितता बहुत अधिक है। जिन छात्रों को अभी तय करना है कि क्या करें, उनके लिए बुरा लगता है

    • यह पहले से हो रहा है और आगे और तेज़ होगा। graduate school के बाहर भी degree खरीदी जा सकती है
      खासकर नरम विषयों में तो PhD thesis और अच्छा publication record अभी भी खरीदा जा सकता है
      और अगर आप academia में नहीं बल्कि industry में हैं, तो promotion भी खरीदी जा सकती है। अगर employer हर employee को AI budget देता है, तो promotion मिलने तक चुपचाप अपनी जेब से उस budget को दोगुना कीजिए, और promotion के बाद रुककर बड़ी salary का आनंद लीजिए
    • PhD students पहले से AI models का उपयोग करके उनसे काम करा रहे हैं। जितने PhD candidates को मैं जानता हूँ, उनमें से अधिकांश 200 डॉलर प्रति माह वाले Claude Max plan का पूरा उपयोग करते हैं
      साफ़ दिखता है कि वे अब वह research कर पा रहे हैं जो पहले नहीं कर सकते थे
      यह भी दिखता है कि AI use ने code खुद लिखने की क्षमता को कुछ हद तक कमजोर किया है, लेकिन मैं इसे scikit-learn या Pytorch से machine learning models बनाने जैसा ही मानता हूँ
      निचले स्तर की details abstract हो जाती हैं और AI के बिना आप बहुत कुछ नहीं कर पाएँगे, लेकिन research फिर भी वास्तव में उसी व्यक्ति की वजह से होती है; अकेले AI से वह नहीं होती
    • अब तक संस्थाएँ PhD students पर वैसे भी बहुत पैसा नहीं लुटा रही थीं
      वह पैसा लगभग बाद में जोड़ी गई budget line जैसा है, और इतना बड़ा या लुभावना लक्ष्य नहीं कि उसे महँगी दूसरी प्रक्रियाओं के लिए खींच लिया जाए