1 पॉइंट द्वारा GN⁺ 4 일 전 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • primitive set के Erdős sum का न्यूनतम मान 1 है और जैसे-जैसे उसके अवयव अनंत की ओर जाते हैं, उसका मान उसके करीब पहुँचता है—इस पुराने प्रश्न को अब GPT-5.4 Pro द्वारा बनाए गए समाधान से हल माना जा रहा है
  • यह समाधान Liam Price ने एक ही prompt से प्राप्त किया और erdosproblems.com पर अपलोड किया, जिसके बाद Kevin Barreto और विशेषज्ञों की समीक्षा के साथ इसने जल्दी ही ध्यान खींचा
  • इस बार का प्रमाण उस शुरुआती रास्ते से अलग निकला जिसे लोग आम तौर पर चुनते थे, और खास बात यह रही कि संबंधित क्षेत्र का एक ज्ञात सूत्र इस समस्या में अप्रत्याशित रूप से जोड़ा गया
  • ChatGPT का मूल प्रमाण सीधे इस्तेमाल करने लायक नहीं था और काफी कच्चा था; विशेषज्ञों ने उसका सार निकालकर समझा और फिर उसे अधिक छोटा व सुव्यवस्थित रूप दिया
  • यह बात कि प्रसिद्ध गणितज्ञ भी जिस समस्या को हल नहीं कर पाए थे, उसमें LLM का नया approach काम कर गया, बड़े संख्याओं की संरचना को देखने और मिलती-जुलती समस्याओं को साथ समझने के नज़रिए को बदल सकती है

समस्या और समाधान का तरीका

  • primitive set ऐसे पूर्णांकों के समुच्चय को कहते हैं जिसमें किसी भी एक संख्या को दूसरी संख्या पूरी तरह विभाजित नहीं करती
    • Erdős ने ऐसे समुच्चयों के लिए एक Erdős sum परिभाषित किया था, और उनका मानना था कि जैसे-जैसे समुच्चय की संख्याएँ बड़ी होती जाती हैं, यह स्कोर घटता है
    • यह अनुमान लंबे समय से बना हुआ था कि उसका न्यूनतम मान ठीक 1 है, और समुच्चय के अवयव अनंत की ओर बढ़ने पर यह मान उसके करीब पहुँचता है
  • यह समाधान Liam Price ने GPT-5.4 Pro को एक prompt देकर प्राप्त किया और फिर erdosproblems.com पर पोस्ट किया
    • Price को इस समस्या के इतिहास की जानकारी नहीं थी; वे बस Erdős की समस्याएँ AI में डालकर देख रहे थे, तभी उन्हें ऊपर-ऊपर सही लगने वाला समाधान मिला
    • बाद में उन्होंने Kevin Barreto के साथ इसकी समीक्षा की, और जिन विशेषज्ञों से संपर्क किया गया उन्होंने जल्दी ही इस पर ध्यान दिया
  • पहले भी ऐसी खबरें आई थीं कि AI ने कई Erdős problems हल किए हैं, लेकिन समस्याओं का महत्व और कठिनाई एक-दूसरे से बहुत अलग होती है, इसलिए गणितीय क्षमता नापने के पैमाने के रूप में वे दावे अधूरे थे; और कई समाधान देखने में जितने नए लगते थे, उतने वास्तव में नहीं थे
    • इस बार का परिणाम अलग तरह से देखा जा रहा है क्योंकि यह ऐसी समस्या से जुड़ा था जिसे प्रसिद्ध गणितज्ञ भी हल नहीं कर पाए थे, और इसमें ऐसा तरीका अपनाया गया जो इसी तरह की समस्याओं में इस्तेमाल नहीं होता था

इसे अलग क्यों माना जा रहा है

  • लोग इस समस्या को हल करते समय आम तौर पर लगभग एक जैसा शुरुआती approach चुनते थे, लेकिन इस LLM समाधान ने पूरी तरह अलग रास्ता लिया
    • इसने संबंधित गणितीय क्षेत्र का एक जाना-पहचाना सूत्र लिया, लेकिन उसे ऐसी समस्या पर लागू करने का यह संयोजन किसी के दिमाग में नहीं आया था
  • Terence Tao का कहना है कि संभव है समस्या खुद सोच से आसान रही हो, और शुरुआती approach में किसी तरह का mental block रहा हो
  • Jared Lichtman ने कहा कि ChatGPT का मूल प्रमाण अपने मूल रूप में बहुत कच्चा था, और यह समझने के लिए कि वह कहना क्या चाह रहा है, विशेषज्ञों को उसे छांटकर समझना पड़ा
    • अब Lichtman और Tao ने प्रमाण को और छोटा कर दिया है ताकि LLM की मुख्य अंतर्दृष्टि अधिक स्पष्ट रूप से सामने आए
  • यह प्रगति बड़े संख्याओं और उनकी संरचना को देखने के नए सोचने के तरीके तक ले जा सकती है
    • इसकी दीर्घकालिक अहमियत तय करना अभी जल्दबाज़ी होगी, लेकिन इसे इस बात का समर्थन करने वाले तरीके के रूप में देखा जा रहा है कि मिलती-जुलती समस्याएँ दरअसल एक-दूसरे से जुड़ी हुई हैं

1 टिप्पणियां

 
GN⁺ 4 일 전
Hacker News टिप्पणियाँ
  • https://archive.ph/2w4fi

  • Paul Erdős 1900 के दशक के अधिकांश समय तक जीवित रहे, एक बहुत प्रसिद्ध और काफ़ी सनकी गणितज्ञ थे
    उन्हें गणितज्ञों के बीच चल रही समस्याएँ ढूँढकर उनका रिकॉर्ड रखने की आदत थी, और उनकी कठिनाई भी आज के undergraduate homework स्तर से लेकर Fields Medal-स्तर की समस्याओं तक बहुत व्यापक थी
    इन समस्याओं को एक साथ बाँधने वाली मुख्य बात यह है कि पिछले 100 सालों के सबसे बुद्धिमान लोगों में से एक भी इन्हें तुरंत हल नहीं कर पाया
    आजकल LLM से ऐसी समस्याओं के proof बनवाकर benchmark की तरह इस्तेमाल किया जा रहा है, और हर नया मॉडल आने पर उनमें से कुछ और हल हो रही हैं

    • गणितज्ञों की प्रतिक्रियाएँ देखें तो यह Erdős proof काफ़ी विशेष milestone जैसा लगता है
      यह ऐसी समस्या थी जिसे पहले भी कई पेशेवर गणितज्ञ देख चुके थे, और कहा जा रहा है कि निकला हुआ proof चौंकाने वाला, elegant था, और उसने नए connections भी दिखाए
      पहले ChatGPT द्वारा हल किए गए Erdős problems आम तौर पर कम प्रभावशाली थे, और ज़्यादा से ज़्यादा literature search जैसे लगते थे, या फिर अपेक्षाकृत आसान लेकिन उपेक्षित समस्याओं के हल जैसे
      prompt पढ़कर यह भी जिज्ञासा होती है कि अनौपचारिक होना चलेगा जैसी छूट ने सफलता में भूमिका निभाई होगी या नहीं
      [1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
    • लेख में जिस मामले की बात है, वह पहले से अनसुलझी समस्या का हल है, इसलिए स्वाभाविक रूप से यह ज़्यादा कठिन श्रेणी में आता है
  • असली बातचीत में यही prompt था
    इसमें कहा गया था कि internet search मत करो, और number theory and primitive sets समस्या पर कोई non-trivial, नई और रचनात्मक proof या disproof बनाने की कोशिश करो
    एक पूर्ण unconditional proof या disproof माँगा गया था, और फिर से ज़ोर दिया गया था कि ऐसे दावे के लिए असामान्य और रचनात्मक तत्वों की ज़रूरत पड़ सकती है
    और उसके साथ Thought for 80m 17s लगा हुआ था
    https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c

    • 5.5 Pro, Extended Thinking पर चलाकर देखा तो 17 मिनट में,
      इसने कहा कि प्रस्तावित bound सही है और constant 1 sharp है,
      और w(a)= 1/alog(a) तथा uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x)) को prove करने की बात रखी
      इसका दावा था कि यह माँगे गए 1+o(1) से भी मज़बूत निष्कर्ष है
      https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
    • मेरे मामले में Pro पर 20 मिनट लगे
      https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
      लेकिन यह सच में सही proof है या नहीं, इतना गणित मुझे नहीं आता कि तय कर सकूँ
    • वही prompt free plan पर आज़माया, तो नतीजा उससे काफ़ी कमज़ोर था
  • विज्ञान की प्रगति अक्सर तब हुई है जब एक क्षेत्र की technique X को दूसरे क्षेत्र की समस्या Y पर लगाया गया, और LLM ऐसे क्षेत्रों के बीच connections बनाने में इंसानों से बेहतर लगते हैं
    क्योंकि वे किसी एक इंसान की जानकारी से कहीं ज़्यादा theories और approaches जानते हैं, और उन्हें यह चिंता भी नहीं होती कि साथियों के सामने मूर्ख दिखेंगे

    • मेरे हिसाब से reasoning यही है
      ज्ञान को generalize करना और उसे दूसरे domains में लागू करना
    • बौद्धिक काम का बड़ा हिस्सा वास्तव में intellectual labor के ज़्यादा क़रीब है, यानी कई जानकारियों को एक जगह जोड़ना
      इस काम में LLM इंसानों से बहुत बेहतर हैं, और ऐसा भी लगता है कि लोग परंपरागत रूप से इसे ग़लती से creativity मानते रहे हैं
    • मैं ख़ुद भी इसे इसी तरह इस्तेमाल कर रहा हूँ
      यह नहीं कह सकता कि कोई बहुत बड़ा breakthrough मिला है, लेकिन whitepaper में लिखे जा सकने वाले insight जैसी चीज़ें कुछ बार मिली हैं
      अलग-अलग क्षेत्रों के बीच correlations जोड़ने की यह प्रक्रिया अपने आप में LLM experiment के रूप में काफ़ी मज़ेदार है
    • सभ्यता ने काफ़ी हद तक left-brained/sequential/language based तरीक़े से आगे बढ़त बनाई है, और computer तथा AI उसकी पराकाष्ठा जैसे लगते हैं
      मैं भी बचपन में पूरे पेज को एक साथ पढ़ने जैसा करता था, फिर किसी बिंदु पर शब्द-दर-शब्द, पंक्ति-दर-पंक्ति पढ़ने में बदल गया, और वही mode स्थिर हो गया
      कॉलेज के दिनों में एक समय ऐसा भी था जब मेरे गणित के क्षेत्र में कुछ अधिक गहरी, व्यापक और non-linear समझ खुलती हुई लगी, लेकिन वह left-brain skill थी या right-brain की ज़्यादा भागीदारी, यह नहीं जानता
      sequential सोच में LLM स्पष्ट रूप से हमसे आगे निकलेंगे, तो क्या इंसानों को बची हुई right-brainness की ओर और धक्का देना चाहिए, या AI वहाँ भी हमसे पहले पहुँच जाएगा—यह सोचने लायक है
    • एक क्षेत्र की technique को दूसरे क्षेत्र में लागू करने का प्रतिनिधि उदाहरण देखना हो तो Langlands project देख सकते हैं
  • AI मेरा सबसे पसंदीदा अजीब सहयोगी है

  • कुछ Erdős problems बाद में विकसित हुई परिष्कृत techniques से देखने पर लगभग तुच्छ जैसी लगने लगती हैं
    मेरे एक professor, जिन्होंने Erdős के साथ सह-लेखन किया था, बड़े गर्व से बताते थे कि वे एक Erdős problem, जो कुछ समय तक unsolved रही थी, को undergraduate quiz question के रूप में दे सकते थे

    • इस संदर्भ में एक बात और जोड़ूँ तो, उन समस्याओं को पहले ही लगभग सब LLM पर चलाकर देखा जा चुका है
      इसलिए यह मामला इस बात का सबूत लगता है कि मॉडल वास्तव में अधिक शक्तिशाली हुआ है
      क्योंकि पिछली पीढ़ी के LLM यह समस्या हल नहीं कर पाए थे
    • Tao के अनुसार, इस समस्या के लिए मौजूदा standard approach बंद गली जैसी दिखती है, लेकिन साथ ही इतनी स्वाभाविक भी थी कि कोई भी पहले वही कोशिश करता
      इसलिए यह परिणाम और भी आशाजनक लगता है
      क्योंकि अब समान समस्याओं पर परखने लायक एक नई approach line मिल गई है
  • इस बिंदु पर तो अच्छा होगा कि एक GitHub repo बनाया जाए, जिसमें ढेर सारी अनसुलझी dry lab समस्याएँ डाली जाएँ, और हर नया मॉडल आने पर सब पर चलाने के लिए एक harness बना हो

    • वास्तव में Terence Tao और दूसरे गणितज्ञ ऐसा repository चला रहे हैं, और LLM से solutions खोजने के लिए actively इस्तेमाल भी कर रहे हैं
      [1] https://github.com/teorth/erdosproblems
    • वह तो शाब्दिक रूप से Erdős problems ही है
      यह पोस्ट भी उन्हीं में से एक के हल हो जाने की कहानी है
  • ChatGPT का मूल proof वास्तव में काफ़ी ख़राब था, और किसी विशेषज्ञ को उसे छानकर यह समझना पड़ा कि वह कहना क्या चाहता है — यह पंक्ति पढ़कर वही भावना आई जो गणित के paper पढ़ते समय हमेशा आती है

  • अगर यह 60 साल पुरानी समस्या थी, तो क्या यह संभव नहीं कि वह पहले ही परोक्ष रूप से हल हो चुकी हो और मॉडल ने बस कई जानकारियों को cross-reference करके उसे ढूँढ निकाला हो?
    साइट देखकर लगा कि इंसानों द्वारा पहले की गई चर्चा के निशान लगभग नहीं हैं, और हाल की टिप्पणियाँ भी बस यही कहती दिखीं कि GPT ने इसे खोजा
    60 साल पुरानी समस्या के लिए मुझे लगा था कि इससे कहीं पुरानी चर्चाएँ मिलेंगी, इसलिए सोच रहा हूँ कि मैं क्या मिस कर रहा हूँ
    फिर भी यह शानदार खोज है, और शायद ऐसे और भी मामले हों जिन्हें इसी तरह GPT से दोबारा जाँचना चाहिए

  • इंसान भी, और इंसानों द्वारा बनाई गई मशीनें भी, ज़्यादातर समस्याएँ संचयी तरीके से हल करती हैं
    वे मौजूदा नींव पर लगातार परतें चढ़ाती जाती हैं, इसलिए पहिया दोबारा न बनाने की प्रवृत्ति के कारण सोचने का ढाँचा जकड़ सकता है
    इसलिए अगर एक naïve LLM ने ऐसा approach दिया हो जिसे विशेषज्ञों ने नहीं आज़माया, तो यह बहुत चौंकाने वाली बात नहीं है
    ऐसे सीमित मामलों में LLM दूसरे approaches सुझाने वाले उपकरण के रूप में काफ़ी उपयोगी हो सकते हैं, और उनका बिल्कुल सही होना भी ज़रूरी नहीं—बस वे विकल्प देकर पूरी दिशा हिला दें, इतना काफ़ी है
    हालाँकि इस Erdős problem का व्यावहारिक मूल्य क्या है, यह मुझे ठीक से नहीं पता
    अगर कोई पूछे कि क्या यह इस बात का प्रमाण है कि LLM बेकार चीज़ नहीं हैं, तो वह मुझे कुछ वैसा लगता है जैसे 1928 में यह पूछना कि क्या number theory में लाखों डॉलर निवेश करने चाहिए
    उस समय शायद जवाब होता, नहीं, और मेरे दफ़्तर से बाहर निकलो