ChatGPT का इस्तेमाल कर एक शौकिया ने Erdős की समस्या हल की
(scientificamerican.com)- primitive set के Erdős sum का न्यूनतम मान 1 है और जैसे-जैसे उसके अवयव अनंत की ओर जाते हैं, उसका मान उसके करीब पहुँचता है—इस पुराने प्रश्न को अब GPT-5.4 Pro द्वारा बनाए गए समाधान से हल माना जा रहा है
- यह समाधान Liam Price ने एक ही prompt से प्राप्त किया और erdosproblems.com पर अपलोड किया, जिसके बाद Kevin Barreto और विशेषज्ञों की समीक्षा के साथ इसने जल्दी ही ध्यान खींचा
- इस बार का प्रमाण उस शुरुआती रास्ते से अलग निकला जिसे लोग आम तौर पर चुनते थे, और खास बात यह रही कि संबंधित क्षेत्र का एक ज्ञात सूत्र इस समस्या में अप्रत्याशित रूप से जोड़ा गया
- ChatGPT का मूल प्रमाण सीधे इस्तेमाल करने लायक नहीं था और काफी कच्चा था; विशेषज्ञों ने उसका सार निकालकर समझा और फिर उसे अधिक छोटा व सुव्यवस्थित रूप दिया
- यह बात कि प्रसिद्ध गणितज्ञ भी जिस समस्या को हल नहीं कर पाए थे, उसमें LLM का नया approach काम कर गया, बड़े संख्याओं की संरचना को देखने और मिलती-जुलती समस्याओं को साथ समझने के नज़रिए को बदल सकती है
समस्या और समाधान का तरीका
- primitive set ऐसे पूर्णांकों के समुच्चय को कहते हैं जिसमें किसी भी एक संख्या को दूसरी संख्या पूरी तरह विभाजित नहीं करती
- Erdős ने ऐसे समुच्चयों के लिए एक Erdős sum परिभाषित किया था, और उनका मानना था कि जैसे-जैसे समुच्चय की संख्याएँ बड़ी होती जाती हैं, यह स्कोर घटता है
- यह अनुमान लंबे समय से बना हुआ था कि उसका न्यूनतम मान ठीक 1 है, और समुच्चय के अवयव अनंत की ओर बढ़ने पर यह मान उसके करीब पहुँचता है
- यह समाधान Liam Price ने GPT-5.4 Pro को एक prompt देकर प्राप्त किया और फिर erdosproblems.com पर पोस्ट किया
- Price को इस समस्या के इतिहास की जानकारी नहीं थी; वे बस Erdős की समस्याएँ AI में डालकर देख रहे थे, तभी उन्हें ऊपर-ऊपर सही लगने वाला समाधान मिला
- बाद में उन्होंने Kevin Barreto के साथ इसकी समीक्षा की, और जिन विशेषज्ञों से संपर्क किया गया उन्होंने जल्दी ही इस पर ध्यान दिया
- पहले भी ऐसी खबरें आई थीं कि AI ने कई Erdős problems हल किए हैं, लेकिन समस्याओं का महत्व और कठिनाई एक-दूसरे से बहुत अलग होती है, इसलिए गणितीय क्षमता नापने के पैमाने के रूप में वे दावे अधूरे थे; और कई समाधान देखने में जितने नए लगते थे, उतने वास्तव में नहीं थे
- इस बार का परिणाम अलग तरह से देखा जा रहा है क्योंकि यह ऐसी समस्या से जुड़ा था जिसे प्रसिद्ध गणितज्ञ भी हल नहीं कर पाए थे, और इसमें ऐसा तरीका अपनाया गया जो इसी तरह की समस्याओं में इस्तेमाल नहीं होता था
इसे अलग क्यों माना जा रहा है
- लोग इस समस्या को हल करते समय आम तौर पर लगभग एक जैसा शुरुआती approach चुनते थे, लेकिन इस LLM समाधान ने पूरी तरह अलग रास्ता लिया
- इसने संबंधित गणितीय क्षेत्र का एक जाना-पहचाना सूत्र लिया, लेकिन उसे ऐसी समस्या पर लागू करने का यह संयोजन किसी के दिमाग में नहीं आया था
- Terence Tao का कहना है कि संभव है समस्या खुद सोच से आसान रही हो, और शुरुआती approach में किसी तरह का mental block रहा हो
- Jared Lichtman ने कहा कि ChatGPT का मूल प्रमाण अपने मूल रूप में बहुत कच्चा था, और यह समझने के लिए कि वह कहना क्या चाह रहा है, विशेषज्ञों को उसे छांटकर समझना पड़ा
- अब Lichtman और Tao ने प्रमाण को और छोटा कर दिया है ताकि LLM की मुख्य अंतर्दृष्टि अधिक स्पष्ट रूप से सामने आए
- यह प्रगति बड़े संख्याओं और उनकी संरचना को देखने के नए सोचने के तरीके तक ले जा सकती है
- इसकी दीर्घकालिक अहमियत तय करना अभी जल्दबाज़ी होगी, लेकिन इसे इस बात का समर्थन करने वाले तरीके के रूप में देखा जा रहा है कि मिलती-जुलती समस्याएँ दरअसल एक-दूसरे से जुड़ी हुई हैं
1 टिप्पणियां
Hacker News टिप्पणियाँ
https://archive.ph/2w4fi
Paul Erdős 1900 के दशक के अधिकांश समय तक जीवित रहे, एक बहुत प्रसिद्ध और काफ़ी सनकी गणितज्ञ थे
उन्हें गणितज्ञों के बीच चल रही समस्याएँ ढूँढकर उनका रिकॉर्ड रखने की आदत थी, और उनकी कठिनाई भी आज के undergraduate homework स्तर से लेकर Fields Medal-स्तर की समस्याओं तक बहुत व्यापक थी
इन समस्याओं को एक साथ बाँधने वाली मुख्य बात यह है कि पिछले 100 सालों के सबसे बुद्धिमान लोगों में से एक भी इन्हें तुरंत हल नहीं कर पाया
आजकल LLM से ऐसी समस्याओं के proof बनवाकर benchmark की तरह इस्तेमाल किया जा रहा है, और हर नया मॉडल आने पर उनमें से कुछ और हल हो रही हैं
यह ऐसी समस्या थी जिसे पहले भी कई पेशेवर गणितज्ञ देख चुके थे, और कहा जा रहा है कि निकला हुआ proof चौंकाने वाला, elegant था, और उसने नए connections भी दिखाए
पहले ChatGPT द्वारा हल किए गए Erdős problems आम तौर पर कम प्रभावशाली थे, और ज़्यादा से ज़्यादा literature search जैसे लगते थे, या फिर अपेक्षाकृत आसान लेकिन उपेक्षित समस्याओं के हल जैसे
prompt पढ़कर यह भी जिज्ञासा होती है कि
अनौपचारिक होना चलेगाजैसी छूट ने सफलता में भूमिका निभाई होगी या नहीं[1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
असली बातचीत में यही prompt था
इसमें कहा गया था कि internet search मत करो, और number theory and primitive sets समस्या पर कोई non-trivial, नई और रचनात्मक proof या disproof बनाने की कोशिश करो
एक पूर्ण unconditional proof या disproof माँगा गया था, और फिर से ज़ोर दिया गया था कि ऐसे दावे के लिए असामान्य और रचनात्मक तत्वों की ज़रूरत पड़ सकती है
और उसके साथ
Thought for 80m 17sलगा हुआ थाhttps://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
इसने कहा कि प्रस्तावित bound सही है और constant 1 sharp है,
और
w(a)= 1/alog(a)तथाuniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))को prove करने की बात रखीइसका दावा था कि यह माँगे गए
1+o(1)से भी मज़बूत निष्कर्ष हैhttps://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
लेकिन यह सच में सही proof है या नहीं, इतना गणित मुझे नहीं आता कि तय कर सकूँ
विज्ञान की प्रगति अक्सर तब हुई है जब एक क्षेत्र की technique X को दूसरे क्षेत्र की समस्या Y पर लगाया गया, और LLM ऐसे क्षेत्रों के बीच connections बनाने में इंसानों से बेहतर लगते हैं
क्योंकि वे किसी एक इंसान की जानकारी से कहीं ज़्यादा theories और approaches जानते हैं, और उन्हें यह चिंता भी नहीं होती कि साथियों के सामने मूर्ख दिखेंगे
ज्ञान को generalize करना और उसे दूसरे domains में लागू करना
इस काम में LLM इंसानों से बहुत बेहतर हैं, और ऐसा भी लगता है कि लोग परंपरागत रूप से इसे ग़लती से creativity मानते रहे हैं
यह नहीं कह सकता कि कोई बहुत बड़ा breakthrough मिला है, लेकिन whitepaper में लिखे जा सकने वाले insight जैसी चीज़ें कुछ बार मिली हैं
अलग-अलग क्षेत्रों के बीच correlations जोड़ने की यह प्रक्रिया अपने आप में LLM experiment के रूप में काफ़ी मज़ेदार है
मैं भी बचपन में पूरे पेज को एक साथ पढ़ने जैसा करता था, फिर किसी बिंदु पर शब्द-दर-शब्द, पंक्ति-दर-पंक्ति पढ़ने में बदल गया, और वही mode स्थिर हो गया
कॉलेज के दिनों में एक समय ऐसा भी था जब मेरे गणित के क्षेत्र में कुछ अधिक गहरी, व्यापक और non-linear समझ खुलती हुई लगी, लेकिन वह left-brain skill थी या right-brain की ज़्यादा भागीदारी, यह नहीं जानता
sequential सोच में LLM स्पष्ट रूप से हमसे आगे निकलेंगे, तो क्या इंसानों को बची हुई right-brainness की ओर और धक्का देना चाहिए, या AI वहाँ भी हमसे पहले पहुँच जाएगा—यह सोचने लायक है
AI मेरा सबसे पसंदीदा अजीब सहयोगी है
कुछ Erdős problems बाद में विकसित हुई परिष्कृत techniques से देखने पर लगभग तुच्छ जैसी लगने लगती हैं
मेरे एक professor, जिन्होंने Erdős के साथ सह-लेखन किया था, बड़े गर्व से बताते थे कि वे एक Erdős problem, जो कुछ समय तक unsolved रही थी, को undergraduate quiz question के रूप में दे सकते थे
इसलिए यह मामला इस बात का सबूत लगता है कि मॉडल वास्तव में अधिक शक्तिशाली हुआ है
क्योंकि पिछली पीढ़ी के LLM यह समस्या हल नहीं कर पाए थे
इसलिए यह परिणाम और भी आशाजनक लगता है
क्योंकि अब समान समस्याओं पर परखने लायक एक नई approach line मिल गई है
इस बिंदु पर तो अच्छा होगा कि एक GitHub repo बनाया जाए, जिसमें ढेर सारी अनसुलझी dry lab समस्याएँ डाली जाएँ, और हर नया मॉडल आने पर सब पर चलाने के लिए एक harness बना हो
[1] https://github.com/teorth/erdosproblems
यह पोस्ट भी उन्हीं में से एक के हल हो जाने की कहानी है
ChatGPT का मूल proof वास्तव में काफ़ी ख़राब था, और किसी विशेषज्ञ को उसे छानकर यह समझना पड़ा कि वह कहना क्या चाहता है— यह पंक्ति पढ़कर वही भावना आई जो गणित के paper पढ़ते समय हमेशा आती हैअगर यह 60 साल पुरानी समस्या थी, तो क्या यह संभव नहीं कि वह पहले ही परोक्ष रूप से हल हो चुकी हो और मॉडल ने बस कई जानकारियों को cross-reference करके उसे ढूँढ निकाला हो?
साइट देखकर लगा कि इंसानों द्वारा पहले की गई चर्चा के निशान लगभग नहीं हैं, और हाल की टिप्पणियाँ भी बस यही कहती दिखीं कि GPT ने इसे खोजा
60 साल पुरानी समस्या के लिए मुझे लगा था कि इससे कहीं पुरानी चर्चाएँ मिलेंगी, इसलिए सोच रहा हूँ कि मैं क्या मिस कर रहा हूँ
फिर भी यह शानदार खोज है, और शायद ऐसे और भी मामले हों जिन्हें इसी तरह GPT से दोबारा जाँचना चाहिए
इंसान भी, और इंसानों द्वारा बनाई गई मशीनें भी, ज़्यादातर समस्याएँ संचयी तरीके से हल करती हैं
वे मौजूदा नींव पर लगातार परतें चढ़ाती जाती हैं, इसलिए पहिया दोबारा न बनाने की प्रवृत्ति के कारण सोचने का ढाँचा जकड़ सकता है
इसलिए अगर एक naïve LLM ने ऐसा approach दिया हो जिसे विशेषज्ञों ने नहीं आज़माया, तो यह बहुत चौंकाने वाली बात नहीं है
ऐसे सीमित मामलों में LLM दूसरे approaches सुझाने वाले उपकरण के रूप में काफ़ी उपयोगी हो सकते हैं, और उनका बिल्कुल सही होना भी ज़रूरी नहीं—बस वे विकल्प देकर पूरी दिशा हिला दें, इतना काफ़ी है
हालाँकि इस Erdős problem का व्यावहारिक मूल्य क्या है, यह मुझे ठीक से नहीं पता
अगर कोई पूछे कि क्या यह इस बात का प्रमाण है कि LLM बेकार चीज़ नहीं हैं, तो वह मुझे कुछ वैसा लगता है जैसे 1928 में यह पूछना कि क्या number theory में लाखों डॉलर निवेश करने चाहिए
उस समय शायद जवाब होता,
नहीं, और मेरे दफ़्तर से बाहर निकलो