- AlphaEvolve LLM का उपयोग करके कोड को ही evolve करने वाला एक नए प्रकार का optimization tool है, जिसे गणितीय समस्याओं के समाधान में लागू किया गया
- analysis, combinatorics और geometry की 67 समस्याओं पर किए गए प्रयोगों में इसने मौजूदा optimization tools के स्तर का प्रदर्शन दिखाया, साथ ही scale में अपनी ताकत भी साबित की
- tool की adaptability ऊंची है, इसलिए समस्या-विशेष के विस्तृत ज्ञान के बिना भी इसे कई तरह की गणितीय समस्याओं पर लागू किया जा सकता है, और यह खुद discretization parameters सेट करके efficient computation करता है
- generated code interpretability देता है, जिससे इंसान optimization structure को समझ सकते हैं या नई गणितीय अंतर्दृष्टि हासिल कर सकते हैं
- कुछ समस्याओं में इसने मौजूदा परिणामों को फिर से खोजा या छोटे सुधार किए, और गणितीय शोध के automation तथा verifiable exploration के विस्तार की संभावना दिखाई
AlphaEvolve और शोध का अवलोकन
- Terence Tao, Bogdan Georgiev, Javier Gómez-Serrano, Adam Zsolt Wagner ने Google DeepMind के साथ मिलकर AlphaEvolve का उपयोग करने वाला शोधपत्र arXiv पर प्रकाशित किया
- पेपर: “Mathematical exploration and discovery at scale”
- संबंधित data और prompts GitHub repository में सार्वजनिक किए गए हैं
- AlphaEvolve एक LLM-आधारित code-evolution optimization system है, जो input values की जगह code को evolve करके score function को maximize करता है
- LLM द्वारा बनाया गया code चलाया जाता है, input बनाए जाते हैं, और फिर परिणाम का मूल्यांकन किया जाता है
- code generations के बीच performance-आधारित crossover और mutation के जरिए evolution होता है
- “hallucination” अगर प्रदर्शन कम हो तो हट जाती है, लेकिन कुछ मामलों में यह diversity बढ़ाकर local optimum से बाहर निकलने में मदद करती है
- उपयोगकर्ता performance सुधारने के लिए hints या संबंधित literature PDF अपलोड कर सकते हैं
- इसी तरह के tools में OpenEvolve, ShinkaEvolve, DeepEvolve शामिल हैं
प्रयोग का दायरा और मुख्य परिणाम
- 67 गणितीय समस्याओं (analysis, combinatorics, geometry सहित) पर प्रयोग किए गए
- इसने मौजूदा literature की तुलना में अधिक efficient geometric packing या variational problem function candidates खोजे
- scale इसकी प्रमुख ताकत है, क्योंकि एक समस्या के prompt और verification tool को बदलकर समान समस्याओं में फिर से इस्तेमाल किया जा सकता है
- AlphaEvolve की adaptability अधिक है, इसलिए detailed hyperparameter tuning के बिना भी इसे अलग-अलग समस्याओं पर लागू किया जा सकता है
- उदाहरण: variational problems में इसे खुद discretization parameters तय करने दिए गए, जिससे efficient results मिले
- उदाहरण: Hausdorff–Young inequality constant optimization experiment
interpretability और ठोस उदाहरण
- AlphaEvolve का output code इंसानों के पढ़ने और विश्लेषण करने योग्य रूप में होता है, इसलिए optimization structure समझने में उपयोगी है
- उदाहरण: Gagliardo–Nirenberg inequality समस्या में इसने सटीक Talenti function खोजा और उसे sample करने वाला Python code बनाया
- कुछ मामलों में इसने मौजूदा optimization subroutines को call किया या simple search methods का उपयोग किया
training data और performance का अंतर
- training data में शामिल समस्याओं के मामले में LLM ने तुरंत optimal solution (जैसे Gaussian) प्रस्तुत किया
- अगर समस्या को बदलकर Gaussian समाधान छिपा दिया जाए, तो यह दूसरे candidates खोजता है
- उदाहरण: arithmetic Kakeya conjecture से जुड़े प्रयोग में इसने discrete Gaussian-आधारित candidate पेश किया, जिससे मौजूदा lower bound में थोड़ा सुधार हुआ
- इसी परिणाम के आधार पर Tao ने एक अलग पेपर में theoretical asymmetric behavior सिद्ध किया
verifier design और कमजोरियां
- AlphaEvolve अक्सर verification code की खामियों का उपयोग करने वाले “exploit” ढूंढ लेता है
- उदाहरण: geometry समस्या में distance error tolerance बड़ा होने पर इसने points को एक ही जगह रखकर ऊंचा score हासिल किया
- इसे रोकने के लिए exact arithmetic या conservative score function का उपयोग करना चाहिए
- उदाहरण: Moving Sofa problem में conservative scoring लागू करके इसने “Gerver sofa” को फिर से खोजा, और 3D variant में नया design भी पाया
कठिन समस्याएं और conjecture प्रयोग
- Sidorenko, Sendov, Crouzeix, Ovals जैसी प्रमुख unsolved conjectures पर प्रयोग किए गए
- इसने मौजूदा literature के optimal candidates को फिर से खोजा, लेकिन कोई counterexample नहीं पाया
- इसका मतलब या तो conjectures सही हैं, या AlphaEvolve केवल उन्हीं “obvious” constructions तक सीमित रहा जिन्हें पहले के शोधकर्ता आजमा चुके थे
- ऐसे tools negative results के systematic record के लिए उपयोगी हैं, और नई conjectures प्रस्तावित करते समय automatic verification tool के रूप में इस्तेमाल किए जा सकते हैं
- कुछ variant problems में इसने नया two-parameter extended conjecture भी खोजा
क्षेत्रों के अनुसार प्रदर्शन का अंतर
- analytic number theory की समस्याओं में (जैसे prime number theorem approximation के लिए sieve weight design) इसे संरचना का लाभ उठाने में कठिनाई हुई
- दूसरी ओर, finite-field Kakeya·Nikodym problems जैसे algebraic structure वाले मामलों में इसका प्रदर्शन बेहतर रहा
- Kakeya समस्या में इसने quadratic residue-आधारित optimal construction को फिर से खोजा, और 3D में थोड़ा सुधार हासिल किया
- Gemini के Deep Think से informal proof मिला, और AlphaProof से उसे Lean formal proof में बदला गया
- 4D improvement proposal बाद में मौजूदा Bukh–Chao paper जैसी ही संरचना वाला निकला
- Nikodym समस्या में इसने नई 3D construction खोजी, लेकिन यह random construction से कमजोर निकली
- इसके आधार पर hybrid construction विकसित की गई, जिससे प्रदर्शन सुधरा, और इस पर आगे पेपर आने वाला है
समग्र महत्व
- AlphaEvolve ने बड़े पैमाने पर गणितीय अन्वेषण के automation की संभावना दिखाई
- मौजूदा optimization tools की तुलना में यह scale, adaptability, interpretability में बेहतर है
- कुछ समस्याओं में इससे नई constructions और proofs निकले
- आगे चलकर गणितीय शोध में AI-आधारित exploration और मानव verification के सहयोगी ढांचे के स्थापित होने की संभावना है
1 टिप्पणियां
Hacker News राय
LLM प्रशंसक हर बार इसे ‘क्रांतिकारी’ कहकर बढ़ा-चढ़ाकर पेश करते हैं, यह थकाने वाला है, लेकिन यह मामला रिसर्च में LLM की मौजूदा क्षमता के अच्छे उपयोग का उदाहरण है
गणित की समस्या को coding agent समस्या में बदलकर हल किया गया, और यह तरीका दूसरे क्षेत्रों तक भी फैलाया जा सकने योग्य लगता है
AlphaEvolve सिस्टम में भी मौजूदा agents की तुलना में कुछ सुधार दिखते हैं। AI हर साल लगातार आगे बढ़ रहा है, लेकिन समर्थक हों या संशयवादी, अतिशयोक्ति किसी के काम नहीं आती
हर व्यक्ति hype cycle का आनंद अलग समय पर लेता है। जो किसी के लिए पहले से उबाऊ है, वही किसी और के लिए LLM और गणित के संबंध के रूप में नया हो सकता है। ऐसी प्रेरणा लंबे समय में उपयोगी हो सकती है
फिर भी यह रिसर्च LLM के अच्छे उपयोग का उदाहरण है। आजकल ऐसे कई व्यावहारिक उपयोग हैं जो अब खबर भी नहीं बनते। सिर्फ इसलिए कि प्रशंसक हैं, हर बार उनकी आलोचना करना ज़रूरी नहीं
लगता है यह रिसर्च उस दावे का जवाब देगी कि LLM ‘सिर्फ वही समस्याएँ हल करते हैं जो उन्होंने पहले देखी हों’
LLM डेवलपर्स की बात मानें तो training के बाद की RL प्रक्रिया सिर्फ एक साधारण Markov chain से आगे बढ़कर world model बनाती है
अगला कदम Genie 3 जैसे मॉडल के ऊपर इसी तरह की क्षमता बनाना होगा
LLM एक अहम टूल है, लेकिन इस उपलब्धि का बड़ा श्रेय evolutionary optimization को जाता है
DeepMind ब्लॉग के मुताबिक, यह AlphaGo और AlphaFold जैसे ‘Alpha’ सीरीज़ की अगली कड़ी है
यह तरीका Chollet के ARC-AGI test पर भी अच्छी तरह काम कर सकता है। हालांकि Tao ने ‘extremize’ शब्द इस्तेमाल किया, जो गणितीय शब्दावली में थोड़ा अटपटा लगता है
यह रिसर्च उन समस्याओं के लिए उपयुक्त है जहाँ तेज़ verification और खराब cases की pruning संभव हो। इसके उलट, इंसानी software development में design bias, धीमा evolution, और testing की कठिनाई जैसी वजहों से यह तरीका अपनाना मुश्किल है
जैसा Daniel Litt ने कहा, यह बस पहला मामला है जहाँ ‘compute’ बहुत ज़्यादा झोंका गया
AlphaEvolve की कुछ inequalities को इंसान और Moore’s Law के सहारे भी आसानी से बेहतर किया जा सकता है
संबंधित पेपर यहाँ है
जिन लोगों की गणितीय पृष्ठभूमि कम है, उनके लिए सारांश माँगने वाली एक टिप्पणी थी
LLM Python code में mutation करता है, और गलत कोशिशों को अपने-आप prune कर दिया जाता है
67 समस्याओं पर टेस्ट किया गया, और इसने अक्सर expert-level परिणाम दिए। scalability, robustness, interpretability इसकी खूबियाँ हैं
हालांकि training data में शामिल समस्याओं पर यह जल्दी converge हुआ, और अगर problem definition ढीली हो तो यह उसका ‘दुरुपयोग’ भी कर सकता है
गणित की कुछ शाखाओं में, जैसे analytic number theory, इसका प्रदर्शन कमजोर रहा। फिर भी यह इंसानों को काम आने वाले ideas देता है
यह हर क्षेत्र में समान रूप से मजबूत नहीं था, लेकिन Ramanujan या Erdős की तरह गणना-केंद्रित समस्या-समाधान में विशेषीकृत तरीका था
मुझे पता ही नहीं था कि sofa problem हल हो चुकी है। संबंधित पेपर यहाँ है
लेख में सबसे दिलचस्प बात लेखक का ‘robustness’ का विचार था
AlphaEvolve को बिना किसी खास domain knowledge के अलग-अलग समस्याओं पर आसानी से लागू किया गया
लेकिन software की दुनिया में ‘robustness’ का मतलब आम तौर पर fault tolerance होता है, इसलिए यहाँ ‘adaptability’ ज़्यादा सही शब्द लगता है
LLM की ताकत यह है कि बिना जटिल modeling के text-based integration संभव हो जाता है। अगर video processing थोड़ा और आगे बढ़े, तो game AI जैसे क्षेत्र भी खुल सकते हैं
Tao का यह कहना कि “यह prompt की समस्या भी हो सकती है” काफ़ी उदार रुख दिखाता है
दूसरी ML research में performance कम होने पर “hyperparameter tuning ठीक से नहीं की” जैसी आत्म-आलोचना लगभग नहीं दिखती
पेपर की section 44.2 में logic puzzle experiment की कहानी प्रभावशाली थी
AlphaEvolve को तीन ‘guardians’—फ़रिश्ता, शैतान, और gatekeeper—के साथ interact करके optimal strategy ढूँढनी थी, लेकिन आखिर में उसने prompt injection से दूसरे LLM को धोखा देकर perfect score ले लिया
इस प्रक्रिया में AE ने खुद सुझाव दिया कि “तार्किक जटिलता कम करो और simulation पर ही हमला करो”
पहले coding benchmark leak incident की तरह यह कोई संयोग नहीं था, इस बार यह जानबूझकर किया गया हमला था
यह रिसर्च आधुनिक दौर की Gauss की गणितीय प्रयोगशाला जैसी लगती है
मानो कई गणितज्ञों की जगह एक इलेक्ट्रॉनिक टीम रख दी गई हो, जो patterns खोजे और फिर उनके आधार पर proofs की कोशिश करे
सच कहूँ तो, Terence Tao कुछ कह दें तो मैं बस मान लेता हूँ