3 पॉइंट द्वारा GN⁺ 2025-05-15 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • AlphaEvolve LLM और automated evaluator को जोड़ने वाला एक evolutionary algorithm generation agent है
  • गणित, computing, AI और hardware design क्षेत्रों में वास्तविक परिणाम साबित करते हुए इसे Google इंफ्रास्ट्रक्चर भर में लागू किया गया है
  • Gemini Flash और Gemini Pro को मिलाकर विचारों की चौड़ाई और गहराई दोनों की खोज करता है
  • डेटा सेंटर scheduling, TPU design, AI kernel optimization आदि में speed improvement और resource savings हासिल किए गए
  • 50 से अधिक गणितीय कठिन समस्याओं पर भी चुनौती, नए एल्गोरिद्म प्रस्तावित किए गए और कुछ समस्याओं में मौजूदा समाधानों में सुधार हुआ

AlphaEvolve: Gemini-आधारित algorithm evolution agent

अवलोकन

  • AlphaEvolve Google DeepMind द्वारा विकसित large language model (LLM) आधारित coding agent है
  • रचनात्मक code generation Gemini model करता है, और सत्यापन automated evaluator करता है
  • evolutionary algorithm के जरिए सर्वोत्तम code candidates को बार-बार बेहतर बनाया जाता है

वास्तविक उपयोग क्षेत्र और उपलब्धियां

Google computing infrastructure optimization

  • डेटा सेंटर, hardware और software सहित पूरे क्षेत्र में AlphaEvolve लागू
  • दक्षता में सुधार से पूरे AI infrastructure पर लगातार ripple effect पड़ता है

डेटा सेंटर scheduling में सुधार

  • Google के cluster manager Borg के लिए नया heuristic प्रस्तावित
  • 1 वर्ष से अधिक समय से production service में है, और दुनियाभर के computing resources का 0.7% वापस पाने में योगदान दिया
  • code इंसानों द्वारा समझने योग्य है, इसलिए maintenance आसान है

hardware design समर्थन

  • Verilog में लिखे matrix multiplication circuit optimization का प्रस्ताव
  • भविष्य में Google के TPU design में integrated किया जाएगा
  • hardware engineers के साथ collaboration को बढ़ावा

AI training और inference में तेजी

  • matrix multiplication को छोटे-छोटे problems में विभाजित किया गया → Gemini training speed में 1% सुधार
  • kernel optimization समय को कई हफ्तों से घटाकर कुछ दिनों तक लाया गया
  • FlashAttention kernel में अधिकतम 32.5% speed improvement
  • जहां compiler optimization पहले से बहुत आक्रामक है, वहां भी अतिरिक्त performance improvement संभव

गणित और एल्गोरिद्म क्षेत्र में नवाचार

नया matrix multiplication algorithm खोजा गया

  • मौजूदा Strassen algorithm (1969) की तुलना में बेहतर तरीका खोजा गया
  • 4x4 complex matrix को सिर्फ 48 scalar multiplications से process किया गया

गणितीय कठिन समस्याओं की खोज

  • analysis, geometry, combinatorics, number theory आदि 50 से अधिक समस्याओं पर प्रयोग

    • 75% मामलों में मौजूदा सर्वोत्तम समाधान फिर से खोजे गए
    • 20% मामलों में मौजूदा समाधानों से बेहतर परिणाम निकले
  • उदाहरण: kissing number समस्या के लिए नई lower bound की खोज

    • 11 dimensions में 593 spheres की संरचना से पिछला रिकॉर्ड अपडेट

काम करने का तरीका

  1. prompt sampler इनपुट बनाता है
  2. Gemini Flash/Pro model code बनाते हैं
  3. automated evaluator accuracy और quality का मात्रात्मक मूल्यांकन करता है
  4. genetic algorithm तरीके से बेहतर प्रदर्शन वाले code को evolve किया जाता है
  5. सर्वोत्तम code reuse, deploy और scale किया जा सकता है

आगे की योजना

  • coding capability में सुधार के साथ AlphaEvolve भी लगातार बेहतर होता रहेगा
  • People + AI Research टीम के साथ मिलकर user interface विकसित किया जा रहा है
  • Early Access Program के जरिए academic users के लिए जारी किया जाएगा
    रुचि दर्ज करें

संभावित उपयोग

  • यदि किसी समस्या का समाधान एल्गोरिद्म के रूप में परिभाषित किया जा सके और उसका मूल्यांकन संभव हो, तो इसे किसी भी क्षेत्र में लागू किया जा सकता है
  • उदाहरण: नए materials development, drug discovery, sustainability, तकनीकी/व्यावसायिक समस्या समाधान

संदर्भ लिंक

1 टिप्पणियां

 
GN⁺ 2025-05-15
Hacker News राय
  • पेपर में उद्धृत बात के अनुसार, Strassen algorithm को बार-बार लागू करने पर 4x4 matrix multiplication के लिए 49 multiplications की ज़रूरत पड़ती है, लेकिन AlphaEvolve ने सिर्फ 48 multiplications में 4x4 complex matrix multiplication करने का पहला तरीका खोजा। अगर matrix को सीधे multiply करें, तो लगता है कि कई मिलती-जुलती गणनाएँ बार-बार दोहराई जा रही हैं। उदाहरण के लिए, दो sets के union का size निकालते समय overlapping हिस्से को घटाना पड़ता है। Strassen algorithm बाद के चरणों में ज़रूरी होने वाली गणनाओं को ट्रैक करके रखता है, और कुछ हद तक dynamic programming जैसा लगता है। दिलचस्प बात यह है कि अतिरिक्त बचत सिर्फ complex numbers में दिखती है, मानो साधारण तरीके में complex plane पर किसी तरह की duplicate counting हो रही हो
    • “4x4 matrices multiplication 48” गूगल करते समय मुझे math.stackexchange की एक पोस्ट मिली। उसमें 2019 में यह उल्लेख था कि 4x4 matrix multiplication को 48 multiplications में किया जा सकता है, साथ में एक PhD thesis का लिंक भी था। मुझे लगता है कि यह नतीजा पहले से ज्ञात हो सकता है (हालाँकि मैंने अभी algorithm का खाका नहीं देखा है)
    • लगता है Strassen algorithm को लेकर कुछ गलतफ़हमी है। पहली बात, Strassen dynamic programming नहीं बल्कि divide-and-conquer technique का एक प्रमुख उदाहरण है। दूसरी बात, Strassen algorithm complex numbers तक सीमित नहीं है; यह real numbers पर भी काम करता है
  • इसमें कहा गया है कि AlphaEvolve ने Transformer-आधारित AI models के FlashAttention kernel में अधिकतम 32.5% तक speedup हासिल किया। यह भी कहा गया कि 75% मामलों में इसने मौजूदा best solution को फिर से खोज लिया, और 20% में पहले के best record को और बेहतर किया। नतीजा सचमुच प्रभावशाली है, लेकिन मैं यह जानना चाहता हूँ कि असल में किस तरीके से और किस तरह के improvements हुए। यह भी जानना है कि 32.5% सुधार कहीं सिर्फ किसी extreme edge case में तो नहीं मिला; असली benchmark देखना दिलचस्प होगा
    • GPU में cache hierarchy होती है, इसलिए block size को optimally match करना बहुत बड़ा फ़ायदा देता है, लेकिन व्यवहार में अलग-अलग kernels, GPU और tuning effort की ज़रूरत पड़ती है। Kernel fusion और API boundaries जैसी समस्याएँ भी होती हैं। AlphaEvolve का नतीजा बहुत प्रभावशाली है, लेकिन यह कोई जादू या ट्रिक नहीं है
    • AlphaEvolve ने बड़े matrix multiplication operations को ज़्यादा संभालने योग्य subproblems में समझदारी से बाँटकर Gemini architecture के core kernel को 23% तेज़ किया और Gemini की कुल training time को 1% कम किया
    • हाल के समय में ऐसे आँकड़े कुछ ज़्यादा ही बढ़ा-चढ़ाकर पेश किए गए लगते हैं। अगर FlashAttention वाकई 32.5% तेज़ हुआ है, तो फिर इसे Flash Attention repository में PR के रूप में क्यों नहीं भेजा गया? काश इस पर थोड़ा और विस्तार से पढ़ने को मिलता
  • यह पल अपने आप में महत्वपूर्ण है। अब हमारे पास स्पष्ट सबूत है कि AI systems वास्तविक दुनिया में ठोस value लाने वाला नया research कर सकते हैं। 1% की बचत तो सिर्फ शुरुआत है, और अगर ऐसे प्रभाव जुड़ते जाएँ तो काफ़ी बड़ा लाभ हो सकता है। यह प्रक्रिया खुद gemini 2.5 pro को बेहतर बनाने में भी इस्तेमाल हुई, इसलिए यह चरणबद्ध self-improvement की दिशा दिखाती है। यह अभी पूरी तरह automated नहीं है, लेकिन यह साफ़ दिख रहा है कि दिशा किस ओर है
    • genetic programming systems लंबे समय से algorithms को improve करते आए हैं। LLM-आधारित genetic programming कोई क्रांतिकारी बदलाव साबित होगी या सिर्फ incremental evolution, यह अभी स्पष्ट नहीं है। self-improvement की अवधारणा को लेकर मैं सावधान हूँ। “GP खुद GP से अपने को improve करता है!” यह विचार बहुत पुराना है, लेकिन अब तक खास परिणाम नहीं दे पाया है। दूसरी कंपनियों के उदाहरण और papers भी हैं
    • मुझे संदेह है कि यह नतीजा सचमुच नया है या नहीं। ऐसी सामग्री भी है जिसमें 48 और 46 multiplications वाले solutions पहले से ज्ञात बताए गए हैं, और साथ ही लोग AI के singularity तक पहुँचने को लेकर उत्साहित भी दिख रहे हैं। अगर यह सच में इतना बड़ा breakthrough होता, तो शायद पेपर से भी पहले इसकी चर्चा हो चुकी होती
  • मैं जानना चाहता हूँ कि यह प्रगति कितनी incremental है। उदाहरण के तौर पर मैंने B.2 (दूसरी autocorrelation inequality) चुनी और पुराना पेपर (https://arxiv.org/pdf/0907.1379) देखा। उसमें लेखकों ने कहा है कि उन्होंने Mathematica से numerical search करके पुराना upper bound निकाला था। उन्होंने यह भी कहा कि इस हिस्से को और बेहतर करना मेहनत की तुलना में बहुत कम फ़ायदे का काम था, इसलिए नहीं किया। यानी AlphaEvolve की यह प्रगति भी काफ़ी incremental है (फिर भी शानदार नतीजा है)
    • अब “मेहनत” बहुत कम हो गई है, इसलिए हम उस बिंदु पर पहुँच चुके हैं जहाँ किसी चीज़ को “इतनी मेहनत के लायक नहीं” कहना मुश्किल हो गया है। यही बात अपने आप में महत्वपूर्ण है
    • जो काम इंसान के लिए समय की दृष्टि से मूल्यवान नहीं था, वही AI से automate होने पर अनगिनत “opportunities” के रूप में जमा होकर बहुत बड़ा फ़र्क पैदा कर सकता है
    • यही वह संकेत लगता है कि असली AI अब takeoff करना शुरू कर रही है
  • ऐसे साहसी दावों के सामने रक्षात्मक रुख अपनाना कठिन है। अगर चीज़ें सचमुच वैसी ही हैं जैसी यहाँ बताई गई हैं, तो फिर ‘runaway AI’ लगभग बन चुकी है। दार्शनिक रूप से देखें तो, अगर किसी पुराने LLM को नए discoveries चरण-दर-चरण समझाए जाएँ, तो वह जानकारी ‘नई’ है, लेकिन इसमें अंततः मानव बुद्धिमत्ता परोक्ष रूप से शामिल ही है
  • यह अच्छा है, लेकिन क्या यह मूलतः Google के Co-Scientist जैसा ही नहीं है? कई LLM एक-दूसरे के साथ context साझा करके verification करते हैं। execution के लिहाज़ से यह प्रभावशाली है, लेकिन बुनियादी तौर पर पूरी तरह नया नहीं लगता। LLM निश्चित रूप से code optimization और ऐसे patterns या redundancies पकड़ने में उपयोगी हैं जो इंसानों से छूट सकते हैं, लेकिन यह खबर भी Google की एक और चमकदार blog post जैसी लगती है। ‘Alpha’ branding भी पहले AlphaGo, AlphaFold जैसी स्पष्ट innovations के लिए होती थी, लेकिन अब लगता है इसे अपेक्षाकृत कम impactful systems पर भी लगाया जा रहा है। वैसे Co-Scientist के पास भी evaluation method था। ( https://research.google/blog/accelerating-scientific-breakth... see )
    • AlphaEvolve पेपर इस बिंदु को कवर करता है। AI Co-Scientist में scientific hypotheses और evaluation को natural language में व्यक्त किया गया था, जबकि AlphaEvolve में code evolution और programmatic evaluation functions के ज़रिए evolution होता है। इससे LLM hallucinations से काफी हद तक बचा जा सका और कई चरणों तक लगातार evolutionary procedure चलाया जा सका
    • Google की तरह ही, ऐसा लगता है कि समान क्षमता वाले products अलग-अलग teams अब भी एक साथ बना रही हैं
    • मुझे नहीं पता “Google's Co-Scientist” कई projects का नाम है या नहीं
  • जो लोग singularity का इंतज़ार कर रहे हैं, उनका ध्यान ऐसे वाक्य खींचते हैं: “AlphaEvolve standard language में modifications propose करता है, जिसका इस्तेमाल chip design engineers करते हैं, ताकि AI और hardware engineers सहयोग कर सकें”
    • पेपर के संबंधित हिस्से को उद्धृत करें तो, AlphaEvolve ने matmul unit के arithmetic block code से unnecessary bits हटाए, और इस बदलाव की correctness को TPU designers ने verify किया। इसका कारण यह हो सकता है कि MAC circuit output के upper bits नीचे के accumulator वगैरह में उपयोग ही नहीं होते। सच तो यह है कि equivalent optimization बाद के synthesis tools में भी अपने-आप हो जाती है, और यह दावा किया जा रहा है कि source RTL में पहले से bits काट देना synthesis के बाद optimization होने से अधिक अर्थपूर्ण है। लेकिन synthesis tools यह गारंटी देते हैं कि circuit semantics नहीं बदलेगी, जबकि source RTL में बदलाव के साथ ऐसा नहीं होता, इसलिए human verification ज़रूरी है। हाँ, यह खटकता है कि synthesis result से source में यह दिखाया नहीं जा सकता कि कौन-सा हिस्सा optimize हुआ। LLM-आधारित code evolution hardware design में शुरुआती exploration के लिए उपयोगी हो सकती है, लेकिन मुझे लगता है कि AlphaEvolve की वास्तविक उपलब्धि को बढ़ा-चढ़ाकर पेश किया गया है
    • आखिरकार इसका मतलब यह है कि यह compiler intermediate representation या debug text के ऊपर काम करता है
    • यह approach सिर्फ उन optimization problems पर लागू हो सकती है जिनके evaluation functions अच्छी तरह defined हों या measurable हों। ‘general intelligence’ के लिए कोई evaluation function लिखा नहीं जा सकता
    • यह पंक्ति प्रभावशाली है: “AlphaEvolve Google के datacenters, chip design, और AI training में efficiency बढ़ाता है — इसमें उस LLM की training भी शामिल है जिसने AlphaEvolve को जन्म दिया।” ऐसा लगता है मानो AI खुद को इंसानों से भी तेज़ी से सुधारने वाली वास्तविकता आ गई हो
    • singularity हमेशा अति-आत्मविश्वास के शिखर पर मौजूद रहती है, और AI वास्तव में ‘automated chair lift’ जैसी pseudo-intelligence है
  • दिलचस्प बात यह है कि AlphaEvolve का इस्तेमाल पहले से एक साल से हो रहा था और अब जाकर इसे सार्वजनिक किया गया। पेपर के अनुसार यह Gemini 2.0 (Pro और Flash) पर आधारित था, इसलिए Gemini 2.5 को train करने में Gemini 2.0 का इस्तेमाल हुआ — यह काफ़ी दिलचस्प स्थिति है। भले यह क्लासिक ‘self-improvement feedback loop’ तक न पहुँचे, पर कुछ हद तक उसी दिशा का संकेत देता है। अब भी यह जिज्ञासा बनी हुई है कि एक साल तक AlphaEvolve सिर्फ development में था, या build से production use तक पहुँच चुका था। इससे यह भी लगता है कि AI research से मिले लाभों को तुरंत साझा करना ज़रूरी नहीं समझा जाता
    • अगर किसी के पास पर्याप्त brains, compute resources और hardware सब कुछ हो, तो असली feedback loop को रोकने वाली कोई चीज़ नहीं दिखती। इस मामले में DeepMind बहुत अलग स्थिति में है
    • Gemini 2.0 से Gemini 2.5 को बेहतर बनाने की प्रक्रिया कुछ वैसी ही लगती है जैसी पहले OpenAI ने RLHF के बाद structured data और distilled models बनाने की रणनीति अपनाई थी
    • असली मुद्दा autonomy है। अपने-आप किए गए बदलाव human verification के बिना संभव होने चाहिए, तभी उसका सही अर्थ होगा। अगर पूरी तरह inexplicable solutions बढ़ते जाएँ, तो क्या वे वास्तव में उपयोगी होंगे, इस पर संदेह है। उल्टा, बेवजह कठिन code जमा हो सकता है। क्या सच में यही उद्देश्य है, ऐसा भी लगता है
  • AlphaEvolve की evolutionary procedure के बारे में बहुत कम विवरण देखकर मैं चकित था। “MAP elites algorithm और island-based population model से प्रेरित algorithm” जैसी पंक्ति में “प्रेरित” शब्द बहुत कुछ छिपा लेता है। MAP-elites की mutation dimensions कैसे तय की जाती हैं, दोनों algorithms को कैसे जोड़ा गया, और प्रेरणा की सीमा क्या है — इन सब पर ठोस विवरण नहीं है। लगता है evolutionary procedure का मुख्य हिस्सा लगभग secret sauce बना हुआ है
    • 2023 में Nature में छपा island-based LLM evolution paper (https://www.nature.com/articles/s41586-023-06924-6) इस बारे में ज़्यादा विस्तार देता है। ऐसे मुख्य ‘dimensions/features’ सेट करना महत्वपूर्ण होता है। इस तरह के whitepaper वैज्ञानिक दृष्टि से उल्टा निराशाजनक भी लग सकते हैं
    • सबसे आसान तरीका यह है कि model से अलग-अलग evaluation criteria generate करवाए जाएँ और हर एक को एक dimension की तरह इस्तेमाल किया जाए
  • पेपर में evolutionary हिस्से की व्याख्या कमज़ोर है। आम तौर पर evolutionary algorithms में crossover का तत्व होता है; अगर यहाँ वह नहीं है, तो इसे वास्तव में hill climbing या beam search के अधिक क़रीब माना जाना चाहिए
    • एक caption में कहा गया कि 16 “mutations” की ज़रूरत पड़ी, और मैं जानना चाहता हूँ कि यह mutation process वास्तव में क्या है
    • ऐसे ‘evolution strategies’ algorithms भी होते हैं जो सामान्य mutation और crossover के बिना candidate population का उपयोग करके gradient landscape का approximation करते हैं
    • डर यह है कि कहीं यह evolutionary algorithm कम और सिर्फ नाम से मिलता-जुलता कोई दूसरा तरीका ज़्यादा न हो