• Large Hadron Collider में बनने वाले विशाल डेटा को सीधे silicon chip पर इम्प्लीमेंट किए गए ultra-small AI models से real-time में filter किया जाता है, ताकि केवल वैज्ञानिक रूप से meaningful events ही चुने जाएं
  • प्रति सेकंड सैकड़ों terabytes के data stream को process करने के लिए GPU या TPU की जगह FPGA·ASIC आधारित hardware का उपयोग होता है, और निर्णय nanosecond-level latency पर लिया जाता है
  • HLS4ML tool के जरिए PyTorch या TensorFlow models को synthesizable C++ code में बदलकर सीधे chip पर deploy किया जाता है, और lookup table आधारित structure से floating-point operations के बिना तुरंत output बनाया जाता है
  • LHC का Level-1 Trigger लगभग 1,000 FPGA से बना है और 50 nanoseconds के भीतर data evaluate करता है, जबकि बाद के चरणों में 25,600 CPU और 400 GPU अतिरिक्त filtering करते हैं
  • CERN, 2031 के High-Luminosity LHC upgrade को ध्यान में रखकर अगली पीढ़ी के ultra-small AI models विकसित कर रहा है, और यह approach autonomous systems·medical imaging जैसे ultra-low-latency applications तक फैल सकती है

अवलोकन

  • CERN ने ultra-small artificial intelligence models को सीधे silicon chips पर इम्प्लीमेंट करके Large Hadron Collider (LHC) में बनने वाले विशाल डेटा को real-time में filter करना शुरू किया है
    • collision data में से केवल वैज्ञानिक रूप से meaningful events को चुना जाता है और बाकी को तुरंत discard कर दिया जाता है
    • प्रति सेकंड सैकड़ों terabytes तक पहुंचने वाले data streams को संभालने के लिए GPU या TPU की जगह FPGA और ASIC आधारित custom hardware का उपयोग किया जाता है
  • ऐसे hardware-embedded AI models detector level पर microsecond से nanosecond latency में निर्णय लेते हैं
    • यह real-time selection process आधुनिक विज्ञान की सबसे compute-intensive tasks में से एक मानी जाती है

डेटा प्रोसेसिंग की चुनौती

  • LHC हर साल लगभग 40,000 exabytes raw data बनाता है, जो आज के पूरे internet traffic के लगभग एक-चौथाई के बराबर है
    • proton bunches 27km ring के भीतर प्रकाश की गति के करीब चलते हैं और हर 25 nanoseconds पर cross करते हैं
    • वास्तविक collisions दुर्लभ हैं, लेकिन हर collision से कई megabytes data बनता है
  • पूरे data को store या process करना असंभव है, इसलिए केवल लगभग 0.02% events ही बचाए जाते हैं
    • पहली filtering stage, Level-1 Trigger, लगभग 1,000 FPGA से बनी है और 50 nanoseconds के भीतर data evaluate करती है
    • AXOL1TL algorithm सीधे इन chips पर चलता है, वैज्ञानिक रूप से promising events की पहचान करता है और बाकी को तुरंत discard कर देता है

AI approach और tech stack

  • CERN के AI models को ultra-small और high-efficiency architecture के साथ डिज़ाइन किया गया है, और ये सामान्य industrial large-scale models से अलग detector-level ultra-low-latency inference के लिए optimized हैं
    • models को HLS4ML open source tool के जरिए PyTorch या TensorFlow आधारित models से synthesizable C++ code में बदला जाता है
    • बदला गया code FPGA, SoC, ASIC पर सीधे deploy किया जाता है, और GPU या TPU की तुलना में बहुत कम power और silicon area में काम करता है
  • chip resources का बड़ा हिस्सा neural network layers की जगह precomputed lookup tables को इम्प्लीमेंट करने में इस्तेमाल होता है
    • ये tables आम input patterns के results को पहले से store करके रखती हैं, जिससे ज़्यादातर detector signals के लिए floating-point operations के बिना तुरंत output मिल जाता है
    • यही hardware-first design philosophy nanosecond-level latency हासिल करने में मदद करती है
  • दूसरी filtering stage, High-Level Trigger, 25,600 CPU और 400 GPU वाले computing farm पर चलती है
    • Level-1 Trigger के बाद भी यह प्रति सेकंड कई terabytes data process करती है और इसे प्रतिदिन लगभग 1 petabyte scientific data तक compress करती है

आगे की योजना

  • LHC, 2031 में शुरू होने वाले High-Luminosity LHC (HL-LHC) upgrade की तैयारी कर रहा है
    • प्रति collision data volume मौजूदा स्तर से लगभग 10 गुना बढ़ने वाली है, और event sizes भी काफी बड़े होंगे
  • CERN इसके लिए अगली पीढ़ी के ultra-small AI models और FPGA·ASIC implementation optimization पर काम कर रहा है
    • पूरे real-time trigger system को मज़बूत किया जा रहा है, ताकि बहुत अधिक data rates पर भी ultra-low-latency performance बनी रहे
  • यह तैयारी आने वाले कई दशकों तक particle physics में नई discoveries को संभव बनाए रखने वाली core foundation मानी जा रही है

महत्व और प्रभाव

  • जहां दुनिया की AI industry बड़े models के scale-up पर ध्यान दे रही है, वहीं CERN सबसे छोटे, सबसे तेज़ और सबसे efficient AI models बना रहा है
    • ये models FPGA और ASIC पर सीधे इम्प्लीमेंट किए जाते हैं, और इन्हें “Tiny AI” के practical use case के रूप में देखा जा रहा है
  • LHC trigger system में ये models ऐसा performance देते हैं जिसे सामान्य AI accelerators हासिल नहीं कर सकते
    • nanosecond-level decision-making की extreme environment में ये minimum resources के साथ maximum efficiency दिखाते हैं
  • यह approach particle physics से आगे बढ़कर autonomous systems·high-frequency trading·medical imaging·aerospace जैसे उन क्षेत्रों में भी इस्तेमाल हो सकती है जहां ultra-low-latency real-time inference की ज़रूरत होती है
    • ऐसे समय में जब energy efficiency और compute resource reduction बेहद महत्वपूर्ण होते जा रहे हैं, CERN के models scale-up की जगह extreme specialization और hardware-level optimization का विकल्प पेश करते हैं

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.