- Large Hadron Collider में बनने वाले विशाल डेटा को सीधे silicon chip पर इम्प्लीमेंट किए गए ultra-small AI models से real-time में filter किया जाता है, ताकि केवल वैज्ञानिक रूप से meaningful events ही चुने जाएं
- प्रति सेकंड सैकड़ों terabytes के data stream को process करने के लिए GPU या TPU की जगह FPGA·ASIC आधारित hardware का उपयोग होता है, और निर्णय nanosecond-level latency पर लिया जाता है
- HLS4ML tool के जरिए PyTorch या TensorFlow models को synthesizable C++ code में बदलकर सीधे chip पर deploy किया जाता है, और lookup table आधारित structure से floating-point operations के बिना तुरंत output बनाया जाता है
- LHC का Level-1 Trigger लगभग 1,000 FPGA से बना है और 50 nanoseconds के भीतर data evaluate करता है, जबकि बाद के चरणों में 25,600 CPU और 400 GPU अतिरिक्त filtering करते हैं
- CERN, 2031 के High-Luminosity LHC upgrade को ध्यान में रखकर अगली पीढ़ी के ultra-small AI models विकसित कर रहा है, और यह approach autonomous systems·medical imaging जैसे ultra-low-latency applications तक फैल सकती है
अवलोकन
- CERN ने ultra-small artificial intelligence models को सीधे silicon chips पर इम्प्लीमेंट करके Large Hadron Collider (LHC) में बनने वाले विशाल डेटा को real-time में filter करना शुरू किया है
- collision data में से केवल वैज्ञानिक रूप से meaningful events को चुना जाता है और बाकी को तुरंत discard कर दिया जाता है
- प्रति सेकंड सैकड़ों terabytes तक पहुंचने वाले data streams को संभालने के लिए GPU या TPU की जगह FPGA और ASIC आधारित custom hardware का उपयोग किया जाता है
- ऐसे hardware-embedded AI models detector level पर microsecond से nanosecond latency में निर्णय लेते हैं
- यह real-time selection process आधुनिक विज्ञान की सबसे compute-intensive tasks में से एक मानी जाती है
डेटा प्रोसेसिंग की चुनौती
- LHC हर साल लगभग 40,000 exabytes raw data बनाता है, जो आज के पूरे internet traffic के लगभग एक-चौथाई के बराबर है
- proton bunches 27km ring के भीतर प्रकाश की गति के करीब चलते हैं और हर 25 nanoseconds पर cross करते हैं
- वास्तविक collisions दुर्लभ हैं, लेकिन हर collision से कई megabytes data बनता है
- पूरे data को store या process करना असंभव है, इसलिए केवल लगभग 0.02% events ही बचाए जाते हैं
- पहली filtering stage, Level-1 Trigger, लगभग 1,000 FPGA से बनी है और 50 nanoseconds के भीतर data evaluate करती है
- AXOL1TL algorithm सीधे इन chips पर चलता है, वैज्ञानिक रूप से promising events की पहचान करता है और बाकी को तुरंत discard कर देता है
AI approach और tech stack
- CERN के AI models को ultra-small और high-efficiency architecture के साथ डिज़ाइन किया गया है, और ये सामान्य industrial large-scale models से अलग detector-level ultra-low-latency inference के लिए optimized हैं
- models को HLS4ML open source tool के जरिए PyTorch या TensorFlow आधारित models से synthesizable C++ code में बदला जाता है
- बदला गया code FPGA, SoC, ASIC पर सीधे deploy किया जाता है, और GPU या TPU की तुलना में बहुत कम power और silicon area में काम करता है
- chip resources का बड़ा हिस्सा neural network layers की जगह precomputed lookup tables को इम्प्लीमेंट करने में इस्तेमाल होता है
- ये tables आम input patterns के results को पहले से store करके रखती हैं, जिससे ज़्यादातर detector signals के लिए floating-point operations के बिना तुरंत output मिल जाता है
- यही hardware-first design philosophy nanosecond-level latency हासिल करने में मदद करती है
- दूसरी filtering stage, High-Level Trigger, 25,600 CPU और 400 GPU वाले computing farm पर चलती है
- Level-1 Trigger के बाद भी यह प्रति सेकंड कई terabytes data process करती है और इसे प्रतिदिन लगभग 1 petabyte scientific data तक compress करती है
आगे की योजना
- LHC, 2031 में शुरू होने वाले High-Luminosity LHC (HL-LHC) upgrade की तैयारी कर रहा है
- प्रति collision data volume मौजूदा स्तर से लगभग 10 गुना बढ़ने वाली है, और event sizes भी काफी बड़े होंगे
- CERN इसके लिए अगली पीढ़ी के ultra-small AI models और FPGA·ASIC implementation optimization पर काम कर रहा है
- पूरे real-time trigger system को मज़बूत किया जा रहा है, ताकि बहुत अधिक data rates पर भी ultra-low-latency performance बनी रहे
- यह तैयारी आने वाले कई दशकों तक particle physics में नई discoveries को संभव बनाए रखने वाली core foundation मानी जा रही है
महत्व और प्रभाव
- जहां दुनिया की AI industry बड़े models के scale-up पर ध्यान दे रही है, वहीं CERN सबसे छोटे, सबसे तेज़ और सबसे efficient AI models बना रहा है
- ये models FPGA और ASIC पर सीधे इम्प्लीमेंट किए जाते हैं, और इन्हें “Tiny AI” के practical use case के रूप में देखा जा रहा है
- LHC trigger system में ये models ऐसा performance देते हैं जिसे सामान्य AI accelerators हासिल नहीं कर सकते
- nanosecond-level decision-making की extreme environment में ये minimum resources के साथ maximum efficiency दिखाते हैं
- यह approach particle physics से आगे बढ़कर autonomous systems·high-frequency trading·medical imaging·aerospace जैसे उन क्षेत्रों में भी इस्तेमाल हो सकती है जहां ultra-low-latency real-time inference की ज़रूरत होती है
- ऐसे समय में जब energy efficiency और compute resource reduction बेहद महत्वपूर्ण होते जा रहे हैं, CERN के models scale-up की जगह extreme specialization और hardware-level optimization का विकल्प पेश करते हैं
अभी कोई टिप्पणी नहीं है.