Anthropic ने नए मॉडल Claude Mythos को आम जनता के लिए जारी न करने और "Project Glasswing" नाम के एक सीमित प्रीव्यू प्रोग्राम के जरिए केवल चुने हुए सुरक्षा शोध पार्टनर्स को उपलब्ध कराने का फैसला किया है। वजह सीधी है। इस मॉडल की साइबर सुरक्षा कमजोरियाँ खोजने की क्षमता इतनी शक्तिशाली है कि अगर इसका दुरुपयोग हुआ, तो यह दुनिया भर के infrastructure के लिए खतरा बन सकती है.


Claude Mythos क्या है?

Mythos, Claude Opus 4.6 जैसा एक general-purpose मॉडल है, लेकिन साइबर सुरक्षा research में इसकी क्षमता बेहद ज़्यादा है। Anthropic ने बताया कि यह मॉडल पहले ही सभी प्रमुख operating systems और web browsers समेत हजारों high-risk vulnerabilities खोज चुका है।

इसकी क्षमताओं के कुछ ठोस उदाहरण:

  • web browser exploit लिखते समय इसने 4 vulnerabilities को chain करके renderer और OS sandbox दोनों से बाहर निकलने वाला जटिल attack code लिखा।
  • Firefox 147 JavaScript engine की vulnerability को exploit में बदलने वाले एक प्रयोग में, Opus 4.6 सैकड़ों कोशिशों में 2 बार सफल हुआ, जबकि Mythos 181 बार सफल रहा और अतिरिक्त 29 बार register control हासिल करने में भी सफल हुआ।

वास्तव में खोजी गई कमजोरियाँ

Anthropic के Nicholas Carlini ने कहा:

> "मैंने पिछले कुछ हफ्तों में उतने ज़्यादा bugs खोजे हैं, जितने शायद मैंने अपनी पूरी ज़िंदगी में नहीं खोजे थे। OpenBSD में हमने 27 साल पुराना bug पाया, जो सिर्फ कुछ data packets भेजकर server crash करा सकता था।"

वास्तव में उस OpenBSD vulnerability को 25 मार्च 2026 के patch में ठीक कर दिया गया था।


इंडस्ट्री में चेतावनी के संकेत

सुरक्षा विशेषज्ञों के बीच AI की vulnerability detection क्षमता को लेकर पहले ही अलार्म बजने लगे थे।

  • Linux kernel के Greg Kroah-Hartman: "लगभग एक महीने पहले कुछ बदल गया। अब AI द्वारा बनाई गई असली security reports की बाढ़ आ रही है, और उनकी quality भी ऊँची है।"
  • curl के Daniel Stenberg: "AI से जुड़े security issues, 'AI garbage tsunami' से बदलकर 'असली security reports tsunami' बन गए हैं। मैं हर दिन कई घंटे सिर्फ इन्हें संभालने में लगा रहा हूँ।"

Project Glasswing क्या है?

Anthropic ने Mythos को सार्वजनिक रूप से जारी करने के बजाय AWS, Apple, Microsoft, Google और Linux Foundation जैसे पार्टनर्स को शामिल किया है, ताकि वे पहले अपने सिस्टम की कमजोरियाँ खोजकर उन्हें ठीक कर सकें। इसमें 100 million dollars के usage credits और open source security संगठनों को 4 million dollars की सीधी donation भी शामिल है।


लेखक की राय

ब्लॉग लेखक Simon Willison ने कहा कि "'हमारा मॉडल बहुत खतरनाक है' जैसी बात marketing लग सकती है, लेकिन इस मामले में यह सावधानी पूरी तरह उचित है," और उन्होंने सीमित वितरण के फैसले का समर्थन किया। उनके मुताबिक यह घटना ऐसी 'tectonic shift' है जिसके लिए पूरे industry-स्तर पर प्रतिक्रिया की ज़रूरत है, और उन्होंने इच्छा जताई कि OpenAI भी इस initiative में शामिल हो।


निहितार्थ

इस लेख का मुख्य संदेश यह है कि सुरक्षा कमजोरियाँ खोजने में AI की क्षमता अब मानव विशेषज्ञों से आगे निकल चुकी है। यह AI से उत्पन्न होने वाले सबसे वास्तविक खतरों में से एक हो सकता है, और infrastructure चलाने वाली हर संस्था के लिए इसका महत्व बहुत बड़ा है।


मूल लेख: Simon Willison's Weblog, 2026.04.07

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.