• Anthropic के Claude Mythos द्वारा बड़े पैमाने पर zero-day vulnerabilities का स्वचालित पता लगाने के बाद, छोटे open models ने भी उन्हीं vulnerabilities को सफलतापूर्वक खोज लिया
  • 3.6B~5.1B parameter वाले models ने FreeBSD·OpenBSD bugs को पुन: प्रस्तुत किया, और कुछ ने Mythos से अलग रचनात्मक exploit paths भी सुझाए
  • प्रयोगों से पता चला कि model size और performance का संबंध non-linear है, और कुछ tasks में छोटे models बड़े models से अधिक सटीक निकले
  • AI security capability सुचारु रूप से scale नहीं होती, बल्कि ‘jagged’ होती है, और वास्तविक प्रतिस्पर्धात्मक बढ़त model में नहीं बल्कि system design और validation pipeline में है
  • इसलिए security moat model नहीं बल्कि system है, और expert knowledge से युक्त orchestration structure AI security का मुख्य तत्व है

System ही moat है, model नहीं

  • 7 अप्रैल 2026 को Anthropic ने Claude Mythos Preview और Project Glasswing की घोषणा की, और Mythos model का उपयोग करके प्रमुख software की security vulnerabilities को स्वचालित रूप से खोजने और patch करने के लिए एक consortium बनाया
    • $100 million के usage credits और open-source security organizations के लिए $4 million donation का वादा किया
    • Mythos ने हजारों zero-day vulnerabilities खोजीं, और OpenBSD का 27 साल पुराना bug, FFmpeg का 16 साल पुराना bug, FreeBSD remote code execution vulnerability आदि को स्वायत्त रूप से खोजकर उनके exploits भी बनाए
  • AISLE ने इन्हीं vulnerabilities को छोटे, सस्ते, open-weight models के साथ पुन: प्रस्तुत किया
    • 8 में से 8 models ने FreeBSD exploit का पता लगाया
    • 3.6B parameter model (प्रति token $0.11) ने भी detection में सफलता पाई
    • 5.1B model ने OpenBSD bug की मुख्य chain को पुनर्निर्मित किया
    • कुछ tasks में छोटे open models बड़े models से बेहतर रहे
  • नतीजतन AI security capability non-linear और jagged है
    • कोई एक model सभी tasks में श्रेष्ठ नहीं है
    • security competitiveness का केंद्र model नहीं बल्कि system है, और expert knowledge से युक्त orchestration structure इसका आधार है

AI security की वर्तमान स्थिति

  • AISLE ने 2025 के मध्य से AI-आधारित vulnerability detection·patching systems को वास्तविक targets पर लागू करना शुरू किया
    • OpenSSL में 15 CVEs, curl में 5, और कुल मिलाकर 180 से अधिक externally validated CVEs खोजे
    • OpenSSL CTO ने कहा कि “report quality और collaboration process उत्कृष्ट है”
  • अलग-अलग models का उपयोग किया गया, लेकिन Anthropic models हमेशा सर्वश्रेष्ठ नहीं रहे
    • task के अनुसार optimal model बदलता रहा, इसलिए model-agnostic approach अपनाई गई

AI security pipeline का विभाजन

  • वास्तविक AI security किसी एक model से नहीं, बल्कि multi-stage pipeline से बनती है
    • wide scanning, vulnerability detection, validation and classification, patch generation, exploit construction जैसे चरणों की scaling characteristics अलग-अलग होती हैं
  • Anthropic पहले input factor, यानी model intelligence, को अधिकतम करता है, जबकि AISLE per-token cost, speed, और security expertise जैसे कई तत्वों को समान महत्व देता है

निष्कर्ष: moat system है

  • Mythos के technical post में बताए गए container execution, file scanning, ASan validation, priority scoring जैसी संरचनाएँ AISLE system से मिलती-जुलती हैं
  • value का केंद्र model नहीं बल्कि targeting, validation, और trust-building process है
  • छोटे models को बड़े पैमाने पर parallel deployment में लगाकर पूरे codebase को व्यापक रूप से खंगालने का तरीका economic efficiency और detection efficiency दोनों देता है
  • Mythos ने category को सिद्ध किया, लेकिन operational scale और reliability हासिल करना अभी भी चुनौती है

प्रयोगों के परिणाम: jagged security capability

  • Mythos announcement में दिखाए गए प्रतिनिधि vulnerabilities पर छोटे, कम-लागत models के साथ प्रयोग किए गए
    • FreeBSD NFS bug, OpenBSD SACK bug, OWASP false-positive test

      • परिणामस्वरूप model size, generation, price, और performance का संबंध non-linear निकला
      • FreeBSD detection में सभी models सफल रहे, OpenBSD में केवल कुछ, और OWASP में छोटे models बड़े models से अधिक सटीक रहे
      • FreeBSD detection: सभी 8 models ने buffer overflow का पता लगाया
      • 3.6B model ने भी सटीक गणना करके RCE संभावना का आकलन किया
      • DeepSeek R1 ने वास्तविक stack structure से मेल खाती गणना की
      • exploit logic में भी सभी models ने ROP chain strategy सुझाई
      • कुछ models ने Mythos से अलग रचनात्मक समाधान दिए, जैसे kernel mode के बजाय user mode में privilege escalation
      • OpenBSD SACK bug: 5.1B model ने पूरी chain को पुनर्निर्मित किया और सही patch भी सुझाया
      • Qwen3 32B FreeBSD में तो परफेक्ट था, लेकिन यहाँ उसने गलत रूप से “safe” कहा
      • हर task में models की performance ranking पूरी तरह उलट गई
  • OWASP false-positive test: साधारण Java code में छोटे models बड़े models से अधिक सटीक

    • GPT-OSS-20b, DeepSeek R1, OpenAI o3 ने सही रूप से निर्णय दिया: “अभी सुरक्षित है, लेकिन vulnerable हो सकता है”
    • कई Anthropic और GPT-4.x series models ने गलत SQL injection detection किया

Patch recognition test (9 अप्रैल 2026 update)

  • FreeBSD के patched version code पर bug detection और fix recognition capability की तुलना की गई
    • सभी models ने unpatched bug को खोज लिया, लेकिन patched code में कई false positives आए
    • केवल GPT-OSS-120b दोनों दिशाओं में सही निकला
    • अधिकांश models ने oa_length sign interpretation error के कारण गलत vulnerability claim किया
  • इससे पता चलता है कि sensitivity (detection power) तो ऊँची है, लेकिन specificity (accuracy) कम है,
    और model के बाहर validation·triage system आवश्यक है

Exploit construction की सीमाएँ

  • Mythos के multi-stage browser sandbox escape, kernel ROP chain जैसे मामले बहुत उन्नत उदाहरण हैं
  • open models exploitability, techniques, और bypass strategies को तार्किक रूप से समझाते हैं, लेकिन
    सीमित environments में रचनात्मक delivery mechanisms अभी भी कमजोर हैं
  • लेकिन defensive workflows में पूर्ण exploit की तुलना में detection और patch reliability अधिक महत्वपूर्ण है

व्यापक दृष्टिकोण

  • Mythos की घोषणा ने AI security की वास्तविक उपयोगिता और औद्योगिक महत्व को सिद्ध किया
    • open-source security के लिए funding और attention बढ़ी
  • लेकिन यह दावा कि “यह capability केवल किसी specific closed model में ही मौजूद है” बढ़ा-चढ़ाकर कहा गया है
    • वास्तव में detection और analysis stage पहले से ही व्यापक रूप से सुलभ हैं
    • security expertise, system design, और trust-building ही असली bottleneck हैं
  • अभी ज़रूरत model की नहीं बल्कि system निर्माण की है

    • scaffolds, pipelines, collaboration structures, development workflow integration
    • models पहले से ही पर्याप्त रूप से तैयार हैं

सीमाएँ और सावधानियाँ

  • test scope सीमित: models को vulnerable functions और hints सीधे दिए गए, यह पूरी तरह autonomous exploration नहीं था
  • tool access नहीं: code execution, loops, या sandbox environments का उपयोग नहीं किया गया
  • model updates परिलक्षित: बाद के कुछ नए Anthropic models में सुधार हुआ
  • claim scope स्पष्ट: यह Mythos की capability को नकारता नहीं,
    बल्कि यह बताता है कि detection capability की exclusivity बढ़ा-चढ़ाकर पेश की गई

परिशिष्ट सारांश

  • FreeBSD detection उद्धरण

    • Kimi K2: “oa_length validation के बिना copy हो रहा है, इसलिए overflow संभव है”
    • Gemma 4: “128-byte stack buffer से अधिक होने की संभावना”
  • task-wise performance comparison table

    • FreeBSD detection में सभी models सफल, OpenBSD में केवल कुछ सफल, OWASP में छोटे models आगे
  • patched code test

    • अधिकांश models ने oa_length sign error के कारण false positives दिए
    • केवल GPT-OSS-120b पूरी तरह सटीक था
    • निष्कर्ष:
    • AI security की मुख्य प्रतिस्पर्धात्मक बढ़त model के size या exclusivity में नहीं,
    • बल्कि expert knowledge से युक्त systemic design और भरोसेमंद operational structure में है।
    • छोटे models भी पर्याप्त रूप से शक्तिशाली हैं, और इनके आधार पर बड़े पैमाने की automated defensive systems बनाना पहले से संभव है।

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.