• कुल 35 अरब parameters में से केवल 3 अरब ही सक्रिय होने वाली sparse Mixture-of-Experts(MoE) संरचना वाला यह एक open source मॉडल है, जो efficiency और performance दोनों हासिल करता है
  • पिछली पीढ़ी की तुलना में इसकी agentic coding क्षमता में बड़ा सुधार हुआ है, और यह Qwen3.5-27B या Gemma4-31B जैसे बड़े dense मॉडलों के बराबर प्रतिस्पर्धी स्तर दिखाता है
  • SWE-bench, Terminal-Bench, Claw-Eval जैसे प्रमुख coding benchmarks में इसने उच्च स्कोर दर्ज किए हैं, और multimodal tasks में भी Claude Sonnet 4.5 स्तर का प्रदर्शन हासिल किया है
  • Alibaba Cloud Model Studio API, Hugging Face, और ModelScope के जरिए open weights और API access उपलब्ध हैं, तथा OpenClaw·Claude Code जैसे कई coding tools के साथ integration का समर्थन है
  • 3 अरब सक्रिय parameters के साथ यह बड़े मॉडलों की बराबरी करने वाले efficient open model के नए मानक का प्रस्ताव रखता है

Qwen3.6-35B-A3B अवलोकन

  • Qwen3.6-35B-A3B एक sparse Mixture-of-Experts(MoE) मॉडल है, जिसमें कुल 35 अरब parameters में से केवल 3 अरब सक्रिय होते हैं; यह efficiency और performance दोनों से लैस एक open source मॉडल है
  • पिछले संस्करण Qwen3.5-35B-A3B की तुलना में इसकी agentic coding performance में बड़ा सुधार हुआ है, और यह Qwen3.5-27B या Gemma4-31B जैसे बड़े dense मॉडलों से प्रतिस्पर्धा करने योग्य स्तर दिखाता है
  • यह multimodal reasoning और non-reasoning modes दोनों का समर्थन करता है, और Qwen Studio, API, Hugging Face, तथा ModelScope के माध्यम से उपलब्ध है
  • मॉडल को Qwen Studio में interactive तरीके से इस्तेमाल किया जा सकता है, Alibaba Cloud Model Studio API(qwen3.6-flash) के जरिए कॉल किया जा सकता है, या सीधे self-host भी किया जा सकता है

प्रदर्शन मूल्यांकन

  • भाषा और coding प्रदर्शन

    • Qwen3.6-35B-A3B केवल 3 अरब सक्रिय parameters के साथ कई प्रमुख coding benchmarks में Qwen3.5-27B (27 अरब parameters वाला dense मॉडल) से बेहतर प्रदर्शन करता है
    • SWE-bench Verified 73.4, Terminal-Bench 51.5, और Claw-Eval औसत 68.7 जैसे स्कोर दर्ज किए गए
    • QwenWebBench (web code generation benchmark) में इसने 1397 अंक हासिल किए, जो समान श्रेणी के मॉडलों में शीर्ष स्तर का प्रदर्शन है
    • सामान्य agent benchmarks (MCPMark, MCP-Atlas, WideSearch आदि) में भी इसने प्रतिस्पर्धी मॉडलों की तुलना में बेहतर परिणाम दिखाए
    • ज्ञान और reasoning से जुड़े MMLU-Pro, GPQA, AIME26 आदि में भी इसने उच्च accuracy बनाए रखी
  • मूल्यांकन वातावरण

    • SWE-Bench श्रृंखला का मूल्यांकन 200K context window में, आंतरिक agent scaffold (bash + file-edit tools) के आधार पर किया गया
    • Terminal-Bench 2.0 को 3 घंटे की सीमा, 32 CPU/48GB RAM वातावरण में 5 रन के औसत पर मापा गया
    • SkillsBench का मूल्यांकन API-dependent tasks को छोड़कर 78 कार्यों पर किया गया
    • QwenClawBench और QwenWebBench आंतरिक वास्तविक उपयोग वितरण पर आधारित benchmarks हैं, जो वास्तविक user environment को दर्शाते हैं
  • vision-language प्रदर्शन

    • Qwen3.6-35B-A3B एक native multimodal model है, जो केवल 3 अरब सक्रिय parameters के साथ Claude Sonnet 4.5 स्तर का प्रदर्शन हासिल करता है
    • RefCOCO (spatial recognition) 92.0, ODInW13 50.8 के साथ spatial intelligence में इसकी मजबूत क्षमता दिखती है
    • RealWorldQA 85.3, MMBench EN-DEV 92.8, OmniDocBench1.5 89.9 जैसे विभिन्न vision-language tasks में भी उच्च स्कोर दर्ज किए गए
    • video understanding benchmarks (VideoMME, VideoMMMU, MLVU आदि) में भी इसने 80~86 के दायरे में स्थिर प्रदर्शन बनाए रखा

Qwen3.6-35B-A3B का उपयोग

  • deployment और access

    • Alibaba Cloud Model Studio API(qwen3.6-flash) के माध्यम से इसका उपयोग किया जा सकता है, और Hugging Face तथा ModelScope से open weights डाउनलोड किए जा सकते हैं
    • Qwen Studio में इसे तुरंत आज़माया जा सकता है, और OpenClaw, Claude Code, Qwen Code जैसे third-party coding assistants के साथ integration समर्थित है
  • API उपयोग

    • यह preserve_thinking फीचर का समर्थन करता है, जिससे पिछली बातचीत की thinking सामग्री बनी रहती है और यह agentic tasks के लिए उपयुक्त बनता है
    • Alibaba Cloud Model Studio, OpenAI और Anthropic API specifications के साथ compatible chat completions API प्रदान करता है
    • उदाहरण code में enable_thinking विकल्प के जरिए reasoning trace और final answer को अलग-अलग आउटपुट किया जा सकता है
  • OpenClaw integration

    • Qwen3.6-35B-A3B OpenClaw (पूर्व Moltbot/Clawdbot) के साथ compatible है, और Model Studio से कनेक्ट होकर terminal-based agent coding environment प्रदान करता है
    • configuration file (~/.openclaw/openclaw.json) में Model Studio API जानकारी मर्ज करके इसका उपयोग किया जाता है
    • इसे Node.js 22 या उससे ऊपर के वातावरण में install और run किया जा सकता है
  • Qwen Code integration

    • Qwen श्रृंखला के लिए अनुकूलित Qwen Code (terminal के लिए open source AI agent) के साथ यह पूरी तरह compatible है
    • Node.js 20 या उससे ऊपर में install करने के बाद /auth command से authentication प्रक्रिया पूरी की जा सकती है
  • Claude Code integration

    • Anthropic API protocol के समर्थन के कारण इसे Claude Code में भी सीधे इस्तेमाल किया जा सकता है
    • environment variable के रूप में ANTHROPIC_MODEL="qwen3.6-flash" सेट करने के बाद CLI चलाया जा सकता है

सारांश और आगे की दिशा

  • Qwen3.6-35B-A3B ने sparse MoE संरचना के साथ भी बड़े dense मॉडलों के बराबर agentic coding और reasoning क्षमता साबित की है
  • 3 अरब सक्रिय parameters के साथ यह efficiency और performance दोनों हासिल करता है, और multimodal benchmarks में भी उत्कृष्ट परिणाम दिखाता है
  • पूर्ण open source checkpoint के रूप में जारी होकर यह efficient open model के नए मानक को प्रस्तुत करता है
  • Qwen टीम आगे भी Qwen3.6 open source family का विस्तार जारी रखने की योजना रखती है, और community के feedback व उपयोग की अपेक्षा करती है

उद्धरण जानकारी

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.