- MLX लाइब्रेरी का उपयोग करके Mac पर सीधे चलाएं, और शक्तिशाली नवीनतम Qwen3-30B-A3B-8bit मॉडल को लोकल में serve करें
- Localforge में इसे OpenAI API तरीके से जोड़कर agent loop बनाएं
- ollama-आधारित सहायक मॉडल (Gemma3) को अतिरिक्त रूप से कॉन्फ़िगर करके agent की सहायक भूमिका अलग की जा सकती है, जिससे tools का अधिक कुशल उपयोग संभव होता है
- agent को Localforge के UI में सेट करने के बाद यह "LS टूल चलाना", वेबसाइट बनाना, और Snake गेम को अपने आप चलाना तक कर सकता है
- यह पूरी प्रक्रिया मुफ्त है और लोकल पर पूरी तरह स्वायत्त रूप से चल सकती है, इसलिए Mac यूज़र्स के लिए यह खुद आज़माने लायक प्रोजेक्ट है
Mac पर Qwen3 को लोकल में चलाना
Localforge सेटअप
- आधिकारिक साइट: https://localforge.dev
- install के बाद settings में नीचे दिया गया configuration चाहिए:
-
provider जोड़ें
- a) Ollama provider (सहायक मॉडल)
- नाम: LocalOllama
- type: ollama
- install आवश्यक:
gemma3:latest मॉडल (सरल language processing के लिए उपयुक्त)
-
b) Qwen3 provider (मुख्य मॉडल)
-
agent बनाएं
- नाम: qwen3-agent
- main model: qwen3:mlx:30b (model name:
mlx-community/Qwen3-30B-A3B-8bit)
- सहायक मॉडल: LocalOllama (model name:
gemma3:latest)
निष्कर्ष
- Mac पर मुफ्त में बड़े मॉडल को लोकल में चलाकर agent-आधारित automatic coding संभव है
- model selection या system prompt tuning के ज़रिए और अधिक सटीक परिणाम भी हासिल किए जा सकते हैं
- Localforge + MLX + Qwen3 का संयोजन व्यक्तिगत LLM प्रयोगों के लिए बेहद उपयोगी है
3 टिप्पणियां
अगर 30b लोकल पर चलता है तो यह काफी शानदार है, है न? Qwen2.5-Coder मुझे खास नहीं लगा था, लेकिन इसे आज़माना बनता है।
Qwen3 - MacBook पर चलाकर मुफ़्त Vibe coding करें
Hacker News राय
Qwen3-30B-A3B मॉडल को लोकल में इस्तेमाल कर रहा/रही हूँ और यह बहुत प्रभावशाली है। जो लोग GPT-4 का इंतज़ार कर रहे थे, उनके लिए यह एक विकल्प हो सकता है। M3 Max पर 70 tok/s मिल रहे हैं, इसलिए इस्तेमाल करना बहुत सुविधाजनक है
qwen3 चलाकर
lstool call करना "vibe coding" नहीं है। यह LocalForge के विज्ञापन जैसा लगता हैMLX और MLX-LM की तारीफ़ करना चाहता/चाहती हूँ। Gemma 3 मॉडल को लोकल में fine-tune करने के लिए इसका इस्तेमाल कर रहा/रही हूँ, और Apple डेवलपर्स द्वारा बनाए गए libraries और tools अच्छी तरह व्यवस्थित हैं
संयोग से Qwen3 को एक सरल prompt से loop में फँसा दिया
क्या किसी को MCP के साथ ऐसा सेटअप पता है जहाँ लोकल LLM मिलकर काम कर सकें, context को compress कर सकें, या cloud agents के साथ सहयोग कर सकें?
लोकल में असली autonomous agents चलाकर सरल काम करवाने पर एक तेज़ tutorial साझा करना चाहता/चाहती हूँ
LocalForge मिलने की खुशी है। LocalForge के बारे में एक सवाल है। क्या दो agents को जोड़कर image को multimodal agent को देकर html/css बनवाया जा सकता है, और दूसरा agent बाकी कोड लिख सकता है?
बहुत प्रभावशाली है। इसे paid token model जितना अच्छा होने की ज़रूरत नहीं है
अच्छा लग रहा है। Google के Gemma 3 27B के साथ काम करने वाला local-first AI-assisted IDE ढूँढ रहा/रही था/थी
लोकल में मॉडल चलाना अब दिलचस्प होता जा रहा है। खासकर 30B-A3B version एक आशाजनक दिशा जैसा दिखता है। 16 GB VRAM में यह अभी भी पहुँच से बाहर है, लेकिन काफ़ी करीब है