30 पॉइंट द्वारा xguru 2026-01-20 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • व्यक्तिगत हार्डवेयर पर LLM को आसानी से चलाने के लिए डिज़ाइन किया गया ग्राफिकल UI टूल
  • बैकएंड प्रबंधन, मॉडल डाउनलोड, हार्डवेयर acceleration settings जैसी जटिल प्रक्रियाओं को स्वचालित करता है
  • llama.cpp के फोर्क KoboldCpp पर आधारित, और टेक्स्ट तथा इमेज जनरेशन दोनों का समर्थन
  • Windows, macOS, Linux (खासकर Wayland सहित) पर native execution का समर्थन
  • केवल CPU सिस्टम पर भी चलता है, और CUDA, ROCm, Vulkan, CLBlast, Metal आधारित GPU acceleration का समर्थन
  • इमेज जनरेशन फीचर बिल्ट-इन : Flux, Chroma, Qwen Image, Z-Image जैसे प्रमुख workflow presets उपलब्ध
  • HuggingFace एकीकृत खोज फीचर के जरिए ऐप के भीतर मॉडल ब्राउज़ करना, मॉडल कार्ड देखना, और GGUF फ़ाइल सीधे डाउनलोड करना संभव
  • --cli विकल्प के साथ टर्मिनल-आधारित रनिंग संभव, GUI के बिना वही बैकएंड चलाता है, और रिसोर्स उपयोग न्यूनतम रखता है
  • AGPL-3.0 लाइसेंस

1 टिप्पणियां

 
vigorous5537 2026-01-20

ollama की तुलना में इसके फ़ायदे क्या हैं?