- व्यक्तिगत हार्डवेयर पर LLM को आसानी से चलाने के लिए डिज़ाइन किया गया ग्राफिकल UI टूल
- बैकएंड प्रबंधन, मॉडल डाउनलोड, हार्डवेयर acceleration settings जैसी जटिल प्रक्रियाओं को स्वचालित करता है
- llama.cpp के फोर्क KoboldCpp पर आधारित, और टेक्स्ट तथा इमेज जनरेशन दोनों का समर्थन
- Windows, macOS, Linux (खासकर Wayland सहित) पर native execution का समर्थन
- केवल CPU सिस्टम पर भी चलता है, और CUDA, ROCm, Vulkan, CLBlast, Metal आधारित GPU acceleration का समर्थन
- इमेज जनरेशन फीचर बिल्ट-इन : Flux, Chroma, Qwen Image, Z-Image जैसे प्रमुख workflow presets उपलब्ध
- HuggingFace एकीकृत खोज फीचर के जरिए ऐप के भीतर मॉडल ब्राउज़ करना, मॉडल कार्ड देखना, और GGUF फ़ाइल सीधे डाउनलोड करना संभव
--cli विकल्प के साथ टर्मिनल-आधारित रनिंग संभव, GUI के बिना वही बैकएंड चलाता है, और रिसोर्स उपयोग न्यूनतम रखता है
- AGPL-3.0 लाइसेंस
1 टिप्पणियां
ollamaकी तुलना में इसके फ़ायदे क्या हैं?