- AMD-समर्थित लोकल AI सर्वर, जो GPU और NPU का उपयोग करके टेक्स्ट·इमेज·वॉइस को तेज़ी से प्रोसेस करने वाला ओपन सोर्स प्लेटफ़ॉर्म है
- लोकल रन और प्राइवेसी सुरक्षा पर ज़ोर देता है, और OpenAI API मानक के साथ संगत होने के कारण कई ऐप्स से तुरंत जोड़ा जा सकता है
- C++-आधारित हल्का बैकएंड, ऑटोमैटिक हार्डवेयर सेटअप, और मल्टी-मॉडल समकालिक रन के साथ व्यावहारिक लोकल AI वातावरण प्रदान करता है
- Chat, Vision, Image Generation, Transcription, Speech Generation को एक एकीकृत API में सपोर्ट करता है
- Windows, Linux, macOS(beta) पर एक जैसा वातावरण देता है, और बिल्ट-इन GUI से मॉडल डाउनलोड और स्विच करना आसान है
मुख्य विशेषताएँ
-
ओपन सोर्स और लोकल-केंद्रित डिज़ाइन
- लोकल AI स्वतंत्र, खुला, तेज़ और निजी होना चाहिए — इसी दर्शन पर विकास किया गया है
- इसे लोकल AI कम्युनिटी ने प्रमुख रूप से बनाया है, और यह सभी PC पर चल सकता है
- प्राइवेसी सुरक्षा और स्वतंत्र रनटाइम वातावरण को महत्व देता है
-
तेज़ इंस्टॉलेशन और हल्की संरचना
- One Minute Install के ज़रिए पूरा स्टैक अपने-आप सेट हो जाता है
- C++ native backend लगभग 2MB आकार की हल्की सेवा है
- ऑटोमैटिक हार्डवेयर सेटअप फीचर GPU और NPU वातावरण को अपने-आप कॉन्फ़िगर करता है
-
व्यापक संगतता
- OpenAI API संगतता के साथ सैकड़ों ऐप्स से तुरंत इंटीग्रेशन संभव
- llama.cpp, Ryzen AI SW, FastFlowLM जैसे विभिन्न inference engine सपोर्ट करता है
- मल्टी-मॉडल समकालिक रन संभव है, जिससे कई मॉडल समानांतर चलाए जा सकते हैं
-
एकीकृत API
- एक ही लोकल सेवा में Chat, Vision, Image Generation, Transcription, Speech Generation सभी का सपोर्ट
- यह मानक REST API के रूप में उपलब्ध है, और उदाहरण के लिए
POST /api/v1/chat/completions endpoint के माध्यम से conversational model को कॉल किया जा सकता है
- उदाहरण अनुरोध में
"model": "Qwen3-0.6B-GGUF" का उपयोग करके पेरिस की आबादी पूछी गई है
-
यूज़र इंटरफ़ेस और इकोसिस्टम
- बिल्ट-इन GUI ऐप से मॉडल डाउनलोड, टेस्ट और स्विच तेज़ी से किए जा सकते हैं
- OpenAI API मानक के आधार पर कई ऐप्स के साथ तुरंत संगत
- कम्युनिटी भागीदारी के माध्यम से लगातार सुधार और फीचर विस्तार
तकनीकी विनिर्देश और उपयोग उदाहरण
-
हार्डवेयर और प्रदर्शन
- 128GB unified RAM वातावरण में gpt-oss-120b, Qwen-Coder-Next जैसे बड़े मॉडल चलाए जा सकते हैं
--no-mmap विकल्प के साथ लोड समय कम किया जा सकता है और context size विस्तार (64 से अधिक) संभव है
-
इमेज और वॉइस फीचर
- इमेज जनरेशन उदाहरण: “Renaissance शैली का Lemonade pitcher”
- वॉइस उदाहरण: “Hello, I am your AI assistant. What can I do for you today?”
नवीनतम रिलीज़
- Lemonade में लगातार सुधार हो रहा है, और नई सुविधाएँ व प्रदर्शन सुधार रिलीज़ स्ट्रीम के माध्यम से दिए जाते हैं
- नई सुविधाएँ और हाइलाइट्स आधिकारिक साइट पर देखे जा सकते हैं
अभी कोई टिप्पणी नहीं है.