• AMD-समर्थित लोकल AI सर्वर, जो GPU और NPU का उपयोग करके टेक्स्ट·इमेज·वॉइस को तेज़ी से प्रोसेस करने वाला ओपन सोर्स प्लेटफ़ॉर्म है
  • लोकल रन और प्राइवेसी सुरक्षा पर ज़ोर देता है, और OpenAI API मानक के साथ संगत होने के कारण कई ऐप्स से तुरंत जोड़ा जा सकता है
  • C++-आधारित हल्का बैकएंड, ऑटोमैटिक हार्डवेयर सेटअप, और मल्टी-मॉडल समकालिक रन के साथ व्यावहारिक लोकल AI वातावरण प्रदान करता है
  • Chat, Vision, Image Generation, Transcription, Speech Generation को एक एकीकृत API में सपोर्ट करता है
  • Windows, Linux, macOS(beta) पर एक जैसा वातावरण देता है, और बिल्ट-इन GUI से मॉडल डाउनलोड और स्विच करना आसान है

मुख्य विशेषताएँ

  • ओपन सोर्स और लोकल-केंद्रित डिज़ाइन

    • लोकल AI स्वतंत्र, खुला, तेज़ और निजी होना चाहिए — इसी दर्शन पर विकास किया गया है
    • इसे लोकल AI कम्युनिटी ने प्रमुख रूप से बनाया है, और यह सभी PC पर चल सकता है
    • प्राइवेसी सुरक्षा और स्वतंत्र रनटाइम वातावरण को महत्व देता है
  • तेज़ इंस्टॉलेशन और हल्की संरचना

    • One Minute Install के ज़रिए पूरा स्टैक अपने-आप सेट हो जाता है
    • C++ native backend लगभग 2MB आकार की हल्की सेवा है
    • ऑटोमैटिक हार्डवेयर सेटअप फीचर GPU और NPU वातावरण को अपने-आप कॉन्फ़िगर करता है
  • व्यापक संगतता

    • OpenAI API संगतता के साथ सैकड़ों ऐप्स से तुरंत इंटीग्रेशन संभव
    • llama.cpp, Ryzen AI SW, FastFlowLM जैसे विभिन्न inference engine सपोर्ट करता है
    • मल्टी-मॉडल समकालिक रन संभव है, जिससे कई मॉडल समानांतर चलाए जा सकते हैं
  • एकीकृत API

    • एक ही लोकल सेवा में Chat, Vision, Image Generation, Transcription, Speech Generation सभी का सपोर्ट
    • यह मानक REST API के रूप में उपलब्ध है, और उदाहरण के लिए POST /api/v1/chat/completions endpoint के माध्यम से conversational model को कॉल किया जा सकता है
    • उदाहरण अनुरोध में "model": "Qwen3-0.6B-GGUF" का उपयोग करके पेरिस की आबादी पूछी गई है
  • यूज़र इंटरफ़ेस और इकोसिस्टम

    • बिल्ट-इन GUI ऐप से मॉडल डाउनलोड, टेस्ट और स्विच तेज़ी से किए जा सकते हैं
    • OpenAI API मानक के आधार पर कई ऐप्स के साथ तुरंत संगत
    • कम्युनिटी भागीदारी के माध्यम से लगातार सुधार और फीचर विस्तार

तकनीकी विनिर्देश और उपयोग उदाहरण

  • हार्डवेयर और प्रदर्शन

    • 128GB unified RAM वातावरण में gpt-oss-120b, Qwen-Coder-Next जैसे बड़े मॉडल चलाए जा सकते हैं
    • --no-mmap विकल्प के साथ लोड समय कम किया जा सकता है और context size विस्तार (64 से अधिक) संभव है
  • इमेज और वॉइस फीचर

    • इमेज जनरेशन उदाहरण: “Renaissance शैली का Lemonade pitcher”
    • वॉइस उदाहरण: “Hello, I am your AI assistant. What can I do for you today?”

नवीनतम रिलीज़

  • Lemonade में लगातार सुधार हो रहा है, और नई सुविधाएँ व प्रदर्शन सुधार रिलीज़ स्ट्रीम के माध्यम से दिए जाते हैं
  • नई सुविधाएँ और हाइलाइट्स आधिकारिक साइट पर देखे जा सकते हैं

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.