- Ollama Turbo हाई‑परफॉर्मेंस डेटा सेंटर हार्डवेयर पर बड़े ओपन मॉडल को तेज़ी से चलाने के लिए नया सॉल्यूशन है (महीने का शुल्क: $20)
- Ollama के ऐप, CLI, API और JavaScript/Python लाइब्रेरी को उसी तरह इस्तेमाल करते हुए बड़े मॉडल को तेज़ और कुशलता से चलाने का तरीका देता है
- अभी यह प्रीव्यू में है और OpenAI के ओपन मॉडल gpt-oss-20b तथा gpt-oss-120b का समर्थन करता है
- Turbo मोड में क्वेरी इतिहास सर्वर पर सेव नहीं होता और लॉग के रूप में स्टोर नहीं होता
- सिर्फ़ यू.एस. के डेटा सेंटर में हार्डवेयर रन होता है, साथ ही ऑवरली और डेली USAGE लिमिट लागू हैं, और आगे चलकर यूज़-आधारित बिलिंग सिस्टम भी लाया जाएगा
अभी कोई टिप्पणी नहीं है.