• Ollama Turbo हाई‑परफॉर्मेंस डेटा सेंटर हार्डवेयर पर बड़े ओपन मॉडल को तेज़ी से चलाने के लिए नया सॉल्यूशन है (महीने का शुल्क: $20)
  • Ollama के ऐप, CLI, API और JavaScript/Python लाइब्रेरी को उसी तरह इस्तेमाल करते हुए बड़े मॉडल को तेज़ और कुशलता से चलाने का तरीका देता है
  • अभी यह प्रीव्यू में है और OpenAI के ओपन मॉडल gpt-oss-20b तथा gpt-oss-120b का समर्थन करता है
  • Turbo मोड में क्वेरी इतिहास सर्वर पर सेव नहीं होता और लॉग के रूप में स्टोर नहीं होता
  • सिर्फ़ यू.एस. के डेटा सेंटर में हार्डवेयर रन होता है, साथ ही ऑवरली और डेली USAGE लिमिट लागू हैं, और आगे चलकर यूज़-आधारित बिलिंग सिस्टम भी लाया जाएगा

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.