• OpenAI, Claude, Gemini, OpenRouter जैसे कई LLM providers/models के लिए टोकन संख्या और API लागत का तेज़ और सटीक अनुमान लगाने वाला cross-platform CLI टूल
  • प्रत्येक मॉडल के लिए टोकन गणना का समर्थन और मॉडल-विशिष्ट टोकन दरों के आधार पर API कॉल लागत की स्वचालित गणना
  • केवल single prompt ही नहीं, बल्कि JSON chat format, role-आधारित (system/user/assistant) token breakdown, कई models के बीच token/cost comparison, Markdown minify, diff mode, watch mode जैसी वास्तविक workflow के अनुरूप सुविधाएँ
  • load-test फीचर चालू करने पर OpenAI, Anthropic, OpenRouter और custom endpoints के लिए concurrency, latency, error rate, token, और cost को एक साथ मापने वाला load test runner की तरह काम करता है
    • dry-run mode से वास्तविक कॉल के बिना लागत का अनुमान लगाया जा सकता है
  • विभिन्न input/output formats का समर्थन
    • input: सामान्य text और JSON chat format दोनों को संभाल सकता है, साथ ही file input, standard input, prompt comparison (diff) फीचर प्रदान करता है
    • output: text/json/csv/Prometheus/markdown जैसे विभिन्न output formats का समर्थन करता है
  • custom pricing file (TOML) के माध्यम से मॉडल-विशिष्ट कीमतों में बदलाव के अनुसार लागत अनुमान की सटीकता बनाए रखी जा सकती है
  • tokenizer, model definitions, parser, output, HTTP/provider, simulator की modular संरचना के कारण नए model, नए provider जोड़ने या CI/automation pipeline integration के लिए उपयुक्त डिज़ाइन

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.