- TimesFM Google Research द्वारा विकसित टाइम-सीरीज़ forecasting के लिए एक large pretrained model है, जो decoder-only आर्किटेक्चर का उपयोग करता है
- नवीनतम संस्करण 2.5 200M पैरामीटर, 16k context length, और अधिकतम 1k horizon forecast को सपोर्ट करता है
- इसमें continuous quantile forecasting, covariate input (XReg), और Flax·PyTorch backend जैसी विभिन्न सुविधाएँ शामिल हैं
- मॉडल Hugging Face के माध्यम से सार्वजनिक रूप से उपलब्ध है, और BigQuery में भी इंटीग्रेट किया गया है
- यह टाइम-सीरीज़ डेटा forecasting के लिए एक general-purpose foundation model है, जो research और production दोनों में scalability और efficiency प्रदान करता है
TimesFM अवलोकन
- TimesFM(Time Series Foundation Model) Google Research द्वारा विकसित टाइम-सीरीज़ forecasting के लिए एक pretrained model है
- यह ICML 2024 पेपर “A decoder-only foundation model for time-series forecasting” पर आधारित है
- मॉडल checkpoints Hugging Face collection के माध्यम से उपलब्ध हैं, और BigQuery में भी आधिकारिक रूप से इंटीग्रेट किए गए हैं
- open version आधिकारिक Google product नहीं है
मॉडल संस्करण और प्रमुख अपडेट
- नवीनतम संस्करण TimesFM 2.5 है; पुराने संस्करण (1.0, 2.0)
v1 डायरेक्टरी में रखे गए हैं और timesfm==1.3.0 से इंस्टॉल किए जा सकते हैं
-
15 सितंबर 2025 अपडेट
- TimesFM 2.5 मॉडल जारी किया गया
- पैरामीटर संख्या 200M तक घटाई गई (पहले के 500M की तुलना में आधे से भी कम)
- context length 16k तक बढ़ाई गई (पहले 2048 थी)
- continuous quantile forecast को अधिकतम 1k horizon तक सपोर्ट किया गया, जिसमें वैकल्पिक 30M quantile head शामिल है
frequency indicator हटा दिया गया
- नए forecasting flags जोड़े गए
- inference API अपग्रेड किया गया
- भविष्य में जोड़े जाने वाले आइटम
- Flax version model सपोर्ट (तेज़ inference)
- covariate support की बहाली
- docstring, दस्तावेज़, notebooks को और बेहतर करना
-
29 अक्टूबर 2025 अपडेट
- XReg के माध्यम से covariate input support को TimesFM 2.5 में फिर से जोड़ा गया
इंस्टॉलेशन तरीका
- GitHub repository को clone करें और
uv का उपयोग करके virtual environment बनाएँ और package इंस्टॉल करें
torch, flax, xreg में से वैकल्पिक backend इंस्टॉल किए जा सकते हैं
- OS और accelerator (CPU, GPU, TPU, Apple Silicon) के अनुसार PyTorch या JAX(Flax) चुना जा सकता है
कोड उदाहरण
- PyTorch आधारित TimesFM 2.5 (200M पैरामीटर) मॉडल लोड करने का उदाहरण दिया गया है
timesfm.TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch") का उपयोग
ForecastConfig के माध्यम से input normalization (normalize_inputs), continuous quantile head का उपयोग, positive output force करना (infer_is_positive), quantile crossing fix (fix_quantile_crossing) जैसी सेटिंग्स संभव हैं
forecast() कॉल करने पर point forecast और quantile forecast दोनों परिणाम मिलते हैं
point_forecast.shape: (2, 12)
quantile_forecast.shape: (2, 12, 10) — mean और 10~90 quantile शामिल
अभी कोई टिप्पणी नहीं है.