5 पॉइंट द्वारा GN⁺ 4 일 전 | 2 टिप्पणियां | WhatsApp पर शेयर करें
  • GPT-5.5 Chat Completions API और Responses API में जोड़ा गया नवीनतम मॉडल है, और GPT-5.5 pro को कठिन समस्याओं के लिए, जहाँ अधिक compute फायदेमंद है, Responses API requests में साथ जोड़ा गया है
  • 10 लाख token context window और image input, structured output, function calling, prompt caching, Batch, tool search, built-in computer use, hosted shell, apply patch, Skills, MCP, web search तक का व्यापक समर्थन देता है
  • डिफ़ॉल्ट reasoning effort मान medium पर सेट किया गया है, और जब image_detail सेट न हो या auto हो, तब पहले जैसा व्यवहार बना रहता है
  • GPT-5.5 की caching केवल extended prompt caching में काम करती है, in-memory prompt caching समर्थित नहीं है
  • हाल के API बदलाव सिर्फ मॉडल रिलीज़ से आगे बढ़कर image, audio, realtime, video और agent tools तक फैल रहे हैं, और GPT-5.5 श्रृंखला उनमें सबसे नई प्रमुख additions में शामिल है

परिवर्तन लॉग

अप्रैल 2026

  • 24 अप्रैल

    • GPT-5.5 को Chat Completions API और Responses API में लॉन्च किया गया, और कठिन समस्याओं के लिए, जहाँ अधिक compute फायदेमंद है, GPT-5.5 pro को Responses API requests में साथ जोड़ा गया
    • GPT-5.5 10 लाख token context window, image input, structured output, function calling, prompt caching, Batch, tool search, built-in computer use, hosted shell, apply patch, Skills, MCP, web search को समर्थन देता है
    • मुख्य बदलावों में reasoning effort का डिफ़ॉल्ट मान medium पर सेट किया गया है
    • जब image_detail सेट न हो या auto हो, तब पहले का व्यवहार इस्तेमाल होता है
    • GPT-5.5 की caching केवल extended prompt caching में काम करती है और in-memory prompt caching को समर्थन नहीं देती
  • 21 अप्रैल

    • GPT Image 2 को image generation और editing के लिए नवीनतम image generation मॉडल के रूप में लॉन्च किया गया
    • GPT Image 2 में flexible image sizes, high-fidelity image input, token-based image billing, और 50% छूट वाले Batch API support शामिल हैं
  • 15 अप्रैल

    • Agents SDK में नई सुविधाएँ जोड़ी गईं
      • नियंत्रित sandbox में agent चलाया जा सकता है
      • open source harness की जाँच और customization किया जा सकता है
      • memory के बनने के समय और उसे कहाँ store किया जाए, इस पर नियंत्रण किया जा सकता है

मार्च 2026

  • 17 मार्च

    • GPT-5.4 mini और GPT-5.4 nano को Chat Completions API और Responses API में लॉन्च किया गया
    • GPT-5.4 mini GPT-5.4-स्तर का प्रदर्शन अधिक तेज़ और efficient रूप में देता है, इसलिए यह high-throughput workload के लिए उपयुक्त है
    • GPT-5.4 nano को ऐसे सरल बड़े पैमाने के कामों के लिए optimize किया गया है जहाँ speed और cost सबसे महत्वपूर्ण हैं
    • GPT-5.4 mini tool search, built-in computer use, और compaction को समर्थन देता है
    • GPT-5.4 nano compaction को समर्थन देता है, लेकिन tool search और computer use को नहीं
  • 16 मार्च

    • gpt-5.3-chat-latest slug को अपडेट किया गया ताकि वह ChatGPT में वर्तमान में उपयोग हो रहे नवीनतम मॉडल की ओर इशारा करे
  • 13 मार्च

    • GPT-5.4 के input_image input में आने वाले छोटे bug को ठीक करने के लिए image encoder को अपडेट किया गया
    • कुछ image understanding use cases में quality बेहतर हो सकती है
    • अलग से कोई कार्रवाई आवश्यक नहीं है
  • 12 मार्च

    • Sora API का विस्तार करके reusable character reference, अधिकतम 20 सेकंड तक की लंबी generation, sora-2-pro के लिए 1080p output, video extension, और POST /v1/videos के लिए Batch API support जोड़ा गया
    • sora-2-pro की 1080p generation पर $0.70 प्रति सेकंड शुल्क लिया जाता है
    • विस्तृत जानकारी: video generation guide
  • 12 मार्च अपडेट

    • मौजूदा वीडियो editing के लिए POST /v1/videos/edits जोड़ा गया
    • POST /v1/videos/{video_id}/remix इसका स्थान लेने वाला path है और 6 महीने बाद support बंद होने वाला है
    • विस्तृत जानकारी: edit existing videos
  • 5 मार्च

    • GPT-5.4 को Chat Completions API और Responses API में लॉन्च किया गया, और कठिन समस्याओं के लिए, जहाँ अधिक compute फायदेमंद है, GPT-5.4 pro को Responses API में जोड़ा गया
    • Responses API का tool search भी लॉन्च किया गया, जिससे मॉडल बड़े tool surface को runtime तक टाल सकता है, token usage कम कर सकता है, cache performance बनाए रख सकता है, और latency बेहतर कर सकता है
    • GPT-5.4 में Responses API computer tool के जरिए built-in computer use support जोड़ा गया, जिससे screenshot-आधारित UI interaction संभव हुआ
    • लंबे समय तक चलने वाले agent workflows के लिए 10 लाख token context window और native Compaction support दिया गया
  • 3 मार्च

    • gpt-5.3-chat-latest को Chat Completions API और Responses API में लॉन्च किया गया
    • यह मॉडल वर्तमान में ChatGPT में उपयोग हो रहे GPT-5.3 Instant snapshot की ओर इशारा करता है
    • विस्तृत जानकारी: gpt-5.3-chat-latest

फ़रवरी 2026

  • 24 फ़रवरी

    • input_file सपोर्ट का दायरा बढ़ाया गया, ताकि अब अधिक दस्तावेज़, प्रेज़ेंटेशन, स्प्रेडशीट, कोड और टेक्स्ट फ़ाइल फ़ॉर्मैट स्वीकार किए जा सकें
    • अधिक जानकारी: file inputs
  • 24 फ़रवरी Responses API

    • Responses API में phase जोड़ा गया
    • assistant मैसेज को बीच की व्याख्या commentary और अंतिम उत्तर final_answer के रूप में अलग-अलग लेबल किया गया
    • अधिक जानकारी: phase
  • 24 फ़रवरी gpt-5.3-codex

    • gpt-5.3-codex को Responses API में लॉन्च किया गया
    • अधिक जानकारी: gpt-5.3-codex
  • 23 फ़रवरी

    • Responses API में WebSocket mode पेश किया गया
    • अधिक जानकारी: websocket mode
  • 23 फ़रवरी ऑडियो और रीयलटाइम मॉडल

    • gpt-realtime-1.5 को Realtime API में लॉन्च किया गया
    • gpt-audio-1.5 को Chat Completions API में लॉन्च किया गया
  • 10 फ़रवरी GPT Image Batch

    • Batch API के लिए gpt-image-1.5, chatgpt-image-latest, gpt-image-1, gpt-image-1-mini पर सपोर्ट जोड़ा गया
  • 10 फ़रवरी gpt-5.2-chat-latest

    • gpt-5.2-chat-latest slug को अपडेट किया गया ताकि यह उस नवीनतम मॉडल की ओर इशारा करे जिसे अभी ChatGPT इस्तेमाल कर रहा है
  • 10 फ़रवरी compaction

  • 10 फ़रवरी Skills

    • Responses API में Skills सपोर्ट पेश किया गया
    • Skills को local execution और hosted container-आधारित execution, दोनों में सपोर्ट किया गया
  • 10 फ़रवरी Hosted Shell

    • नया Hosted Shell टूल पेश किया गया, और container के भीतर networking का सपोर्ट भी जोड़ा गया
  • 9 फ़रवरी

    • GPT image मॉडल के /v1/images/edits में application/json request सपोर्ट जोड़ा गया
    • JSON request में multipart upload की जगह images और वैकल्पिक mask के लिए image_url या file_id रेफ़रेंस का उपयोग किया जाता है
  • 3 फ़रवरी

    • API ग्राहकों के लिए inference stack को optimize किया गया, जिससे GPT-5.2 और GPT-5.2-Codex लगभग 40% तेज़ चलने लगे
    • मॉडल और मॉडल weights में कोई बदलाव नहीं किया गया

जनवरी 2026

  • 15 जनवरी

    • Open Responses की घोषणा की गई
    • यह OpenAI Responses API के ऊपर बनाया गया multi-provider interoperable LLM interface के लिए एक open source spec है
  • 14 जनवरी

    • gpt-5.2-codex को Responses API में लॉन्च किया गया
    • GPT-5.2-Codex, GPT-5.2 का एक variant है, जिसे Codex या इसी तरह के environment में agentic coding कार्यों के लिए optimize किया गया है
    • अधिक जानकारी: gpt-5.2-codex
  • 13 जनवरी Realtime SIP

    • Realtime API में dedicated SIP IP range जोड़ी गई
    • sip.api.openai.com GeoIP routing करता है और SIP ट्रैफ़िक को सबसे नज़दीकी region में भेजता है
    • अधिक जानकारी: dedicated SIP IP ranges
  • 13 जनवरी मॉडल slug अपडेट

    • gpt-realtime-mini और gpt-audio-mini slug को अपडेट किया गया ताकि वे 2025-12-15 snapshot की ओर इशारा करें
    • अगर आपको पिछला मॉडल snapshot चाहिए, तो gpt-realtime-mini-2025-10-06 और gpt-audio-mini-2025-10-06 का उपयोग किया जा सकता है
    • sora-2 slug को अपडेट किया गया ताकि वह sora-2-2025-12-08 की ओर इशारा करे
    • अगर आपको पिछला sora-2 snapshot चाहिए, तो sora-2-2025-10-06 का उपयोग किया जा सकता है
    • gpt-4o-mini-tts और gpt-4o-mini-transcribe slug को अपडेट किया गया ताकि वे 2025-12-15 snapshot की ओर इशारा करें
    • अगर आपको पिछला मॉडल snapshot चाहिए, तो gpt-4o-mini-tts-2025-03-20 और gpt-4o-mini-transcribe-2025-03-20 का उपयोग किया जा सकता है
    • मौजूदा समय में बेहतर परिणामों के लिए gpt-4o-transcribe की तुलना में gpt-4o-mini-transcribe के उपयोग की सिफारिश की गई
  • 9 जनवरी

    • /v1/images/edits में gpt-image-1.5 और chatgpt-image-latest के उस मुद्दे को ठीक किया गया, जिसमें fidelity को स्पष्ट रूप से low सेट करने पर भी गलती से high fidelity इस्तेमाल हो रही थी

दिसंबर 2025

  • 19 दिसंबर

    • gpt-image-1.5 और chatgpt-image-latest को Responses API के image generation tool में जोड़ा गया
  • 16 दिसंबर

  • 15 दिसंबर

    • नए date-based audio snapshots के 4 संस्करण लॉन्च किए गए
    • इस अपडेट से real-time voice-based applications की reliability, quality और voice fidelity बेहतर होती है
    • अधिक जानकारी: updates audio models
    • gpt-realtime-mini-2025-12-15
    • gpt-audio-mini-2025-12-15
    • gpt-4o-mini-transcribe-2025-12-15
    • gpt-4o-mini-tts-2025-12-15
    • इस रिलीज़ में योग्य ग्राहकों के लिए Custom voices support भी शामिल है
  • 11 दिसंबर GPT-5.2

    • GPT-5.2 को GPT-5 family के नवीनतम flagship model के रूप में लॉन्च किया गया
    • GPT-5.1 की तुलना में general intelligence, instruction following, accuracy और token efficiency, multimodality खासकर vision, code generation खासकर frontend UI generation, API में tool calling और context management, तथा spreadsheet understanding और generation में सुधार हुआ है
    • xhigh reasoning effort level, concise reasoning summary, और compaction का उपयोग करने वाला नया context management जोड़ा गया
  • 11 दिसंबर client-side compaction

    • client-side compaction लॉन्च किया गया
    • Responses API में लंबे समय तक चलने वाली बातचीत के दौरान /responses/compact endpoint से हर turn में भेजे जाने वाले context को कम किया जा सकता है
  • 4 दिसंबर

    • gpt-5.1-codex-max को Responses API में लॉन्च किया गया
    • GPT-5.1-Codex, long-horizon agentic coding tasks के लिए optimized सबसे intelligent coding model है
    • अधिक जानकारी: gpt-5.1-codex-max

नवंबर 2025

  • 20 नवंबर

    • Realtime API में DTMF key input support जोड़ा गया
    • Realtime sideband connection उपयोग करते समय DTMF events प्राप्त किए जा सकते हैं
    • अधिक जानकारी: dtmf_event_received
  • 13 नवंबर GPT-5.1

    • GPT-5.1 को GPT-5 family के नवीनतम flagship model के रूप में लॉन्च किया गया
    • इसे खास तौर पर steerability, कम सोच की ज़रूरत वाली स्थितियों में तेज़ response, code generation और coding use cases, तथा agentic workflow में मजबूत प्रदर्शन के लिए train किया गया
    • GPT-5.1, कम सोच की ज़रूरत वाली स्थितियों में तेज़ response के लिए नया none reasoning setting default रूप में उपयोग करता है
    • यह default, GPT-5 के पिछले default medium से अलग है
  • 13 नवंबर RBAC

    • enhanced role-based access controls लॉन्च किए गए
    • RBAC API और Dashboard दोनों में organization और project स्तर पर यह तय करने देता है कि कौन क्या कर सकता है
  • 13 नवंबर GPT-5.1-Codex

    • gpt-5.1-codex और gpt-5.1-codex-mini को Responses API में लॉन्च किया गया
    • GPT-5.1-Codex, Codex या समान environment में agentic coding tasks के लिए optimized GPT-5.1 variant है
    • अधिक जानकारी: gpt-5.1-codex
  • 13 नवंबर extended prompt caching

    • extended prompt cache retention लॉन्च किया गया
    • cached prefix को अधिक समय तक, अधिकतम 24 घंटे तक, active रखा जाता है
    • memory भर जाने पर key/value tensor को GPU local storage में offload किया जाता है, जिससे caching के लिए उपलब्ध storage capacity काफी बढ़ जाती है

अक्टूबर 2025

  • 29 अक्टूबर

    • gpt-oss-safeguard-120b और gpt-oss-safeguard-20b, gpt-oss के ऊपर बनाए गए safety reasoning मॉडल हैं
    • अधिक जानकारी: gpt-oss-safeguard collection
  • 24 अक्टूबर

    • Enterprise Key Management (EKM) लॉन्च किया गया
    • EKM, बाहरी Key Management System(KMS) में प्रबंधित keys का उपयोग करके OpenAI के भीतर ग्राहक content को encrypt करने की सुविधा देता है
    • UK data residency भी लॉन्च किया गया
  • 6 अक्टूबर OpenAI DevDay

    • OpenAI DevDay में कई फीचर्स पेश किए गए
    • gpt-5-pro लॉन्च किया गया
      • यह GPT-5 की तुलना में अधिक compute का उपयोग करके ज्यादा गहराई से सोचता है और लगातार बेहतर उत्तर देता है
    • gpt-realtime-mini और gpt-audio-mini को अधिक cost-efficient speech-to-speech performance के लिए लॉन्च किया गया
    • gpt-image-1-mini को अधिक cost-efficient image generation और editing के लिए लॉन्च किया गया
    • नवीनतम Sora 2 और Sora 2 Pro मॉडल के साथ समृद्ध, विस्तृत और dynamic video generation तथा remix के लिए v1/videos लॉन्च किया गया
    • custom multi-agent workflow को विज़ुअली बनाने के लिए Agent Builder लॉन्च किया गया
    • agent deployment के लिए embedded chat interface ChatKit लॉन्च किया गया
    • Trace Evals, Datasets, and Prompt Optimization tools लॉन्च किए गए
    • Evals में Third-Party Model Support जोड़ा गया
    • Service health dashboard लॉन्च किया गया
  • 1 अक्टूबर

    • IP allowlist लॉन्च किया गया
    • केवल निर्दिष्ट IP addresses या ranges को API तक पहुँचने की अनुमति देता है

सितंबर 2025

  • 26 सितंबर

    • Responses API के tool call output में images और files का समर्थन जोड़ा गया
  • 23 सितंबर

    • gpt-5-codex को special-purpose मॉडल के रूप में लॉन्च किया गया
    • इसे Codex CLI उपयोग के अनुरूप बनाया और optimize किया गया

अगस्त 2025

  • 28 अगस्त

    • OpenAI Realtime API का औपचारिक लॉन्च किया गया
    • अधिक जानकारी: Realtime API guide
  • 21 अगस्त

    • Responses API में connectors समर्थन जोड़ा गया
    • connector, Google apps, Dropbox जैसी लोकप्रिय सेवाओं के लिए OpenAI-maintained MCP wrapper है, और इसका उपयोग मॉडल को उन सेवाओं में संग्रहीत डेटा पर read access देने के लिए किया जा सकता है
  • 20 अगस्त

    • Conversations API लॉन्च किया गया
    • इससे Responses API के साथ long-running conversations बनाई और प्रबंधित की जा सकती हैं
    • Assistants API integration से Responses और Conversations पर जाने का तरीका तथा side-by-side तुलना migration guide में देखी जा सकती है
  • 7 अगस्त

    • API में GPT-5 family के मॉडल gpt-5, gpt-5-mini, gpt-5-nano लॉन्च किए गए
    • reasoning को support करने वाले GPT-5 मॉडलों में तेज response optimization के लिए minimal reasoning effort value पेश की गई
    • free-form input और output की अनुमति देने वाला custom tool call type पेश किया गया

जून 2025

  • 27 जून

    • Priority processing सपोर्ट लॉन्च किया गया
    • Standard processing की तुलना में latency बहुत कम और अधिक consistent है, जबकि usage-based flexibility बनी रहती है
  • 24 जून

  • 13 जून

    • नए reusable prompts को Dashboard और Responses API में इस्तेमाल करने योग्य बनाया गया
    • API में prompt पैरामीटर के जरिए Dashboard में बनाए गए templates को refer किया जा सकता है, और साथ में prompt id, optional version, तथा string, image, file inputs को शामिल कर सकने वाले dynamic variables भेजे जा सकते हैं
    • reusable prompts को Chat Completions में इस्तेमाल नहीं किया जा सकता
    • अधिक जानकारी: reusable prompts
  • 10 जून

    • o3-pro को Responses API और Batch API में लॉन्च किया गया
    • इसे o3 reasoning मॉडल की तुलना में अधिक compute इस्तेमाल करने के लिए बनाया गया है, ताकि कठिन समस्याओं पर बेहतर reasoning और consistency के साथ जवाब दे सके
    • सभी API requests में o3 मॉडल की कीमत कम की गई, जिसमें batch और flex processing भी शामिल हैं
      • अधिक जानकारी: pricing
  • 4 जून

    • gpt-4.1-2025-04-14, gpt-4.1-mini-2025-04-14, gpt-4.1-nano-2025-04-14 में direct preference optimization का उपयोग करने वाले fine-tuning सपोर्ट को जोड़ा गया
  • 3 जून

मई 2025

  • 20 मई embedded tools

    • Responses API में नए embedded tools जोड़े गए
    • इनमें remote MCP servers और code interpreter शामिल हैं
    • अधिक जानकारी: tools
  • 20 मई schema

    • Responses API और Chat Completions API में fine-tuned न किए गए मॉडलों के parallel tool calling के दौरान tool schema में strict mode का उपयोग संभव बनाया गया
    • नए schema features भी जोड़े गए, जिनमें email और अन्य patterns के लिए string validation, तथा numbers और arrays के लिए range specification शामिल है
  • 15 मई

    • codex-mini-latest को API में लॉन्च किया गया
    • इसे Codex CLI उपयोग के लिए optimize किया गया है
  • 7 मई

    • reinforcement fine-tuning सपोर्ट लॉन्च किया गया
    • उपलब्ध fine-tuning तरीके fine-tuning guide में देखे जा सकते हैं
    • gpt-4.1-nano को fine-tuning योग्य मॉडल के रूप में जोड़ा गया

अप्रैल 2025

  • 30 अप्रैल

  • 23 अप्रैल

    • image generation मॉडल gpt-image-1 जोड़ा गया
    • इस मॉडल में quality और instruction following बेहतर है, जिससे यह image generation के लिए एक नया benchmark बनता है
    • Image Generation और Edit endpoints को भी gpt-image-1-विशिष्ट नए parameters सपोर्ट करने के लिए अपडेट किया गया
  • 16 अप्रैल

    • o3 और o4-mini, ये दो o-series reasoning मॉडल Chat Completions API और Responses API में जोड़े गए
    • ये math, science, coding, visual reasoning tasks, और technical documentation writing में नया benchmark बनते हैं
    • code generation CLI tool Codex भी लॉन्च किया गया
  • 14 अप्रैल

    • gpt-4.1, gpt-4.1-mini, gpt-4.1-nano को API में जोड़ा गया
    • instruction following, coding, और अधिकतम 10 लाख tokens की बड़ी context window प्रदान की गई
    • gpt-4.1 और gpt-4.1-mini के लिए supervised fine-tuning उपलब्ध है
    • gpt-4.5-preview के support end की भी घोषणा की गई

मार्च 2025

  • 20 मार्च

    • Audio API में gpt-4o-mini-tts, gpt-4o-transcribe, gpt-4o-mini-transcribe, whisper-1 मॉडल जोड़े गए
  • 19 मार्च

    • o1-pro को Responses API और Batch API में लॉन्च किया गया
    • इसे o1 reasoning मॉडल की तुलना में अधिक computation इस्तेमाल करके कठिन समस्याओं का बेहतर reasoning और consistency के साथ जवाब देने के लिए बनाया गया
  • 11 मार्च

    • agentic workflow के लिए कई नए मॉडल, टूल और नए API लॉन्च किए गए
    • Responses API लॉन्च किया गया ताकि agent और टूल बनाए और इस्तेमाल किए जा सकें
    • Responses API के लिए built-in tools के सेट के रूप में web search, file search, computer use लॉन्च किए गए
    • agent के design, build और deploy के लिए orchestration framework Agents SDK लॉन्च किया गया
    • gpt-4o-search-preview, gpt-4o-mini-search-preview, computer-use-preview मॉडल घोषित किए गए
    • Assistants API की सभी capabilities को अधिक उपयोग में आसान Responses API में स्थानांतरित करने की योजना बताई गई, और पूरी feature parity हासिल होने के बाद 2026 में Assistants को बंद करने का प्रस्तावित समय साझा किया गया
  • 3 मार्च

    • fine-tuning job में metadata फ़ील्ड का सपोर्ट जोड़ा गया

फ़रवरी 2025

  • 27 फ़रवरी

    • GPT-4.5 को research preview के रूप में Chat Completions API, Assistants API, Batch API में लॉन्च किया गया
    • GPT-4.5 को सबसे बड़ा और सबसे high-performance chat मॉडल बताया गया, और उच्च EQ व user intent की समझ के आधार पर यह creative काम और agentic planning में अधिक मजबूत है
  • 25 फ़रवरी

    • API Usage Dashboard Update लॉन्च किया गया
    • project selection, date picker, और granular time intervals जैसे अतिरिक्त data filter के अनुरोधों को शामिल किया गया
    • अलग-अलग products और service tiers में usage को बेहतर तरीके से देखने की सुविधा दी गई
  • 5 फ़रवरी

    • यूरोपीय data residency शुरू की गई
    • अधिक जानकारी: your data

जनवरी 2025

  • 31 जनवरी

    • o3-mini को एक छोटे reasoning मॉडल के रूप में लॉन्च किया गया
    • इसे science, math, और coding tasks के लिए optimize किया गया
  • 21 जनवरी

    • o1 model की access range बढ़ाई गई
    • o1 series के मॉडल reinforcement learning के जरिए complex reasoning करने के लिए प्रशिक्षित किए गए हैं

दिसंबर 2024

  • 18 दिसंबर

    • Admin API Key Rotations लॉन्च किया गया ताकि admin API key को programmatically rotate किया जा सके
    • Admin API Invites को अपडेट किया गया ताकि organization invite के साथ-साथ project में users को programmatically invite किया जा सके
  • 17 दिसंबर

  • 4 दिसंबर

    • Usage API लॉन्च किया गया
    • OpenAI API के पूरे ecosystem में activity और spending को programmatically query किया जा सकता है

नवंबर 2024

  • 20 नवंबर

    • gpt-4o-2024-11-20 को v1/chat/completions में लॉन्च किया गया
    • यह gpt-4o series का नवीनतम मॉडल है
  • 4 नवंबर

    • Predicted Outputs लॉन्च किया गया
    • उन स्थितियों में मॉडल response latency को काफी कम करता है जहाँ response का बड़ा हिस्सा पहले से पता होता है
    • खास तौर पर तब उपयोगी है जब documents और code files की सामग्री को केवल मामूली बदलावों के साथ फिर से generate करना हो

अक्टूबर 2024

  • 30 अक्टूबर

    • Realtime API और Chat Completions API में 5 नए voice types जोड़े गए
    • लक्षित मॉडल gpt-4o-realtime-preview, gpt-4o-audio-preview हैं, और endpoint के रूप में v1/chat/completions भी साथ में दर्ज है
  • 17 अक्टूबर

    • नया gpt-4o-audio-preview मॉडल पेश किया गया
    • Chat Completions में audio input और output दोनों का समर्थन करता है
    • यह मॉडल Realtime API के समान base model का उपयोग करता है
  • 1 अक्टूबर OpenAI DevDay in San Francisco

    • OpenAI DevDay in San Francisco में कई features एक साथ पेश किए गए
    • Realtime API WebSockets interface के ज़रिए applications में तेज speech-to-speech experience बनाने की सुविधा देता है
    • Model distillation बड़े frontier models के output का उपयोग करके cost-efficient models को fine-tune करने की सुविधा देता है
    • Image fine-tuning image और text के साथ GPT-4o को fine-tune करके visual capabilities को बेहतर बनाता है
    • Evals खास tasks में model performance मापने के लिए custom evaluations चलाने की सुविधा देता है
    • Prompt caching हाल में देखे गए input tokens के लिए discount और तेज processing time देता है
    • Generate in playground Generate button के ज़रिए prompt, function definitions, और structured output schema आसानी से बनाने की सुविधा देता है

सितंबर 2024

  • 26 सितंबर

    • नया omni-moderation-latest moderation मॉडल पेश किया गया
    • image और text को support करता है, और कुछ categories में text और image को साथ में संभालता है
    • 2 नई text-only harm categories को support करता है और scoring accuracy भी बेहतर हुई है
  • 12 सितंबर

    • o1-preview और o1-mini पेश किए गए
    • दोनों मॉडल reinforcement learning से प्रशिक्षित नए बड़े language models हैं और जटिल reasoning tasks को पूरा करने के लिए बनाए गए हैं
    • endpoint को v1/chat/completions के रूप में दिखाया गया है

अगस्त 2024

जुलाई 2024

  • 24 जुलाई

    • self-serve SSO configuration लॉन्च किया गया
    • Enterprise ग्राहकों में custom और unlimited billing users अपनी पसंद के IDP के अनुरूप authentication सेट कर सकते हैं
  • 23 जुलाई

    • GPT-4o mini fine-tuning लॉन्च की गई, जिससे खास use cases में बेहतर performance हासिल की जा सके
  • 18 जुलाई

    • GPT-4o mini पेश किया गया
    • इसे तेज और हल्के workloads के लिए low-cost small model के रूप में पेश किया गया
  • 17 जुलाई

    • Uploads लॉन्च किया गया, जिससे बड़ी files को कई parts में बाँटकर upload किया जा सकता है

जून 2024

  • 6 जून

    • Chat Completions और Assistants API में parallel_tool_calls=false भेजकर parallel function calling को disable किया जा सकता है
    • .NET SDK Beta के रूप में लॉन्च किया गया
  • 3 जून

मई 2024

  • 15 मई

    • Project Archive सपोर्ट जोड़ा गया, और इस तक केवल organization owner ही पहुंच सकते हैं
    • usage-based ग्राहकों के लिए प्रोजेक्ट-वार cost limit सेटिंग सपोर्ट भी जोड़ा गया
  • 13 मई

    • GPT-4o को API में लॉन्च किया गया
    • इसे सबसे तेज़ और सबसे सस्ता flagship मॉडल बताया गया है
  • 9 मई

    • Assistants API अब image input को सपोर्ट करता है
  • 7 मई

  • 6 मई

    • Chat Completions API और Completions API में stream_options: {"include_usage": true} पैरामीटर जोड़ा गया
    • इस सेटिंग का उपयोग करने पर streaming के दौरान usage statistics तक पहुंच मिलती है
  • 2 मई

    • Assistants API में thread के messages हटाने के लिए नया endpoint जोड़ा गया

अप्रैल 2024

  • 29 अप्रैल

  • 17 अप्रैल

    • Assistants API updates bundle पेश किया गया
    • नया file search tool प्रति assistant अधिकतम 10,000 files की अनुमति देता है
    • इसमें नए token controls और tool choice सपोर्ट भी शामिल हैं
  • 16 अप्रैल

    • project-based hierarchy पेश की गई, जिससे प्रोजेक्ट के हिसाब से काम व्यवस्थित किया जा सकता है
    • API keys बनाए जा सकते हैं
    • प्रोजेक्ट-वार rate limit और cost limit मैनेज किए जा सकते हैं, और cost limit केवल Enterprise ग्राहकों के लिए उपलब्ध है
  • 15 अप्रैल

    • Batch API लॉन्च किया गया
  • 9 अप्रैल

  • 4 अप्रैल

    • fine-tuning API में seed सपोर्ट जोड़ा गया
    • fine-tuning API में checkpoints सपोर्ट जोड़ा गया
    • Assistants API में Run बनाते समय Messages जोड़ने का सपोर्ट जोड़ा गया
  • 1 अप्रैल

मार्च 2024

  • 29 मार्च

  • 14 मार्च

    • Assistants API में streaming सपोर्ट जोड़ा गया

फ़रवरी 2024

जनवरी 2024

  • 25 जनवरी

    • embedding V3 मॉडल और अपडेटेड GPT-4 Turbo preview पेश किया गया
    • Embeddings API में dimensions पैरामीटर जोड़ा गया

दिसंबर 2023

नवंबर 2023

अक्टूबर 2023

2 टिप्पणियां

 
ragingwind 4 일 전

अब 5.4 से pro के लिए Chat Completions API अब उपलब्ध नहीं है।

 
GN⁺ 4 일 전
Hacker News की राय
  • प्रोडक्शन issue की वजह से मैंने इसे तुरंत आज़माया, और Claude ऐसा नहीं करता था लेकिन GPT-5.5 ने किया
    troubleshooting के बाद इसने update statement लिखवाया, और जब मैंने कहा, "ठीक है, इसे transaction में wrap करते हैं और rollback भी जोड़ते हैं," तो इसने पुराने अंदाज़ में बस
    BEGIN TRAN;
    -- put the query here
    commit;
    इतना ही दे दिया
    काफ़ी समय से मुझे मॉडल को यह कहकर दोबारा धक्का नहीं देना पड़ा था कि जो काम कहा है वह सच में करे, इसलिए यह काफ़ी चौंकाने वाला था
    मैं समझता हूँ कि यह कम tokens इस्तेमाल करना चाहता होगा, लेकिन state-of-the-art model के लिए पैसे दे रहा हूँ और अगर यह ऐसे आलसीपन से जवाब दे तो चिढ़ होती है
    Cursor में model selector में दिखा तो बस टेस्ट करके देखा

    • gpt-5.3-codex के बाद की हाल की 2~3 पीढ़ियाँ बहुत बेहतर हुई हैं, ऐसा कम लगता है; ज़्यादा ऐसा लगता है कि इधर-उधर चीज़ें बदलकर बस अलग tradeoff बना दिए गए हैं
    • हो सकता है मैं गलत समझ रहा हूँ, लेकिन असल में समस्या क्या थी यह जानने की जिज्ञासा है
      अगर समस्या यह थी कि जवाब में सिर्फ -- put the query here था और query दोबारा नहीं दोहराई गई, तो मैं उसे ज़रूरी तौर पर समस्या नहीं मानूँगा
      अगर असली लक्ष्य चलाने वाली query मिलना था और आपने कहा "इसे transaction में करते हैं," तो बस यह बताना कि begin पहले लगा दो, काफ़ी तर्कसंगत है
      अगर query लंबी थी तो tokens भी कम लगेंगे, और यह उसी तरह है जैसे permission denied आने पर पूरा command फिर से लिखने के बजाय बस आगे sudo जोड़ने को कहना
      उल्टा अगर आप उम्मीद कर रहे थे कि मॉडल सच में query चला दे, लेकिन उसने "यह रही, अब तुम खुद चलाओ" वाले अंदाज़ में जवाब दिया, तो वह निश्चित ही आलसीपन है और हैरान होना स्वाभाविक है
    • OpenAI शायद पहली कंपनी है जो आखिरकार उपयोगकर्ता से ही काम करवाने वाली बुद्धिमत्ता तक पहुँच गई है
      लगता है emergent behavior कुछ ऐसा भी हो सकता है
      मज़ाक अलग, OpenAI का यह लगभग जुनूनी token-per intelligence-केंद्रित optimization मुझे M1 से पहले वाले Apple की याद दिलाता है, जब MacBook को ज़रूरत से ज़्यादा पतला बनाने पर ज़ोर था
      जैसे एक ही metric का अंत तक पीछा करते हुए बाकी सब चीज़ें क़ुर्बान कर दी जाएँ
      GPT-5.3+ निश्चित ही सबसे बुद्धिमान मॉडलों में है, लेकिन कई बार इतना आलसी लगता है कि उसके साथ काम करना मुश्किल हो जाता है
    • समझ नहीं आ रहा कि ऊपर वाला उदाहरण अच्छा है या बुरा
    • GPT-5.5 उपयोगकर्ता पर भरोसा करने के मामले में तो benchmark को चकनाचूर कर देने लायक है
  • मैंने अभी अपने Wordpress+GravityForms benchmark पर इसे चलाया, और performance के हिसाब से भी यह leaderboard के सबसे निचले हिस्से में था, और value-for-money तो सबसे खराब थी: https://github.com/guilamu/llms-wordpress-plugin-benchmark
    मानता हूँ कि यह सिर्फ एक benchmark है, लेकिन यह इतना खराब कैसे हो सकता है समझ से बाहर है

    • ऐसा लगा जैसे किसी ऐसे जूनियर ने, जिसे इस domain का कम अनुभव हो, गैराज में छेड़छाड़ करते हुए एक ढीला-ढाला test बना दिया और उसे benchmark कह दिया
      आजकल शब्दों का मतलब बहुत आसानी से बिखर जाता है, इसलिए ऐसी चीज़ें आम होती जा रही हैं
      जो forums पहले असली तकनीकी काम करने वालों से भरे होते थे, अब वहाँ vibe researcher जैसी भीड़ बढ़ती दिखती है; लोकप्रियता एक सीमा पार करे तो आमतौर पर यही होता है
      HN अभी भी शायद गंभीर खोजबीन का आख़िरी गढ़ है, लेकिन मूल टिप्पणी देखकर लगता है कि वह भी पूरी तरह अछूता नहीं है
    • तुम्हारे benchmark में gemma4-e4b, gemma4-26b से 50% बेहतर आ रहा है; इसमें कुछ गड़बड़ लगती है
    • तुम्हारे benchmark में Opus 4.7, Sonnet 4.6 से काफ़ी खराब आ रहा है; मान भी लें कि उस benchmark में यह सही हो, फिर भी यह मॉडल के समग्र प्रदर्शन का प्रतिनिधित्व नहीं करता
    • लगता है तुम time travel करके यह benchmark ले आए हो
      इस तरह का benchmarking काफ़ी पसंद आया
      judge benchmark कैसे evaluate किया गया, यह जानने की जिज्ञासा है, और मैं भी कुछ ऐसा benchmark खुद बनाना चाहूँगा
    • यह ज़्यादा उस benchmark जैसा लगता है जो देखता है कि मॉडल vibe coding कितना अच्छा करता है
      prompt बेहद पतला है, लेकिन scoring criteria बहुत ज़्यादा हैं
  • context length के हिसाब से pricing कुछ ऐसी है
    input 272K तक $5/M, उसके ऊपर $10/M
    output 272K तक $30/M, उसके ऊपर $45/M
    cache read 272K तक $0.50/M, उसके ऊपर $1/M
    272K पार करते ही यह Opus 4.7 से साफ़ तौर पर ज़्यादा महँगा हो जाता है, और कम से कम मेरे काम में यह token efficiency में उतना बेहतर नहीं लगा
    इतना नहीं कि कीमत का फ़र्क़ justify कर सके
    GPT-5.4 की ताकत 400k context और भरोसेमंद compaction थी, लेकिन दोनों में कुछ पीछे हटना सा लगता है
    हालाँकि compaction की reliability सचमुच कम हुई है या नहीं, यह अभी कहना जल्दबाज़ी होगी
    frontend output भी अब तक उसी बहुत नज़र खींचने वाले, cards से भरे नीले-toned template की तरफ झुका रहता है
    GPT-5 रिलीज़ से पहले के Horizon Alpha/Beta समय से ही यह स्टाइल कुछ संदिग्ध लगती थी, लेकिन तब task adherence इतनी अच्छी थी कि उस एक बड़ी कमी के बावजूद यह उपयोगी था
    लेकिन GPT-5.5 को अगर पूरी तरह नया foundation कहा जा रहा है, तो इस हिस्से का अब भी इतना सीमित रहना थोड़ा अजीब है

  • GPT 5.5 के समग्र coding reasoning benchmark नतीजे https://gertlabs.com/ पर आ गए हैं
    live decision और भारी agentic eval भी अगले 24 घंटों तक लगातार जुड़ते रहेंगे, लेकिन अब leaderboard ranking बदलने की संभावना कम लगती है
    GPT 5.5 सार्वजनिक मॉडलों में सबसे बुद्धिमान है, और अपने पिछले version से स्पष्ट रूप से तेज़ है

  • कल तो यह कहा गया था

    API deployments require different safeguards and we are working closely with partners and customers on the safety and security requirements for serving it at scale.
    लेकिन आज ही यह हो गया
    एक दिन को "very soon" तो कह सकते हैं, लेकिन वे safeguards और security requirements आखिर थे क्या, यह जानने की जिज्ञासा है

    • जब कहा जाता है कि कुछ safeguards की वजह से देर हो रही है, तो आमतौर पर उसका मतलब बस इतना होता है कि इस समय पर्याप्त compute capacity उपलब्ध नहीं है
    • GPT-5.5 पहले से ही Codex-only API में मौजूद था, और वहाँ साफ़ कहा गया था कि इसे दूसरे उपयोगों के लिए भी इस्तेमाल कर सकते हैं
      https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
      इसलिए लगता है कि उसी तथ्य ने शायद इस release को जल्दी ला दिया हो
    • जिस व्यक्ति ने सुरक्षा के मुद्दे पर इतनी खुलकर झूठ बोला हो और जो अब भी कंपनी चला रहा हो, उसके बारे में आगे कुछ अलग उम्मीद करने की वजह मुझे समझ नहीं आती
      इसका एक पुराना उदाहरण भी है

      In 2023, the company was preparing to release its GPT-4 Turbo model. As Sutskever details in the memos, Altman apparently told Murati that the model didn’t need safety approval, citing the company’s general counsel, Jason Kwon. But when she asked Kwon, over Slack, he replied, “ugh . . . confused where sam got that impression.”
      Altman, OpenAI में safety कितनी महत्वपूर्ण है, इस बारे में कई बार बिल्कुल ईमानदार नहीं रहे हैं
      https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted (https://archive.is/a2vqW)

  • शायद सिर्फ मुझे ऐसा लगता हो, लेकिन OpenAI की हर ऐसी ख़बर पर ऐसा महसूस होता है जैसे paid commenters या bots चलाए जा रहे हों जो Claude को नीचा दिखाएँ और Codex को बहुत बेहतर बताकर push करें
    उनकी संख्या बहुत ज़्यादा लगती है, और अगर आप Claude को रोज़ इस्तेमाल करते हैं तो इनमें कई दावे समझ से बाहर लगते हैं

    • हाँ, अजीब हद तक
      यह वैसा ही लगता है जैसे सब लोग यह भूल गए हों कि OpenAI ने बिना निगरानी वाले autonomous weapons और देश के भीतर बड़े पैमाने की surveillance में सहयोग करने का फ़ैसला करके लोकतंत्र से गद्दारी की है
    • मुझे भी यह काफ़ी खुला हुआ लगता है
      कम से कम सतह पर दिखना तो Opus 4.6 hype के ठीक बाद शुरू हुआ था
    • बेशक ऐसी चीज़ें होती हैं
      आजकल अपनी product marketing करने वाली ज़्यादातर कंपनियाँ यही करती हैं
  • मैं Enterprise user हूँ, लेकिन अभी भी सिर्फ 5.4 ही दिख रहा है
    कल की announcement में कहा गया था कि सभी तक rollout में कुछ घंटे लगेंगे, लेकिन OpenAI को expectation management के लिए GTM बेहतर करना चाहिए

    • अभी refresh किया तो 5.5 दिख गया
      जल्दी rollout होना अच्छा है
      अगली बार शायद मुझे और जल्दी शिकायत करनी चाहिए
  • मेरे benchmark में 25/25 पाने वाला यह दूसरा मॉडल है
    पहला Opus 4.7 था, और नतीजे यहाँ हैं: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
    Opus से सस्ता है और धीमा है

  • API page पर knowledge cutoff 2025-12-01 लिखा है, लेकिन मॉडल से सीधे पूछने पर वह 2024 जून कहता है
    Knowledge cutoff: 2024-06
    Current date: 2026-04-24
    You are an AI assistant accessed via an API.

    • समझ नहीं आता यह बात बार-बार क्यों उठती है
      cutoff date पता करने के लिए मॉडल से खुद पूछना शुरू से ही सबसे कम भरोसेमंद तरीक़ों में रहा है
      यह ऐसे comments जैसी चीज़ें भी train कर चुका हो सकता है
      बस 2025-12-01 से ठीक पहले हुई किसी घटना के बारे में पूछ लो
      संभव हो तो sports match बेहतर रहेगा
    • पता नहीं मॉडल की बात पर कितना भरोसा किया जा सकता है
      पुराने model API pages पर भी 2024 जून cutoff बहुत जगह लिखा था, तो शायद वही उठाकर बोल रहा हो
    • अगर system prompt में न बताया जाए तो मॉडल अपनी cutoff date नहीं जानता
      असली cutoff जाँचने का सही तरीका है ऐसी चीज़ के बारे में पूछना जो उस तारीख़ से पहले मौजूद नहीं थी या हुई नहीं थी
      मैंने यूँ ही कुछ बार टेस्ट किया, तो 5.5 का general knowledge cutoff अब भी 2025 की शुरुआत के आसपास लगता है
    • तो क्या 2024 US election किसने जीता, इससे टेस्ट किया जा सकता है
  • GPT 5.5 + Codex का combination वाकई बहुत अच्छा है
    चाहे सवाल पूछना हो, plan बनाना हो, या code implement करना हो, अब मैं लगभग बिना शक के इसे सौंप देता हूँ
    Opus 4.7 के साथ मुझे बार-बार double-check करना पड़ता है
    यह CLAUDE.md instructions अच्छी तरह follow नहीं करता, hallucination भी ज़्यादा हैं, और जवाब न मिलने पर मूल रूप से बातें गढ़ देता है, इसलिए वह फ़र्क़ काफ़ी बड़ा है
    पिछले साल जब लोग कह रहे थे कि OpenAI पीछे छूट गया है, code red है, तब सब कुछ बहुत जल्दी बदलता दिख रहा था; अब पीछे मुड़कर देखें तो तस्वीर पूरी तरह बदल चुकी है