OpenAI ने API में GPT-5.5 और GPT-5.5 Pro लॉन्च किए
(developers.openai.com)- GPT-5.5 Chat Completions API और Responses API में जोड़ा गया नवीनतम मॉडल है, और GPT-5.5 pro को कठिन समस्याओं के लिए, जहाँ अधिक compute फायदेमंद है, Responses API requests में साथ जोड़ा गया है
- 10 लाख token context window और image input, structured output, function calling, prompt caching, Batch, tool search, built-in computer use, hosted shell, apply patch, Skills, MCP, web search तक का व्यापक समर्थन देता है
- डिफ़ॉल्ट reasoning effort मान
mediumपर सेट किया गया है, और जबimage_detailसेट न हो याautoहो, तब पहले जैसा व्यवहार बना रहता है - GPT-5.5 की caching केवल extended prompt caching में काम करती है, in-memory prompt caching समर्थित नहीं है
- हाल के API बदलाव सिर्फ मॉडल रिलीज़ से आगे बढ़कर image, audio, realtime, video और agent tools तक फैल रहे हैं, और GPT-5.5 श्रृंखला उनमें सबसे नई प्रमुख additions में शामिल है
परिवर्तन लॉग
- आगे चलकर समर्थन बंद होने वाले आइटम अलग पेज पर देखे जा सकते हैं
अप्रैल 2026
-
24 अप्रैल
- GPT-5.5 को Chat Completions API और Responses API में लॉन्च किया गया, और कठिन समस्याओं के लिए, जहाँ अधिक compute फायदेमंद है, GPT-5.5 pro को Responses API requests में साथ जोड़ा गया
- GPT-5.5 10 लाख token context window, image input, structured output, function calling, prompt caching, Batch, tool search, built-in computer use, hosted shell, apply patch, Skills, MCP, web search को समर्थन देता है
- मुख्य बदलावों में reasoning effort का डिफ़ॉल्ट मान
mediumपर सेट किया गया है - जब
image_detailसेट न हो याautoहो, तब पहले का व्यवहार इस्तेमाल होता है - GPT-5.5 की caching केवल extended prompt caching में काम करती है और in-memory prompt caching को समर्थन नहीं देती
- विस्तृत जानकारी: behavioral changes
-
21 अप्रैल
- GPT Image 2 को image generation और editing के लिए नवीनतम image generation मॉडल के रूप में लॉन्च किया गया
- GPT Image 2 में flexible image sizes, high-fidelity image input, token-based image billing, और 50% छूट वाले Batch API support शामिल हैं
-
15 अप्रैल
- Agents SDK में नई सुविधाएँ जोड़ी गईं
- नियंत्रित sandbox में agent चलाया जा सकता है
- open source harness की जाँच और customization किया जा सकता है
- memory के बनने के समय और उसे कहाँ store किया जाए, इस पर नियंत्रण किया जा सकता है
- Agents SDK में नई सुविधाएँ जोड़ी गईं
मार्च 2026
-
17 मार्च
- GPT-5.4 mini और GPT-5.4 nano को Chat Completions API और Responses API में लॉन्च किया गया
- GPT-5.4 mini GPT-5.4-स्तर का प्रदर्शन अधिक तेज़ और efficient रूप में देता है, इसलिए यह high-throughput workload के लिए उपयुक्त है
- GPT-5.4 nano को ऐसे सरल बड़े पैमाने के कामों के लिए optimize किया गया है जहाँ speed और cost सबसे महत्वपूर्ण हैं
- GPT-5.4 mini tool search, built-in computer use, और compaction को समर्थन देता है
- GPT-5.4 nano compaction को समर्थन देता है, लेकिन tool search और computer use को नहीं
-
16 मार्च
- gpt-5.3-chat-latest slug को अपडेट किया गया ताकि वह ChatGPT में वर्तमान में उपयोग हो रहे नवीनतम मॉडल की ओर इशारा करे
-
13 मार्च
- GPT-5.4 के
input_imageinput में आने वाले छोटे bug को ठीक करने के लिए image encoder को अपडेट किया गया - कुछ image understanding use cases में quality बेहतर हो सकती है
- अलग से कोई कार्रवाई आवश्यक नहीं है
- GPT-5.4 के
-
12 मार्च
- Sora API का विस्तार करके reusable character reference, अधिकतम
20सेकंड तक की लंबी generation,sora-2-proके लिए1080poutput, video extension, औरPOST /v1/videosके लिए Batch API support जोड़ा गया sora-2-proकी1080pgeneration पर$0.70प्रति सेकंड शुल्क लिया जाता है- विस्तृत जानकारी: video generation guide
- Sora API का विस्तार करके reusable character reference, अधिकतम
-
12 मार्च अपडेट
- मौजूदा वीडियो editing के लिए
POST /v1/videos/editsजोड़ा गया POST /v1/videos/{video_id}/remixइसका स्थान लेने वाला path है और6महीने बाद support बंद होने वाला है- विस्तृत जानकारी: edit existing videos
- मौजूदा वीडियो editing के लिए
-
5 मार्च
- GPT-5.4 को Chat Completions API और Responses API में लॉन्च किया गया, और कठिन समस्याओं के लिए, जहाँ अधिक compute फायदेमंद है, GPT-5.4 pro को Responses API में जोड़ा गया
- Responses API का tool search भी लॉन्च किया गया, जिससे मॉडल बड़े tool surface को runtime तक टाल सकता है, token usage कम कर सकता है, cache performance बनाए रख सकता है, और latency बेहतर कर सकता है
- GPT-5.4 में Responses API
computertool के जरिए built-in computer use support जोड़ा गया, जिससे screenshot-आधारित UI interaction संभव हुआ - लंबे समय तक चलने वाले agent workflows के लिए 10 लाख token context window और native Compaction support दिया गया
-
3 मार्च
gpt-5.3-chat-latestको Chat Completions API और Responses API में लॉन्च किया गया- यह मॉडल वर्तमान में ChatGPT में उपयोग हो रहे GPT-5.3 Instant snapshot की ओर इशारा करता है
- विस्तृत जानकारी: gpt-5.3-chat-latest
फ़रवरी 2026
-
24 फ़रवरी
input_fileसपोर्ट का दायरा बढ़ाया गया, ताकि अब अधिक दस्तावेज़, प्रेज़ेंटेशन, स्प्रेडशीट, कोड और टेक्स्ट फ़ाइल फ़ॉर्मैट स्वीकार किए जा सकें- अधिक जानकारी: file inputs
-
24 फ़रवरी Responses API
- Responses API में
phaseजोड़ा गया - assistant मैसेज को बीच की व्याख्या
commentaryऔर अंतिम उत्तरfinal_answerके रूप में अलग-अलग लेबल किया गया - अधिक जानकारी: phase
- Responses API में
-
24 फ़रवरी gpt-5.3-codex
gpt-5.3-codexको Responses API में लॉन्च किया गया- अधिक जानकारी: gpt-5.3-codex
-
23 फ़रवरी
- Responses API में WebSocket mode पेश किया गया
- अधिक जानकारी: websocket mode
-
23 फ़रवरी ऑडियो और रीयलटाइम मॉडल
gpt-realtime-1.5को Realtime API में लॉन्च किया गया- अधिक जानकारी: gpt-realtime-1.5
gpt-audio-1.5को Chat Completions API में लॉन्च किया गया- अधिक जानकारी: gpt-audio-1.5
-
10 फ़रवरी GPT Image Batch
- Batch API के लिए
gpt-image-1.5,chatgpt-image-latest,gpt-image-1,gpt-image-1-miniपर सपोर्ट जोड़ा गया
- Batch API के लिए
-
10 फ़रवरी gpt-5.2-chat-latest
- gpt-5.2-chat-latest slug को अपडेट किया गया ताकि यह उस नवीनतम मॉडल की ओर इशारा करे जिसे अभी ChatGPT इस्तेमाल कर रहा है
-
10 फ़रवरी compaction
- Responses API में server-side compaction पेश किया गया
-
10 फ़रवरी Skills
- Responses API में Skills सपोर्ट पेश किया गया
- Skills को local execution और hosted container-आधारित execution, दोनों में सपोर्ट किया गया
-
10 फ़रवरी Hosted Shell
- नया Hosted Shell टूल पेश किया गया, और container के भीतर networking का सपोर्ट भी जोड़ा गया
-
9 फ़रवरी
- GPT image मॉडल के
/v1/images/editsमेंapplication/jsonrequest सपोर्ट जोड़ा गया - JSON request में multipart upload की जगह
imagesऔर वैकल्पिकmaskके लिएimage_urlयाfile_idरेफ़रेंस का उपयोग किया जाता है
- GPT image मॉडल के
-
3 फ़रवरी
- API ग्राहकों के लिए inference stack को optimize किया गया, जिससे GPT-5.2 और GPT-5.2-Codex लगभग 40% तेज़ चलने लगे
- मॉडल और मॉडल weights में कोई बदलाव नहीं किया गया
जनवरी 2026
-
15 जनवरी
- Open Responses की घोषणा की गई
- यह OpenAI Responses API के ऊपर बनाया गया multi-provider interoperable LLM interface के लिए एक open source spec है
-
14 जनवरी
gpt-5.2-codexको Responses API में लॉन्च किया गया- GPT-5.2-Codex, GPT-5.2 का एक variant है, जिसे Codex या इसी तरह के environment में agentic coding कार्यों के लिए optimize किया गया है
- अधिक जानकारी: gpt-5.2-codex
-
13 जनवरी Realtime SIP
- Realtime API में dedicated SIP IP range जोड़ी गई
sip.api.openai.comGeoIP routing करता है और SIP ट्रैफ़िक को सबसे नज़दीकी region में भेजता है- अधिक जानकारी: dedicated SIP IP ranges
-
13 जनवरी मॉडल slug अपडेट
- gpt-realtime-mini और gpt-audio-mini slug को अपडेट किया गया ताकि वे
2025-12-15snapshot की ओर इशारा करें - अगर आपको पिछला मॉडल snapshot चाहिए, तो
gpt-realtime-mini-2025-10-06औरgpt-audio-mini-2025-10-06का उपयोग किया जा सकता है - sora-2 slug को अपडेट किया गया ताकि वह
sora-2-2025-12-08की ओर इशारा करे - अगर आपको पिछला
sora-2snapshot चाहिए, तोsora-2-2025-10-06का उपयोग किया जा सकता है gpt-4o-mini-ttsऔरgpt-4o-mini-transcribeslug को अपडेट किया गया ताकि वे2025-12-15snapshot की ओर इशारा करें- अगर आपको पिछला मॉडल snapshot चाहिए, तो
gpt-4o-mini-tts-2025-03-20औरgpt-4o-mini-transcribe-2025-03-20का उपयोग किया जा सकता है - मौजूदा समय में बेहतर परिणामों के लिए
gpt-4o-transcribeकी तुलना मेंgpt-4o-mini-transcribeके उपयोग की सिफारिश की गई
- gpt-realtime-mini और gpt-audio-mini slug को अपडेट किया गया ताकि वे
-
9 जनवरी
/v1/images/editsमेंgpt-image-1.5औरchatgpt-image-latestके उस मुद्दे को ठीक किया गया, जिसमेंfidelityको स्पष्ट रूप सेlowसेट करने पर भी गलती से high fidelity इस्तेमाल हो रही थी
दिसंबर 2025
-
19 दिसंबर
gpt-image-1.5औरchatgpt-image-latestको Responses API के image generation tool में जोड़ा गया
-
16 दिसंबर
- gpt-image-1.5 और chatgpt-image-latest को नवीनतम advanced image generation models के रूप में लॉन्च किया गया
- अधिक जानकारी: image generation guide
-
15 दिसंबर
- नए date-based audio snapshots के 4 संस्करण लॉन्च किए गए
- इस अपडेट से real-time voice-based applications की reliability, quality और voice fidelity बेहतर होती है
- अधिक जानकारी: updates audio models
gpt-realtime-mini-2025-12-15gpt-audio-mini-2025-12-15gpt-4o-mini-transcribe-2025-12-15gpt-4o-mini-tts-2025-12-15- इस रिलीज़ में योग्य ग्राहकों के लिए Custom voices support भी शामिल है
-
11 दिसंबर GPT-5.2
- GPT-5.2 को GPT-5 family के नवीनतम flagship model के रूप में लॉन्च किया गया
- GPT-5.1 की तुलना में general intelligence, instruction following, accuracy और token efficiency, multimodality खासकर vision, code generation खासकर frontend UI generation, API में tool calling और context management, तथा spreadsheet understanding और generation में सुधार हुआ है
xhighreasoning effort level, concise reasoning summary, और compaction का उपयोग करने वाला नया context management जोड़ा गया
-
11 दिसंबर client-side compaction
- client-side compaction लॉन्च किया गया
- Responses API में लंबे समय तक चलने वाली बातचीत के दौरान
/responses/compactendpoint से हर turn में भेजे जाने वाले context को कम किया जा सकता है
-
4 दिसंबर
gpt-5.1-codex-maxको Responses API में लॉन्च किया गया- GPT-5.1-Codex, long-horizon agentic coding tasks के लिए optimized सबसे intelligent coding model है
- अधिक जानकारी: gpt-5.1-codex-max
नवंबर 2025
-
20 नवंबर
- Realtime API में DTMF key input support जोड़ा गया
- Realtime sideband connection उपयोग करते समय DTMF events प्राप्त किए जा सकते हैं
- अधिक जानकारी: dtmf_event_received
-
13 नवंबर GPT-5.1
- GPT-5.1 को GPT-5 family के नवीनतम flagship model के रूप में लॉन्च किया गया
- इसे खास तौर पर steerability, कम सोच की ज़रूरत वाली स्थितियों में तेज़ response, code generation और coding use cases, तथा agentic workflow में मजबूत प्रदर्शन के लिए train किया गया
- GPT-5.1, कम सोच की ज़रूरत वाली स्थितियों में तेज़ response के लिए नया
nonereasoning setting default रूप में उपयोग करता है - यह default, GPT-5 के पिछले default
mediumसे अलग है
-
13 नवंबर RBAC
- enhanced role-based access controls लॉन्च किए गए
- RBAC API और Dashboard दोनों में organization और project स्तर पर यह तय करने देता है कि कौन क्या कर सकता है
-
13 नवंबर GPT-5.1-Codex
gpt-5.1-codexऔरgpt-5.1-codex-miniको Responses API में लॉन्च किया गया- GPT-5.1-Codex, Codex या समान environment में agentic coding tasks के लिए optimized GPT-5.1 variant है
- अधिक जानकारी: gpt-5.1-codex
-
13 नवंबर extended prompt caching
- extended prompt cache retention लॉन्च किया गया
- cached prefix को अधिक समय तक, अधिकतम 24 घंटे तक, active रखा जाता है
- memory भर जाने पर key/value tensor को GPU local storage में offload किया जाता है, जिससे caching के लिए उपलब्ध storage capacity काफी बढ़ जाती है
अक्टूबर 2025
-
29 अक्टूबर
gpt-oss-safeguard-120bऔरgpt-oss-safeguard-20b, gpt-oss के ऊपर बनाए गए safety reasoning मॉडल हैं- अधिक जानकारी: gpt-oss-safeguard collection
-
24 अक्टूबर
- Enterprise Key Management (EKM) लॉन्च किया गया
- EKM, बाहरी Key Management System(KMS) में प्रबंधित keys का उपयोग करके OpenAI के भीतर ग्राहक content को encrypt करने की सुविधा देता है
- UK data residency भी लॉन्च किया गया
-
6 अक्टूबर OpenAI DevDay
- OpenAI DevDay में कई फीचर्स पेश किए गए
- gpt-5-pro लॉन्च किया गया
- यह GPT-5 की तुलना में अधिक compute का उपयोग करके ज्यादा गहराई से सोचता है और लगातार बेहतर उत्तर देता है
- gpt-realtime-mini और gpt-audio-mini को अधिक cost-efficient speech-to-speech performance के लिए लॉन्च किया गया
- gpt-image-1-mini को अधिक cost-efficient image generation और editing के लिए लॉन्च किया गया
- नवीनतम Sora 2 और Sora 2 Pro मॉडल के साथ समृद्ध, विस्तृत और dynamic video generation तथा remix के लिए v1/videos लॉन्च किया गया
- custom multi-agent workflow को विज़ुअली बनाने के लिए Agent Builder लॉन्च किया गया
- agent deployment के लिए embedded chat interface ChatKit लॉन्च किया गया
- Trace Evals, Datasets, and Prompt Optimization tools लॉन्च किए गए
- Evals में Third-Party Model Support जोड़ा गया
- Service health dashboard लॉन्च किया गया
-
1 अक्टूबर
- IP allowlist लॉन्च किया गया
- केवल निर्दिष्ट IP addresses या ranges को API तक पहुँचने की अनुमति देता है
सितंबर 2025
-
26 सितंबर
- Responses API के tool call output में images और files का समर्थन जोड़ा गया
-
23 सितंबर
- gpt-5-codex को special-purpose मॉडल के रूप में लॉन्च किया गया
- इसे Codex CLI उपयोग के अनुरूप बनाया और optimize किया गया
अगस्त 2025
-
28 अगस्त
- OpenAI Realtime API का औपचारिक लॉन्च किया गया
- अधिक जानकारी: Realtime API guide
-
21 अगस्त
- Responses API में connectors समर्थन जोड़ा गया
- connector, Google apps, Dropbox जैसी लोकप्रिय सेवाओं के लिए OpenAI-maintained MCP wrapper है, और इसका उपयोग मॉडल को उन सेवाओं में संग्रहीत डेटा पर read access देने के लिए किया जा सकता है
-
20 अगस्त
- Conversations API लॉन्च किया गया
- इससे Responses API के साथ long-running conversations बनाई और प्रबंधित की जा सकती हैं
- Assistants API integration से Responses और Conversations पर जाने का तरीका तथा side-by-side तुलना migration guide में देखी जा सकती है
-
7 अगस्त
- API में GPT-5 family के मॉडल gpt-5, gpt-5-mini, gpt-5-nano लॉन्च किए गए
- reasoning को support करने वाले GPT-5 मॉडलों में तेज response optimization के लिए
minimalreasoning effort value पेश की गई - free-form input और output की अनुमति देने वाला
customtool call type पेश किया गया
जून 2025
-
27 जून
- Priority processing सपोर्ट लॉन्च किया गया
- Standard processing की तुलना में latency बहुत कम और अधिक consistent है, जबकि usage-based flexibility बनी रहती है
-
24 जून
- o3-deep-research और o4-mini-deep-research को Responses API में लॉन्च किया गया
- ये o-series reasoning मॉडल के deep research variants हैं, जिन्हें गहन analysis और research कार्यों के लिए optimize किया गया है
- अधिक जानकारी: deep research guide
- webhooks के जरिए asynchronous event processing सपोर्ट जोड़ा गया
- web search tool की कीमत कम की गई और सरल बनाई गई
- web search tool सपोर्ट जोड़ा गया
-
13 जून
- नए reusable prompts को Dashboard और Responses API में इस्तेमाल करने योग्य बनाया गया
- API में
promptपैरामीटर के जरिए Dashboard में बनाए गए templates को refer किया जा सकता है, और साथ में promptid, optionalversion, तथा string, image, file inputs को शामिल कर सकने वाले dynamicvariablesभेजे जा सकते हैं - reusable prompts को Chat Completions में इस्तेमाल नहीं किया जा सकता
- अधिक जानकारी: reusable prompts
-
10 जून
- o3-pro को Responses API और Batch API में लॉन्च किया गया
- इसे o3 reasoning मॉडल की तुलना में अधिक compute इस्तेमाल करने के लिए बनाया गया है, ताकि कठिन समस्याओं पर बेहतर reasoning और consistency के साथ जवाब दे सके
- सभी API requests में o3 मॉडल की कीमत कम की गई, जिसमें batch और flex processing भी शामिल हैं
- अधिक जानकारी: pricing
-
4 जून
gpt-4.1-2025-04-14,gpt-4.1-mini-2025-04-14,gpt-4.1-nano-2025-04-14में direct preference optimization का उपयोग करने वाले fine-tuning सपोर्ट को जोड़ा गया
-
3 जून
- gpt-4o-audio-preview और gpt-4o-realtime-preview के नए model snapshots उपलब्ध कराए गए
- Agents SDK for TypeScript लॉन्च किया गया
मई 2025
-
20 मई embedded tools
- Responses API में नए embedded tools जोड़े गए
- इनमें remote MCP servers और code interpreter शामिल हैं
- अधिक जानकारी: tools
-
20 मई schema
- Responses API और Chat Completions API में fine-tuned न किए गए मॉडलों के parallel tool calling के दौरान tool schema में
strictmode का उपयोग संभव बनाया गया - नए schema features भी जोड़े गए, जिनमें
emailऔर अन्य patterns के लिए string validation, तथा numbers और arrays के लिए range specification शामिल है
- Responses API और Chat Completions API में fine-tuned न किए गए मॉडलों के parallel tool calling के दौरान tool schema में
-
15 मई
- codex-mini-latest को API में लॉन्च किया गया
- इसे Codex CLI उपयोग के लिए optimize किया गया है
-
7 मई
- reinforcement fine-tuning सपोर्ट लॉन्च किया गया
- उपलब्ध fine-tuning तरीके fine-tuning guide में देखे जा सकते हैं
- gpt-4.1-nano को fine-tuning योग्य मॉडल के रूप में जोड़ा गया
अप्रैल 2025
-
30 अप्रैल
- Enhanced API Budget Alerts & Auto-recharge Limits सपोर्ट लॉन्च किया गया
-
23 अप्रैल
- image generation मॉडल
gpt-image-1जोड़ा गया - इस मॉडल में quality और instruction following बेहतर है, जिससे यह image generation के लिए एक नया benchmark बनता है
- Image Generation और Edit endpoints को भी
gpt-image-1-विशिष्ट नए parameters सपोर्ट करने के लिए अपडेट किया गया
- image generation मॉडल
-
16 अप्रैल
o3औरo4-mini, ये दो o-series reasoning मॉडल Chat Completions API और Responses API में जोड़े गए- ये math, science, coding, visual reasoning tasks, और technical documentation writing में नया benchmark बनते हैं
- code generation CLI tool Codex भी लॉन्च किया गया
-
14 अप्रैल
- gpt-4.1, gpt-4.1-mini, gpt-4.1-nano को API में जोड़ा गया
- instruction following, coding, और अधिकतम 10 लाख tokens की बड़ी context window प्रदान की गई
gpt-4.1औरgpt-4.1-miniके लिए supervised fine-tuning उपलब्ध है- gpt-4.5-preview के support end की भी घोषणा की गई
मार्च 2025
-
20 मार्च
- Audio API में
gpt-4o-mini-tts,gpt-4o-transcribe,gpt-4o-mini-transcribe,whisper-1मॉडल जोड़े गए
- Audio API में
-
19 मार्च
-
11 मार्च
- agentic workflow के लिए कई नए मॉडल, टूल और नए API लॉन्च किए गए
- Responses API लॉन्च किया गया ताकि agent और टूल बनाए और इस्तेमाल किए जा सकें
- Responses API के लिए built-in tools के सेट के रूप में web search, file search, computer use लॉन्च किए गए
- agent के design, build और deploy के लिए orchestration framework Agents SDK लॉन्च किया गया
gpt-4o-search-preview,gpt-4o-mini-search-preview,computer-use-previewमॉडल घोषित किए गए- Assistants API की सभी capabilities को अधिक उपयोग में आसान Responses API में स्थानांतरित करने की योजना बताई गई, और पूरी feature parity हासिल होने के बाद 2026 में Assistants को बंद करने का प्रस्तावित समय साझा किया गया
-
3 मार्च
- fine-tuning job में
metadataफ़ील्ड का सपोर्ट जोड़ा गया
- fine-tuning job में
फ़रवरी 2025
-
27 फ़रवरी
- GPT-4.5 को research preview के रूप में Chat Completions API, Assistants API, Batch API में लॉन्च किया गया
- GPT-4.5 को सबसे बड़ा और सबसे high-performance chat मॉडल बताया गया, और उच्च EQ व user intent की समझ के आधार पर यह creative काम और agentic planning में अधिक मजबूत है
-
25 फ़रवरी
- API Usage Dashboard Update लॉन्च किया गया
- project selection, date picker, और granular time intervals जैसे अतिरिक्त data filter के अनुरोधों को शामिल किया गया
- अलग-अलग products और service tiers में usage को बेहतर तरीके से देखने की सुविधा दी गई
-
5 फ़रवरी
- यूरोपीय data residency शुरू की गई
- अधिक जानकारी: your data
जनवरी 2025
-
31 जनवरी
- o3-mini को एक छोटे reasoning मॉडल के रूप में लॉन्च किया गया
- इसे science, math, और coding tasks के लिए optimize किया गया
-
21 जनवरी
- o1 model की access range बढ़ाई गई
- o1 series के मॉडल reinforcement learning के जरिए complex reasoning करने के लिए प्रशिक्षित किए गए हैं
दिसंबर 2024
-
18 दिसंबर
- Admin API Key Rotations लॉन्च किया गया ताकि admin API key को programmatically rotate किया जा सके
- Admin API Invites को अपडेट किया गया ताकि organization invite के साथ-साथ project में users को programmatically invite किया जा सके
-
17 दिसंबर
- o1, gpt-4o-realtime, gpt-4o-audio सहित नए मॉडल जोड़े गए
- Realtime API में WebRTC connection method जोड़ा गया
- o1 मॉडल में reasoning_effort parameter जोड़ा गया
- o1 मॉडल में developer message role जोड़ा गया
o1-previewऔरo1-minisystem या developer message को support नहीं करते- Direct Preference Optimization (DPO) का उपयोग करने वाला Preference Fine-tuning लॉन्च किया गया
- Go और Java के लिए beta SDK लॉन्च किए गए
- अधिक जानकारी: libraries
- Python SDK में Realtime API का support जोड़ा गया
-
4 दिसंबर
- Usage API लॉन्च किया गया
- OpenAI API के पूरे ecosystem में activity और spending को programmatically query किया जा सकता है
नवंबर 2024
-
20 नवंबर
- gpt-4o-2024-11-20 को
v1/chat/completionsमें लॉन्च किया गया - यह gpt-4o series का नवीनतम मॉडल है
- gpt-4o-2024-11-20 को
-
4 नवंबर
- Predicted Outputs लॉन्च किया गया
- उन स्थितियों में मॉडल response latency को काफी कम करता है जहाँ response का बड़ा हिस्सा पहले से पता होता है
- खास तौर पर तब उपयोगी है जब documents और code files की सामग्री को केवल मामूली बदलावों के साथ फिर से generate करना हो
अक्टूबर 2024
-
30 अक्टूबर
- Realtime API और Chat Completions API में 5 नए voice types जोड़े गए
- लक्षित मॉडल
gpt-4o-realtime-preview,gpt-4o-audio-previewहैं, और endpoint के रूप मेंv1/chat/completionsभी साथ में दर्ज है
-
17 अक्टूबर
- नया
gpt-4o-audio-previewमॉडल पेश किया गया - Chat Completions में audio input और output दोनों का समर्थन करता है
- यह मॉडल Realtime API के समान base model का उपयोग करता है
- नया
-
1 अक्टूबर OpenAI DevDay in San Francisco
- OpenAI DevDay in San Francisco में कई features एक साथ पेश किए गए
- Realtime API WebSockets interface के ज़रिए applications में तेज speech-to-speech experience बनाने की सुविधा देता है
- Model distillation बड़े frontier models के output का उपयोग करके cost-efficient models को fine-tune करने की सुविधा देता है
- Image fine-tuning image और text के साथ GPT-4o को fine-tune करके visual capabilities को बेहतर बनाता है
- Evals खास tasks में model performance मापने के लिए custom evaluations चलाने की सुविधा देता है
- Prompt caching हाल में देखे गए input tokens के लिए discount और तेज processing time देता है
- Generate in playground Generate button के ज़रिए prompt, function definitions, और structured output schema आसानी से बनाने की सुविधा देता है
सितंबर 2024
-
26 सितंबर
- नया
omni-moderation-latestmoderation मॉडल पेश किया गया - image और text को support करता है, और कुछ categories में text और image को साथ में संभालता है
- 2 नई text-only harm categories को support करता है और scoring accuracy भी बेहतर हुई है
- नया
-
12 सितंबर
- o1-preview और o1-mini पेश किए गए
- दोनों मॉडल reinforcement learning से प्रशिक्षित नए बड़े language models हैं और जटिल reasoning tasks को पूरा करने के लिए बनाए गए हैं
- endpoint को
v1/chat/completionsके रूप में दिखाया गया है
अगस्त 2024
-
29 अगस्त
- Assistants API अब file search tool द्वारा इस्तेमाल किए गए search results को शामिल करने और ranking behavior को customize करने का समर्थन करता है
-
20 अगस्त
gpt-4o-2024-08-06fine-tuning GA में बदल गई, जिससे सभी API users latest GPT-4o model को fine-tune कर सकते हैं
-
15 अगस्त
chatgpt-4o-latestके लिए dynamic model पेश किया गया, और इसे ChatGPT द्वारा उपयोग किए जाने वाले latest GPT-4o model की ओर point करने के लिए सेट किया गया
-
6 अगस्त
- Structured Outputs लॉन्च किया गया, जिससे model output developer द्वारा दिए गए JSON Schema का भरोसेमंद तरीके से पालन करता है
- उसी दिन gpt-4o-2024-08-06 भी gpt-4o series के latest model के रूप में पेश किया गया
-
1 अगस्त
- Admin and Audit Log APIs लॉन्च किए गए, जिससे organizations को programmatically manage किया जा सकता है और audit log के ज़रिए changes को monitor किया जा सकता है
- Audit logging को settings के भीतर enable करना होगा
जुलाई 2024
-
24 जुलाई
- self-serve SSO configuration लॉन्च किया गया
- Enterprise ग्राहकों में custom और unlimited billing users अपनी पसंद के IDP के अनुरूप authentication सेट कर सकते हैं
-
23 जुलाई
- GPT-4o mini fine-tuning लॉन्च की गई, जिससे खास use cases में बेहतर performance हासिल की जा सके
-
18 जुलाई
- GPT-4o mini पेश किया गया
- इसे तेज और हल्के workloads के लिए low-cost small model के रूप में पेश किया गया
-
17 जुलाई
- Uploads लॉन्च किया गया, जिससे बड़ी files को कई parts में बाँटकर upload किया जा सकता है
जून 2024
-
6 जून
- Chat Completions और Assistants API में
parallel_tool_calls=falseभेजकर parallel function calling को disable किया जा सकता है - .NET SDK Beta के रूप में लॉन्च किया गया
- Chat Completions और Assistants API में
-
3 जून
- file search customizations का समर्थन जोड़ा गया
मई 2024
-
15 मई
- Project Archive सपोर्ट जोड़ा गया, और इस तक केवल organization owner ही पहुंच सकते हैं
- usage-based ग्राहकों के लिए प्रोजेक्ट-वार cost limit सेटिंग सपोर्ट भी जोड़ा गया
-
13 मई
- GPT-4o को API में लॉन्च किया गया
- इसे सबसे तेज़ और सबसे सस्ता flagship मॉडल बताया गया है
-
9 मई
- Assistants API अब image input को सपोर्ट करता है
-
7 मई
- Batch API अब fine-tuned models को सपोर्ट करता है
-
6 मई
- Chat Completions API और Completions API में
stream_options: {"include_usage": true}पैरामीटर जोड़ा गया - इस सेटिंग का उपयोग करने पर streaming के दौरान usage statistics तक पहुंच मिलती है
- Chat Completions API और Completions API में
-
2 मई
- Assistants API में thread के messages हटाने के लिए नया endpoint जोड़ा गया
अप्रैल 2024
-
29 अप्रैल
- Chat Completions API और Assistants API में function calling विकल्प
tool_choice: "required"जोड़ा गया - इसके साथ Batch API guide और Batch API में embeddings model support भी जोड़ा गया
- Chat Completions API और Assistants API में function calling विकल्प
-
17 अप्रैल
- Assistants API updates bundle पेश किया गया
- नया file search tool प्रति assistant अधिकतम 10,000 files की अनुमति देता है
- इसमें नए token controls और tool choice सपोर्ट भी शामिल हैं
-
16 अप्रैल
- project-based hierarchy पेश की गई, जिससे प्रोजेक्ट के हिसाब से काम व्यवस्थित किया जा सकता है
- API keys बनाए जा सकते हैं
- प्रोजेक्ट-वार rate limit और cost limit मैनेज किए जा सकते हैं, और cost limit केवल Enterprise ग्राहकों के लिए उपलब्ध है
-
15 अप्रैल
- Batch API लॉन्च किया गया
-
9 अप्रैल
- GPT-4 Turbo with Vision API में general availability में पहुंच गया
-
4 अप्रैल
- fine-tuning API में seed सपोर्ट जोड़ा गया
- fine-tuning API में checkpoints सपोर्ट जोड़ा गया
- Assistants API में Run बनाते समय Messages जोड़ने का सपोर्ट जोड़ा गया
-
1 अप्रैल
- Assistants API में run_id से Messages फ़िल्टर करने का सपोर्ट जोड़ा गया
मार्च 2024
-
29 मार्च
- Assistants API में temperature और assistant message creation का सपोर्ट जोड़ा गया
-
14 मार्च
- Assistants API में streaming सपोर्ट जोड़ा गया
फ़रवरी 2024
-
9 फ़रवरी
- Audio API में
timestamp_granularitiesपैरामीटर जोड़ा गया
- Audio API में
-
1 फ़रवरी
- gpt-3.5-turbo-0125 को अपडेटेड GPT-3.5 Turbo मॉडल के रूप में लॉन्च किया गया
जनवरी 2024
-
25 जनवरी
- embedding V3 मॉडल और अपडेटेड GPT-4 Turbo preview पेश किया गया
- Embeddings API में
dimensionsपैरामीटर जोड़ा गया
दिसंबर 2023
-
20 दिसंबर
- Assistants API में Run creation के लिए
additional_instructionsपैरामीटर जोड़ा गया
- Assistants API में Run creation के लिए
-
15 दिसंबर
- Chat Completions API में
logprobsऔरtop_logprobsपैरामीटर जोड़े गए
- Chat Completions API में
-
14 दिसंबर
- tool call के function parameters arguments को optional बना दिया गया
नवंबर 2023
-
30 नवंबर
- OpenAI Deno SDK लॉन्च किया गया
-
6 नवंबर
- कई आइटम एक साथ जारी किए गए
- GPT-4 Turbo Preview
- अपडेटेड GPT-3.5 Turbo
- GPT-4 Turbo with Vision
- Assistants API
- API में DALL·E 3
- text-to-speech API
- Chat Completions का
functionsपैरामीटर tools से बदले जाने की दिशा में deprecated कर दिया गया - OpenAI Python SDK V1.0 लॉन्च किया गया
अक्टूबर 2023
-
16 अक्टूबर
- Embeddings API में
encoding_formatपैरामीटर जोड़ा गया - Moderation models में
max_tokensजोड़ा गया
- Embeddings API में
-
6 अक्टूबर
- Fine-tuning API में function calling सपोर्ट जोड़ा गया
2 टिप्पणियां
अब 5.4 से pro के लिए Chat Completions API अब उपलब्ध नहीं है।
Hacker News की राय
प्रोडक्शन issue की वजह से मैंने इसे तुरंत आज़माया, और Claude ऐसा नहीं करता था लेकिन GPT-5.5 ने किया
troubleshooting के बाद इसने
updatestatement लिखवाया, और जब मैंने कहा, "ठीक है, इसेtransactionमें wrap करते हैं औरrollbackभी जोड़ते हैं," तो इसने पुराने अंदाज़ में बसBEGIN TRAN;-- put the query herecommit;इतना ही दे दिया
काफ़ी समय से मुझे मॉडल को यह कहकर दोबारा धक्का नहीं देना पड़ा था कि जो काम कहा है वह सच में करे, इसलिए यह काफ़ी चौंकाने वाला था
मैं समझता हूँ कि यह कम tokens इस्तेमाल करना चाहता होगा, लेकिन state-of-the-art model के लिए पैसे दे रहा हूँ और अगर यह ऐसे आलसीपन से जवाब दे तो चिढ़ होती है
Cursor में model selector में दिखा तो बस टेस्ट करके देखा
अगर समस्या यह थी कि जवाब में सिर्फ
-- put the query hereथा और query दोबारा नहीं दोहराई गई, तो मैं उसे ज़रूरी तौर पर समस्या नहीं मानूँगाअगर असली लक्ष्य चलाने वाली query मिलना था और आपने कहा "इसे transaction में करते हैं," तो बस यह बताना कि
beginपहले लगा दो, काफ़ी तर्कसंगत हैअगर query लंबी थी तो tokens भी कम लगेंगे, और यह उसी तरह है जैसे
permission deniedआने पर पूरा command फिर से लिखने के बजाय बस आगेsudoजोड़ने को कहनाउल्टा अगर आप उम्मीद कर रहे थे कि मॉडल सच में query चला दे, लेकिन उसने "यह रही, अब तुम खुद चलाओ" वाले अंदाज़ में जवाब दिया, तो वह निश्चित ही आलसीपन है और हैरान होना स्वाभाविक है
लगता है emergent behavior कुछ ऐसा भी हो सकता है
मज़ाक अलग, OpenAI का यह लगभग जुनूनी token-per intelligence-केंद्रित optimization मुझे M1 से पहले वाले Apple की याद दिलाता है, जब MacBook को ज़रूरत से ज़्यादा पतला बनाने पर ज़ोर था
जैसे एक ही metric का अंत तक पीछा करते हुए बाकी सब चीज़ें क़ुर्बान कर दी जाएँ
GPT-5.3+ निश्चित ही सबसे बुद्धिमान मॉडलों में है, लेकिन कई बार इतना आलसी लगता है कि उसके साथ काम करना मुश्किल हो जाता है
मैंने अभी अपने Wordpress+GravityForms benchmark पर इसे चलाया, और performance के हिसाब से भी यह leaderboard के सबसे निचले हिस्से में था, और value-for-money तो सबसे खराब थी: https://github.com/guilamu/llms-wordpress-plugin-benchmark
मानता हूँ कि यह सिर्फ एक benchmark है, लेकिन यह इतना खराब कैसे हो सकता है समझ से बाहर है
आजकल शब्दों का मतलब बहुत आसानी से बिखर जाता है, इसलिए ऐसी चीज़ें आम होती जा रही हैं
जो forums पहले असली तकनीकी काम करने वालों से भरे होते थे, अब वहाँ vibe researcher जैसी भीड़ बढ़ती दिखती है; लोकप्रियता एक सीमा पार करे तो आमतौर पर यही होता है
HN अभी भी शायद गंभीर खोजबीन का आख़िरी गढ़ है, लेकिन मूल टिप्पणी देखकर लगता है कि वह भी पूरी तरह अछूता नहीं है
इस तरह का benchmarking काफ़ी पसंद आया
judge benchmark कैसे evaluate किया गया, यह जानने की जिज्ञासा है, और मैं भी कुछ ऐसा benchmark खुद बनाना चाहूँगा
prompt बेहद पतला है, लेकिन scoring criteria बहुत ज़्यादा हैं
context length के हिसाब से pricing कुछ ऐसी है
input 272K तक $5/M, उसके ऊपर $10/M
output 272K तक $30/M, उसके ऊपर $45/M
cache read 272K तक $0.50/M, उसके ऊपर $1/M
272K पार करते ही यह Opus 4.7 से साफ़ तौर पर ज़्यादा महँगा हो जाता है, और कम से कम मेरे काम में यह token efficiency में उतना बेहतर नहीं लगा
इतना नहीं कि कीमत का फ़र्क़ justify कर सके
GPT-5.4 की ताकत 400k context और भरोसेमंद compaction थी, लेकिन दोनों में कुछ पीछे हटना सा लगता है
हालाँकि compaction की reliability सचमुच कम हुई है या नहीं, यह अभी कहना जल्दबाज़ी होगी
frontend output भी अब तक उसी बहुत नज़र खींचने वाले, cards से भरे नीले-toned template की तरफ झुका रहता है
GPT-5 रिलीज़ से पहले के Horizon Alpha/Beta समय से ही यह स्टाइल कुछ संदिग्ध लगती थी, लेकिन तब task adherence इतनी अच्छी थी कि उस एक बड़ी कमी के बावजूद यह उपयोगी था
लेकिन GPT-5.5 को अगर पूरी तरह नया foundation कहा जा रहा है, तो इस हिस्से का अब भी इतना सीमित रहना थोड़ा अजीब है
GPT 5.5 के समग्र coding reasoning benchmark नतीजे https://gertlabs.com/ पर आ गए हैं
live decision और भारी agentic eval भी अगले 24 घंटों तक लगातार जुड़ते रहेंगे, लेकिन अब leaderboard ranking बदलने की संभावना कम लगती है
GPT 5.5 सार्वजनिक मॉडलों में सबसे बुद्धिमान है, और अपने पिछले version से स्पष्ट रूप से तेज़ है
कल तो यह कहा गया था
https://simonwillison.net/2026/Apr/23/gpt-5-5/#the-openclaw-backdoor
इसलिए लगता है कि उसी तथ्य ने शायद इस release को जल्दी ला दिया हो
इसका एक पुराना उदाहरण भी है
शायद सिर्फ मुझे ऐसा लगता हो, लेकिन OpenAI की हर ऐसी ख़बर पर ऐसा महसूस होता है जैसे paid commenters या bots चलाए जा रहे हों जो Claude को नीचा दिखाएँ और Codex को बहुत बेहतर बताकर push करें
उनकी संख्या बहुत ज़्यादा लगती है, और अगर आप Claude को रोज़ इस्तेमाल करते हैं तो इनमें कई दावे समझ से बाहर लगते हैं
यह वैसा ही लगता है जैसे सब लोग यह भूल गए हों कि OpenAI ने बिना निगरानी वाले autonomous weapons और देश के भीतर बड़े पैमाने की surveillance में सहयोग करने का फ़ैसला करके लोकतंत्र से गद्दारी की है
कम से कम सतह पर दिखना तो Opus 4.6 hype के ठीक बाद शुरू हुआ था
आजकल अपनी product marketing करने वाली ज़्यादातर कंपनियाँ यही करती हैं
मैं Enterprise user हूँ, लेकिन अभी भी सिर्फ 5.4 ही दिख रहा है
कल की announcement में कहा गया था कि सभी तक rollout में कुछ घंटे लगेंगे, लेकिन OpenAI को expectation management के लिए GTM बेहतर करना चाहिए
जल्दी rollout होना अच्छा है
अगली बार शायद मुझे और जल्दी शिकायत करनी चाहिए
मेरे benchmark में 25/25 पाने वाला यह दूसरा मॉडल है
पहला Opus 4.7 था, और नतीजे यहाँ हैं: https://sql-benchmark.nicklothian.com/?highlight=openai_gpt-5.5
Opus से सस्ता है और धीमा है
API page पर knowledge cutoff 2025-12-01 लिखा है, लेकिन मॉडल से सीधे पूछने पर वह 2024 जून कहता है
Knowledge cutoff: 2024-06Current date: 2026-04-24You are an AI assistant accessed via an API.cutoff date पता करने के लिए मॉडल से खुद पूछना शुरू से ही सबसे कम भरोसेमंद तरीक़ों में रहा है
यह ऐसे comments जैसी चीज़ें भी train कर चुका हो सकता है
बस 2025-12-01 से ठीक पहले हुई किसी घटना के बारे में पूछ लो
संभव हो तो sports match बेहतर रहेगा
पुराने model API pages पर भी 2024 जून cutoff बहुत जगह लिखा था, तो शायद वही उठाकर बोल रहा हो
असली cutoff जाँचने का सही तरीका है ऐसी चीज़ के बारे में पूछना जो उस तारीख़ से पहले मौजूद नहीं थी या हुई नहीं थी
मैंने यूँ ही कुछ बार टेस्ट किया, तो 5.5 का general knowledge cutoff अब भी 2025 की शुरुआत के आसपास लगता है
GPT 5.5 + Codex का combination वाकई बहुत अच्छा है
चाहे सवाल पूछना हो, plan बनाना हो, या code implement करना हो, अब मैं लगभग बिना शक के इसे सौंप देता हूँ
Opus 4.7 के साथ मुझे बार-बार double-check करना पड़ता है
यह
CLAUDE.mdinstructions अच्छी तरह follow नहीं करता, hallucination भी ज़्यादा हैं, और जवाब न मिलने पर मूल रूप से बातें गढ़ देता है, इसलिए वह फ़र्क़ काफ़ी बड़ा हैपिछले साल जब लोग कह रहे थे कि OpenAI पीछे छूट गया है, code red है, तब सब कुछ बहुत जल्दी बदलता दिख रहा था; अब पीछे मुड़कर देखें तो तस्वीर पूरी तरह बदल चुकी है