- OpenAI ने अपना पहला ओपन सोर्स large language model
gpt-oss-120b और gpt-oss-20b जारी किया, और कुछ benchmarks में यह शानदार है, लेकिन वास्तविक अनुप्रयोग में इसकी सीमाएँ हैं
- इन मॉडलों के पास सामान्य ज्ञान मौजूद है, लेकिन pop-culture जैसे कुछ विशिष्ट क्षेत्रों का ज्ञान सीमित बताया जाता है
- Microsoft की Phi श्रृंखला की तरह synthetic डेटा-आधारित ट्रेनिंग से benchmark performance ऊँची मिलती है, लेकिन वास्तविक उपयोगिता अक्सर गिरती दिखती है
- synthetic डेटा प्रशिक्षण का फायदा यह है कि ओपन सोर्स रिलीज़ के बाद संभावित misuse risk को कम करते हुए सुरक्षा बेहतर हो सकती है
- लगता है OpenAI ने Chinese ओपन सोर्स मॉडल्स की तुलना में benchmark edge बनाते हुए भी सुरक्षा बनाए रखने के लिए Phi-style approach चुना है
OpenAI का पहला ओपन सोर्स LLM लॉन्च
- OpenAI ने
gpt-oss-120b और gpt-oss-20b नाम के पहले ओपन सोर्स large language model घोषित किए, जिन्हें वेब पर सीधे चैट करने के लिए उपलब्ध कराया गया है
- कुछ benchmarks में ये अच्छे प्रदर्शन दिखाते हैं, लेकिन SimpleQA जैसे कुछ specific टेस्ट में प्रदर्शन गिर जाता है
- विज्ञान जैसे क्षेत्रों में सामान्य ज्ञान पर्याप्त है, जबकि लोकप्रिय संस्कृति का ज्ञान अपेक्षाकृत कमजोर बताया जाता है
- वास्तविक उपयोगिता शायद 6 महीनों बाद अधिक स्पष्ट होगी, और अनुमान है कि benchmark के मुकाबले practical performance कम हो सकती है
Phi मॉडल और synthetic डेटा ट्रेनिंग
- 2024 में Microsoft के Sebastien Bubeck द्वारा संचालित Phi श्रृंखला पूरी तरह synthetic डेटा से प्रशिक्षित मॉडल थी
- synthetic डेटा अन्य भाषा मॉडलों द्वारा जनरेट किया गया या मानव द्वारा चुना गया पाठ्यसामग्री-आधारित टेक्स्ट हो सकता है; इसमें quality और control आसान हैं, लेकिन निर्माण लागत ज़्यादा आती है
- यह तरीका benchmark performance बढ़ाता है, पर वास्तविक वातावरण में अपेक्षा से कम परिणाम देने की प्रवृत्ति दिखाता है
- synthetic डेटा को benchmark प्रश्न-पैटर्न के हिसाब से आसानी से बनाया जा सकता है, जिससे exam-style training संभव होती है, लेकिन generality घटती है
Sebastien Bubeck का OpenAI में जुड़ना और gpt-oss
- 2024 के अंत में Bubeck ने Microsoft छोड़कर OpenAI जॉइन किया
gpt-oss मॉडलों के pretraining डेटा की पूरी जानकारी सार्वजनिक नहीं की गई, लेकिन संभावना है कि काफ़ी हद तक filtered या synthetic डेटा इस्तेमाल हुआ हो
- यह approach Phi-5 और Phi-5-mini जैसी विशेषताएँ भी रख सकती है
synthetic डेटा के सुरक्षा लाभ
- ओपन सोर्स मॉडल सार्वजनिक होने के बाद unlimited fine-tuning संभव होने से सुरक्षा से जुड़े मुद्दे उठ सकते हैं
- खासकर छोटे भाषा मॉडलों का एक बड़ा अनौपचारिक use-case adult roleplay है, इसलिए सुरक्षा नियंत्रण महत्त्वपूर्ण हैं
- synthetic या textbook-based डेटा पर प्रशिक्षण देने से जोखिमपूर्ण कंटेंट शामिल नहीं होता, जिससे सुरक्षा बेहतर बनती है
- ऐसा लगता है कि OpenAI ने Chinese ओपन सोर्स मॉडल्स से benchmark में आगे रहते हुए भी सुरक्षा बनाए रखने वाली strategy चुनी है
निष्कर्ष: लगभग Phi-5 लाइन
gpt-oss मॉडल synthetic डेटा-आधारित, सुरक्षा-केंद्रित डिजाइन पर चले प्रतीत होते हैं; यानी वास्तविक दुनिया के performance से ज्यादा benchmark score और safety को प्राथमिकता दी गई है
- परिणामस्वरूप ये मॉडल स्वभावतः Phi-5 और Phi-5-mini से मेल खाते हैं
अभी कोई टिप्पणी नहीं है.