• OpenAI ने अपना पहला ओपन सोर्स large language model gpt-oss-120b और gpt-oss-20b जारी किया, और कुछ benchmarks में यह शानदार है, लेकिन वास्तविक अनुप्रयोग में इसकी सीमाएँ हैं
  • इन मॉडलों के पास सामान्य ज्ञान मौजूद है, लेकिन pop-culture जैसे कुछ विशिष्ट क्षेत्रों का ज्ञान सीमित बताया जाता है
  • Microsoft की Phi श्रृंखला की तरह synthetic डेटा-आधारित ट्रेनिंग से benchmark performance ऊँची मिलती है, लेकिन वास्तविक उपयोगिता अक्सर गिरती दिखती है
  • synthetic डेटा प्रशिक्षण का फायदा यह है कि ओपन सोर्स रिलीज़ के बाद संभावित misuse risk को कम करते हुए सुरक्षा बेहतर हो सकती है
  • लगता है OpenAI ने Chinese ओपन सोर्स मॉडल्स की तुलना में benchmark edge बनाते हुए भी सुरक्षा बनाए रखने के लिए Phi-style approach चुना है

OpenAI का पहला ओपन सोर्स LLM लॉन्च

  • OpenAI ने gpt-oss-120b और gpt-oss-20b नाम के पहले ओपन सोर्स large language model घोषित किए, जिन्हें वेब पर सीधे चैट करने के लिए उपलब्ध कराया गया है
  • कुछ benchmarks में ये अच्छे प्रदर्शन दिखाते हैं, लेकिन SimpleQA जैसे कुछ specific टेस्ट में प्रदर्शन गिर जाता है
  • विज्ञान जैसे क्षेत्रों में सामान्य ज्ञान पर्याप्त है, जबकि लोकप्रिय संस्कृति का ज्ञान अपेक्षाकृत कमजोर बताया जाता है
  • वास्तविक उपयोगिता शायद 6 महीनों बाद अधिक स्पष्ट होगी, और अनुमान है कि benchmark के मुकाबले practical performance कम हो सकती है

Phi मॉडल और synthetic डेटा ट्रेनिंग

  • 2024 में Microsoft के Sebastien Bubeck द्वारा संचालित Phi श्रृंखला पूरी तरह synthetic डेटा से प्रशिक्षित मॉडल थी
  • synthetic डेटा अन्य भाषा मॉडलों द्वारा जनरेट किया गया या मानव द्वारा चुना गया पाठ्यसामग्री-आधारित टेक्स्ट हो सकता है; इसमें quality और control आसान हैं, लेकिन निर्माण लागत ज़्यादा आती है
  • यह तरीका benchmark performance बढ़ाता है, पर वास्तविक वातावरण में अपेक्षा से कम परिणाम देने की प्रवृत्ति दिखाता है
  • synthetic डेटा को benchmark प्रश्न-पैटर्न के हिसाब से आसानी से बनाया जा सकता है, जिससे exam-style training संभव होती है, लेकिन generality घटती है

Sebastien Bubeck का OpenAI में जुड़ना और gpt-oss

  • 2024 के अंत में Bubeck ने Microsoft छोड़कर OpenAI जॉइन किया
  • gpt-oss मॉडलों के pretraining डेटा की पूरी जानकारी सार्वजनिक नहीं की गई, लेकिन संभावना है कि काफ़ी हद तक filtered या synthetic डेटा इस्तेमाल हुआ हो
  • यह approach Phi-5 और Phi-5-mini जैसी विशेषताएँ भी रख सकती है

synthetic डेटा के सुरक्षा लाभ

  • ओपन सोर्स मॉडल सार्वजनिक होने के बाद unlimited fine-tuning संभव होने से सुरक्षा से जुड़े मुद्दे उठ सकते हैं
  • खासकर छोटे भाषा मॉडलों का एक बड़ा अनौपचारिक use-case adult roleplay है, इसलिए सुरक्षा नियंत्रण महत्त्वपूर्ण हैं
  • synthetic या textbook-based डेटा पर प्रशिक्षण देने से जोखिमपूर्ण कंटेंट शामिल नहीं होता, जिससे सुरक्षा बेहतर बनती है
  • ऐसा लगता है कि OpenAI ने Chinese ओपन सोर्स मॉडल्स से benchmark में आगे रहते हुए भी सुरक्षा बनाए रखने वाली strategy चुनी है

निष्कर्ष: लगभग Phi-5 लाइन

  • gpt-oss मॉडल synthetic डेटा-आधारित, सुरक्षा-केंद्रित डिजाइन पर चले प्रतीत होते हैं; यानी वास्तविक दुनिया के performance से ज्यादा benchmark score और safety को प्राथमिकता दी गई है
  • परिणामस्वरूप ये मॉडल स्वभावतः Phi-5 और Phi-5-mini से मेल खाते हैं

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.