- OpenAI ने मूल रूप से अगले हफ्ते open weight model रिलीज़ करने की योजना बनाई थी, लेकिन अतिरिक्त सुरक्षा परीक्षण और high-risk क्षेत्रों की समीक्षा के लिए रिलीज़ टालने की घोषणा की
- Sam Altman ने कहा कि "इसमें ठीक कितना समय लगेगा, इस बारे में अभी निश्चित रूप से कुछ नहीं कहा जा सकता"
- उन्होंने समझाया कि मॉडल के weights एक बार सार्वजनिक हो जाने पर उन्हें वापस नहीं लिया जा सकता, इसलिए सावधानीपूर्वक रुख अपनाना ज़रूरी है
- OpenAI ने भरोसा जताया कि कम्युनिटी इस मॉडल के जरिए विविध innovation पैदा करेगी, लेकिन यह तरीका OpenAI के लिए पहली बार होने के कारण वह सही प्रक्रिया का पालन करना चाहता है
- अंत में, उन्होंने कहा, "यह अच्छी खबर नहीं है, इसके लिए माफ़ी चाहता हूँ। हम सचमुच बहुत मेहनत कर रहे हैं," और ईमानदार माफ़ी के साथ सावधानी बरतने पर फिर ज़ोर दिया
2 टिप्पणियां
फिर से बेवकूफ़ बनेंगे क्या~
Hacker News राय
https://nitter.space/sama/status/1943837550369812814 लिंक साझा किया गया
यह महज़ संयोग है या नहीं, कहना मुश्किल है कि OpenAI के open weight मॉडल की रिलीज़ अचानक ठीक उसी समय टल गई जब आज घोषित Kimi K2 जैसा शानदार open weight मॉडल सामने आया
Kimi K2 परिचय लिंक
OpenAI जब इसे रिलीज़ करे, तो उसे इंडस्ट्री का स्तर एक पायदान ऊपर ले जाना होगा
मुझे नहीं लगता कि मध्यम गुणवत्ता वाला public weight मॉडल चलेगा
xAi computing power इकट्ठा करने में काफ़ी आगे है और ARC, HLE जैसे intelligence tests में बड़ा gap बना चुका है
OpenAI का लक्ष्य open source competition नहीं, बल्कि competition जीतना है
मुझे यह काफ़ी बड़ी खबर लगती है
मुझे लगता है कि LLM की "safety testing" वाली बात marketing phrase है
कार, विमान और elevator की सचमुच safety testing होती है, लेकिन LLM का मामला अलग है
LLM का output उसके निर्माताओं को पसंद न आए तो उससे कोई मर नहीं जाता
इनके हिसाब से "safety testing" का मतलब बस यह देखना है कि LLM उनकी नापसंद बातें कहाँ तक कह देता है
यह किसी मानसिक स्वास्थ्य संकट को suicide की ओर धकेल सकता है, या चरम स्थिति में किसी नस्ल या समूह को समस्या की जड़ बताकर उसे हटाने की बात बहुत प्रभावशाली ढंग से रख सकता है
शब्द सीधे किसी को नहीं मारते, लेकिन वे निश्चित रूप से मौत की ओर ले जा सकते हैं
ऐसी संभावनाओं के अलावा tool use से जुड़े ख़तरे भी मौजूद हैं
मुझे लगता है कि मौजूदा तकनीकी स्तर पर इसे सच में सुरक्षित बनाना असंभव है
मेरा शौक़ है सनक और निंदकता को पैसे में बदलना
मैं Polymarket पर जाता हूँ, समाज और तकनीक से जुड़ी ऐसी घटनाएँ ढूँढता हूँ जो मुझे खुशी और आशावाद दें, और फिर उनके न होने पर थोड़ा-सा दांव लगाता हूँ
उदाहरण के लिए, इस पर दांव लगा है कि क्या OpenAI सितंबर से पहले open-source weight model रिलीज़ करेगा, और अभी यह 81% पर ट्रेड हो रहा है
पिछले महीने OpenAI ने कुछ रिलीज़ नहीं किया, ceasefire सचमुच ceasefire नहीं निकला, और climate indicators भी खराब हुए, इसलिए मैंने लगभग 10 डॉलर कमा लिए
अस्तित्व की निराशा को पूरी तरह hedge नहीं किया जा सकता, लेकिन उसके दर्द को थोड़ा कम ज़रूर किया जा सकता है
मैं जीतूँ तो पैसा मिलता है (फ़ायदा), और हारूँ तो समाज के लिए अच्छी बात हुई (फ़ायदा)
हर बार जब कोई राजनीतिक रूप से उदास करने वाली चीज़ हुई, उसने कुछ सौ डॉलर कमा लिए
AI boom के बाद तो मुझे लगा था कि crypto का दौर ख़त्म हो चुका है
अगर मदद चाहिए तो gambling helpline या किसी डॉक्टर से बात करें"
मुझे Deepseek और Qwen(Alibaba) पर अमेरिकी AI कंपनियों से ज़्यादा भरोसा है
अमेरिकी AI इंडस्ट्री को देखकर मज़बूत impression यह बनता है कि वह बस पैसा और compute resources खाती जा रही है
अरबों डॉलर लगाने के बाद भी दिखाने लायक बहुत कम नज़र आता है
Deepseek सिर्फ़ 5 million dollar में बना और उसने training के कई नए तरीके दिखाए
ऊपर से model और code दोनों FLOSS के रूप में जारी किए
अमेरिकी कंपनियाँ सब closed हैं
अमेरिकी AI कंपनियाँ मुझे एक-दूसरे को नोचने को तैयार गिद्धों जैसी लगती हैं
यह ग़लतफ़हमी थी या जानबूझकर ग़लत सूचना फैलाई गई, इस पर अलग-अलग राय है
अगर इसमें दुर्भावना न भी रही हो, तब भी जिसने बड़े models train किए हों वह कहेगा कि सिर्फ़ एक training run की cost देखकर total cost पर बात करना बेमानी है
असफल experiments, अतिरिक्त training और अनगिनत दूसरी कोशिशों की लागत भी काफ़ी होती है
R2 का 6 महीने बाद भी न आना अपने-आप में अर्थपूर्ण है
कभी-कभी शानदार नतीजे मिलते हैं, लेकिन असफलता की लागत पर कोई ध्यान नहीं देता
AI इंडस्ट्री में काम करते हुए मैंने Google के बहुत से research papers पढ़े हैं, और इंडस्ट्री की प्रगति में उसके बड़े योगदान तथा commercial license के तहत models जारी करने के लिए आभारी हूँ
शायद वजह यह है कि उसका नतीजा आज घोषित K2 model से भी कमज़ोर निकला
कोई ढंग का engineer इसे "safety" की वजह नहीं बताएगा
ablation जैसी methods से बाद में की गई safety training भी निष्प्रभावी की जा सकती है
K2 में 1 trillion parameters हैं और सिर्फ़ download size ही लगभग 1TB है
मेरे laptop पर तो यह कभी नहीं चल सकता
local model के लिए उचित आकार मेरे हिसाब से लगभग 20B सबसे अच्छा है
Mistral Small 3.x या Gemma 3 के कुछ models इसके अच्छे उदाहरण हैं
ये 32GB RAM से कम पर भी अच्छी तरह चलते हैं और प्रदर्शन भी अच्छा है
मैं सच में चाहता हूँ कि OpenAI इसी आकार में कुछ निकाले
यह याद रखने की ज़रूरत है कि Llama models की uncensored fine-tuning के उदाहरण दिखाते हैं कि safety restrictions आसानी से हटाई जा सकती हैं
यह असल में किसी काम का नहीं, सिर्फ़ security theater है
community बहुत पहले से जानती है कि safeguards को आसानी से कैसे हटाया जाए
"यह हमारे लिए भी नया है" जैसी बात उस कंपनी के स्वभाव से मेल नहीं खाती
मुझे सच में जिज्ञासा है कि OpenAI public weight model जारी ही क्यों करना चाहता है