1 पॉइंट द्वारा GN⁺ 2025-07-13 | 2 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI ने मूल रूप से अगले हफ्ते open weight model रिलीज़ करने की योजना बनाई थी, लेकिन अतिरिक्त सुरक्षा परीक्षण और high-risk क्षेत्रों की समीक्षा के लिए रिलीज़ टालने की घोषणा की
  • Sam Altman ने कहा कि "इसमें ठीक कितना समय लगेगा, इस बारे में अभी निश्चित रूप से कुछ नहीं कहा जा सकता"
  • उन्होंने समझाया कि मॉडल के weights एक बार सार्वजनिक हो जाने पर उन्हें वापस नहीं लिया जा सकता, इसलिए सावधानीपूर्वक रुख अपनाना ज़रूरी है
  • OpenAI ने भरोसा जताया कि कम्युनिटी इस मॉडल के जरिए विविध innovation पैदा करेगी, लेकिन यह तरीका OpenAI के लिए पहली बार होने के कारण वह सही प्रक्रिया का पालन करना चाहता है
  • अंत में, उन्होंने कहा, "यह अच्छी खबर नहीं है, इसके लिए माफ़ी चाहता हूँ। हम सचमुच बहुत मेहनत कर रहे हैं," और ईमानदार माफ़ी के साथ सावधानी बरतने पर फिर ज़ोर दिया

2 टिप्पणियां

 
ng0301 2025-07-13

फिर से बेवकूफ़ बनेंगे क्या~

 
GN⁺ 2025-07-13
Hacker News राय
  • https://nitter.space/sama/status/1943837550369812814 लिंक साझा किया गया

  • यह महज़ संयोग है या नहीं, कहना मुश्किल है कि OpenAI के open weight मॉडल की रिलीज़ अचानक ठीक उसी समय टल गई जब आज घोषित Kimi K2 जैसा शानदार open weight मॉडल सामने आया
    Kimi K2 परिचय लिंक
    OpenAI जब इसे रिलीज़ करे, तो उसे इंडस्ट्री का स्तर एक पायदान ऊपर ले जाना होगा
    मुझे नहीं लगता कि मध्यम गुणवत्ता वाला public weight मॉडल चलेगा

    • मुझे लगता है कि अभी OpenAI अपने सारे resources Grok 4 को पीछे छोड़ने पर लगा रहा है
      xAi computing power इकट्ठा करने में काफ़ी आगे है और ARC, HLE जैसे intelligence tests में बड़ा gap बना चुका है
      OpenAI का लक्ष्य open source competition नहीं, बल्कि competition जीतना है
    • लेकिन यह समझ नहीं आता कि Hacker News पर K2 को लेकर चर्चा लगभग न के बराबर क्यों है
      मुझे यह काफ़ी बड़ी खबर लगती है
    • खासकर इस बात को देखते हुए कि हाल में OpenAI ने सबसे अच्छा open source मॉडल लाने का संकेत दिया था, timing काफ़ी मेल खाती लगती है
    • GPT-4 के बाद से मुझे लगता है कि OpenAI के सारे मॉडल market trend से काफ़ी पीछे रहे हैं
  • मुझे लगता है कि LLM की "safety testing" वाली बात marketing phrase है
    कार, विमान और elevator की सचमुच safety testing होती है, लेकिन LLM का मामला अलग है
    LLM का output उसके निर्माताओं को पसंद न आए तो उससे कोई मर नहीं जाता
    इनके हिसाब से "safety testing" का मतलब बस यह देखना है कि LLM उनकी नापसंद बातें कहाँ तक कह देता है

    • LLM आसानी से किसी को ऐसी दवा लेने की सलाह दे सकता है जिसकी interaction बुरी हो
      यह किसी मानसिक स्वास्थ्य संकट को suicide की ओर धकेल सकता है, या चरम स्थिति में किसी नस्ल या समूह को समस्या की जड़ बताकर उसे हटाने की बात बहुत प्रभावशाली ढंग से रख सकता है
      शब्द सीधे किसी को नहीं मारते, लेकिन वे निश्चित रूप से मौत की ओर ले जा सकते हैं
      ऐसी संभावनाओं के अलावा tool use से जुड़े ख़तरे भी मौजूद हैं
    • इस संदर्भ में "safety" का मतलब अक्सर बस किसी को नाराज़ करने वाली या PR issue बन सकने वाली बातों को रोकना होता है
    • मैं भी इसे marketing ही मानता हूँ, लेकिन वजह उलटी है
      मुझे लगता है कि मौजूदा तकनीकी स्तर पर इसे सच में सुरक्षित बनाना असंभव है
    • यह users की नहीं, बल्कि LLM providers की safety के लिए है
  • मेरा शौक़ है सनक और निंदकता को पैसे में बदलना
    मैं Polymarket पर जाता हूँ, समाज और तकनीक से जुड़ी ऐसी घटनाएँ ढूँढता हूँ जो मुझे खुशी और आशावाद दें, और फिर उनके न होने पर थोड़ा-सा दांव लगाता हूँ
    उदाहरण के लिए, इस पर दांव लगा है कि क्या OpenAI सितंबर से पहले open-source weight model रिलीज़ करेगा, और अभी यह 81% पर ट्रेड हो रहा है
    पिछले महीने OpenAI ने कुछ रिलीज़ नहीं किया, ceasefire सचमुच ceasefire नहीं निकला, और climate indicators भी खराब हुए, इसलिए मैंने लगभग 10 डॉलर कमा लिए
    अस्तित्व की निराशा को पूरी तरह hedge नहीं किया जा सकता, लेकिन उसके दर्द को थोड़ा कम ज़रूर किया जा सकता है

    • दांव लगाने पर हर हाल में जीत जैसा ढांचा बन जाता है
      मैं जीतूँ तो पैसा मिलता है (फ़ायदा), और हारूँ तो समाज के लिए अच्छी बात हुई (फ़ायदा)
    • मेरा एक दोस्त भी इसे "मानवता को hedge करना" कहता है
      हर बार जब कोई राजनीतिक रूप से उदास करने वाली चीज़ हुई, उसने कुछ सौ डॉलर कमा लिए
    • यह जानकर हैरानी होती है कि अभी भी लोग crypto currency इस्तेमाल करते हैं
      AI boom के बाद तो मुझे लगा था कि crypto का दौर ख़त्म हो चुका है
    • "जुआ लत लगा सकता है, इसलिए ज़िम्मेदारी से करें, और यह 18+ के लिए है
      अगर मदद चाहिए तो gambling helpline या किसी डॉक्टर से बात करें"
  • मुझे Deepseek और Qwen(Alibaba) पर अमेरिकी AI कंपनियों से ज़्यादा भरोसा है
    अमेरिकी AI इंडस्ट्री को देखकर मज़बूत impression यह बनता है कि वह बस पैसा और compute resources खाती जा रही है
    अरबों डॉलर लगाने के बाद भी दिखाने लायक बहुत कम नज़र आता है
    Deepseek सिर्फ़ 5 million dollar में बना और उसने training के कई नए तरीके दिखाए
    ऊपर से model और code दोनों FLOSS के रूप में जारी किए
    अमेरिकी कंपनियाँ सब closed हैं
    अमेरिकी AI कंपनियाँ मुझे एक-दूसरे को नोचने को तैयार गिद्धों जैसी लगती हैं

    • Deepseek के 5 million dollar development cost को लेकर काफ़ी विवाद है
      यह ग़लतफ़हमी थी या जानबूझकर ग़लत सूचना फैलाई गई, इस पर अलग-अलग राय है
      अगर इसमें दुर्भावना न भी रही हो, तब भी जिसने बड़े models train किए हों वह कहेगा कि सिर्फ़ एक training run की cost देखकर total cost पर बात करना बेमानी है
      असफल experiments, अतिरिक्त training और अनगिनत दूसरी कोशिशों की लागत भी काफ़ी होती है
      R2 का 6 महीने बाद भी न आना अपने-आप में अर्थपूर्ण है
      कभी-कभी शानदार नतीजे मिलते हैं, लेकिन असफलता की लागत पर कोई ध्यान नहीं देता
    • वास्तव में Google के अधिकांश models open source हैं
      AI इंडस्ट्री में काम करते हुए मैंने Google के बहुत से research papers पढ़े हैं, और इंडस्ट्री की प्रगति में उसके बड़े योगदान तथा commercial license के तहत models जारी करने के लिए आभारी हूँ
    • 5 million dollar एक बार की GPU training का time cost है
    • आपने कहा अमेरिकी AI कंपनियाँ सिर्फ़ पैसा और compute खाती हैं, लेकिन सच तो यह है कि वे किताबें भी सचमुच खा जाती हैं
    • क्या वह लागत दरअसल सिर्फ़ GPU की कीमत दिखाने वाला आँकड़ा नहीं था?
  • शायद वजह यह है कि उसका नतीजा आज घोषित K2 model से भी कमज़ोर निकला
    कोई ढंग का engineer इसे "safety" की वजह नहीं बताएगा
    ablation जैसी methods से बाद में की गई safety training भी निष्प्रभावी की जा सकती है

    • मैं व्यक्तिगत रूप से चाहता हूँ कि OpenAI का open weight model K2 से बहुत छोटा हो
      K2 में 1 trillion parameters हैं और सिर्फ़ download size ही लगभग 1TB है
      मेरे laptop पर तो यह कभी नहीं चल सकता
      local model के लिए उचित आकार मेरे हिसाब से लगभग 20B सबसे अच्छा है
      Mistral Small 3.x या Gemma 3 के कुछ models इसके अच्छे उदाहरण हैं
      ये 32GB RAM से कम पर भी अच्छी तरह चलते हैं और प्रदर्शन भी अच्छा है
      मैं सच में चाहता हूँ कि OpenAI इसी आकार में कुछ निकाले
  • यह याद रखने की ज़रूरत है कि Llama models की uncensored fine-tuning के उदाहरण दिखाते हैं कि safety restrictions आसानी से हटाई जा सकती हैं

  • यह असल में किसी काम का नहीं, सिर्फ़ security theater है
    community बहुत पहले से जानती है कि safeguards को आसानी से कैसे हटाया जाए

    • ऐसी बात सुनते ही याद आता है कि "Open"AI ने कभी GPT2 XL को "बहुत शक्तिशाली" बताकर रिलीज़ करने से मना कर दिया था
  • "यह हमारे लिए भी नया है" जैसी बात उस कंपनी के स्वभाव से मेल नहीं खाती

  • मुझे सच में जिज्ञासा है कि OpenAI public weight model जारी ही क्यों करना चाहता है