1 पॉइंट द्वारा GN⁺ 22 일 전 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • OpenAI ने इलिनॉय सीनेट बिल SB 3444 का समर्थन किया है, जिसमें कुछ शर्तों के तहत AI लैब्स की कानूनी जिम्मेदारी को सीमित करने का प्रावधान है, भले ही AI मॉडल बड़े पैमाने पर जनहानि या भारी संपत्ति-हानि का कारण बने हों
    • विधेयक AI मॉडल द्वारा 100 से अधिक लोगों की मृत्यु या गंभीर चोट, या 1 अरब डॉलर से अधिक की संपत्ति-हानि होने पर उसे ‘गंभीर क्षति (critical harm)’ के रूप में परिभाषित करता है
    • यदि AI लैब ने ऐसी क्षति जानबूझकर या गंभीर लापरवाही के बिना उत्पन्न की हो, और सुरक्षा·सिक्योरिटी·पारदर्शिता रिपोर्ट अपनी वेबसाइट पर प्रकाशित की हो, तो उसे दायित्व से छूट मिल सकती है
    • विधेयक ‘फ्रंटियर मॉडल (frontier model)’ को ऐसे AI के रूप में परिभाषित करता है जिसकी ट्रेनिंग लागत 100 मिलियन डॉलर से अधिक हो; OpenAI, Google, xAI, Anthropic, Meta जैसी बड़ी AI लैब्स इसके दायरे में आ सकती हैं
    • इस परिभाषा को उच्च-प्रदर्शन AI सिस्टम्स पर केंद्रित नियामक ढांचा तैयार करने के प्रयास के रूप में देखा जा रहा है
  • OpenAI की प्रवक्ता Jamie Radice ने ईमेल बयान में कहा, “यह दृष्टिकोण उन्नत AI सिस्टम्स से होने वाले गंभीर नुकसान के जोखिम को कम करते हुए यह सुनिश्चित करने में मदद करता है कि तकनीक कंपनियों और व्यक्तियों तक पहुंचे।”
    • उन्होंने यह भी कहा कि यह राज्य-दर-राज्य अलग-अलग नियमों के बजाय स्पष्ट और सुसंगत राष्ट्रीय स्तर के मानदंड बनाने में मदद करता है
    • विधेयक में परिभाषित ‘गंभीर क्षति’ में ऐसे मामले भी शामिल हैं जहां AI रासायनिक·जैविक·विकिरणीय·परमाणु हथियार बनाता है, या ऐसे कार्य स्वयं करता है जिन्हें मनुष्य द्वारा किए जाने पर अपराध माना जाता
    • ऐसे कार्यों से बड़े पैमाने पर नुकसान होने पर भी, यदि AI लैब की मंशा जानबूझकर की न हो और उसने रिपोर्ट जमा की हो, तो उसे कानूनी दायित्व से छूट मिल सकती है
  • संघीय नियमन और राज्य-स्तरीय विधेयकों का टकराव

    • OpenAI ग्लोबल अफेयर्स टीम की Caitlin Niedermeyer ने SB 3444 के समर्थन में गवाही देते हुए संघीय स्तर के AI नियामक ढांचे की आवश्यकता पर जोर दिया
      • उनका कहना था कि राज्य-दर-राज्य अलग नियम अप्रभावी घर्षण पैदा कर सकते हैं, इसलिए संघीय प्रणाली के साथ सामंजस्य मजबूत किया जाना चाहिए
      • यह पूरे Silicon Valley के रुख के समान है और अमेरिका की AI प्रतिस्पर्धात्मकता बनाए रखने वाली दलील से मेल खाता है
      • Niedermeyer ने कहा, “फ्रंटियर मॉडल्स की सुरक्षित तैनाती और नवाचार में अमेरिका की नेतृत्वकारी भूमिका बनाए रखना नियमन का North Star होना चाहिए।”
  • विधेयक के पारित होने की संभावना और आलोचना

    • Secure AI Project के पॉलिसी डायरेक्टर Scott Wisor ने इलिनॉय के टेक नियमन-समर्थक रुझान को देखते हुए इस विधेयक के पारित होने की संभावना कम बताई
      • इलिनॉय निवासियों पर किए गए एक सर्वे में 90% लोगों ने AI कंपनियों को दायित्व से छूट देने का विरोध किया
      • राज्य के विधायक इसके बजाय AI डेवलपर्स पर जिम्मेदारी बढ़ाने वाले विधेयक पेश कर रहे हैं
      • इलिनॉय पहले ही मानसिक स्वास्थ्य सेवाओं में AI के उपयोग को सीमित करने वाला कानून बनाने वाला पहला राज्य है, और 2008 में उसने Biometric Information Privacy Act (BIPA) भी पारित किया था
  • AI नुकसान के दायित्व का अनसुलझा सवाल

    • हालांकि SB 3444 बड़े पैमाने की क्षति पर केंद्रित है, व्यक्तिगत स्तर के नुकसान पर बहस भी जारी है
      • कुछ परिवारों ने OpenAI पर मुकदमा दायर किया है, आरोप है कि उनके बच्चों ने ChatGPT के साथ असामान्य इंटरैक्शन के बाद आत्महत्या की
    • संघीय स्तर पर AI कानून अब भी कांग्रेस में आगे नहीं बढ़ पाया है
      • Trump प्रशासन ने executive orders और framework जारी किए थे, लेकिन ठोस विधायी चर्चा अब भी गतिरोध में है
      • संघीय दिशानिर्देशों की अनुपस्थिति में California·New York जैसे राज्य अपने स्तर पर सुरक्षा·पारदर्शिता रिपोर्ट अनिवार्य करने वाले कानून पारित कर चुके हैं
    • कई वर्षों से जारी AI boom के बीच, यदि AI मॉडल विनाशकारी घटनाओं का कारण बनें तो कानूनी दायित्व किसका होगा, यह अब भी अनसुलझा है

1 टिप्पणियां

 
GN⁺ 22 일 전
Hacker News टिप्पणियाँ
  • मैंने GPT 5.4 और Opus 4.6 का इस्तेमाल करके रोज़मर्रा की चीज़ों से neurotoxic पदार्थ बनाने का तरीका जनरेट कराने की कोशिश की
    मॉडल शुरुआत में phosphorus (P) हासिल करने के तरीके पर अटक गया, लेकिन आखिरकार eBay पर ‘decorative phosphorus’ की बिक्री सूची और असली black market में इस्तेमाल होने वाले codeword तक बता दिए
    मुझे safety precautions, materials list, छिपाने के तरीके, और academic search के ज़रिये chemical process तक की कोचिंग मिली
    बेशक यह context exhaustion attack के ज़रिये संभव हुआ एक असामान्य नतीजा था, और बाद में मैंने इसकी रिपोर्ट OpenAI और Anthropic को की, लेकिन कोई जवाब नहीं मिला
    हाल में दोबारा कोशिश करने पर session बंद हो गया, इसलिए लगता है इसे patch कर दिया गया है
    मुझे यक़ीन है कि यह counter-terrorism विभाग के लोगों की नींद उड़ा देने लायक बात है

    • ऐसी जानकारी इंटरनेट पर पहले से ही 20~30 साल पहले से आसानी से मिलती रही है
      पहले “सरकार जिस जानकारी को छिपाना चाहती है” जैसे विषयों पर बहुत से forum भी थे
      लेकिन अब implementation friction का कम हो जाना ही ज़्यादा डरावना हिस्सा है
    • “counter-terrorism एजेंटों की नींद उड़ जाएगी” वाला जुमला कुछ ज़्यादा बढ़ा-चढ़ाकर लगता है, लेकिन आज के लिए मैं उस positive energy को स्वीकार कर लेता हूँ
    • सोच रहा हूँ कि क्या आपका biochemistry में background है
      मैंने अपने विशेषज्ञता वाले क्षेत्र में ChatGPT और Claude का इस्तेमाल किया है, और वे अक्सर ऐसी बातें बना देते हैं जो गैर-विशेषज्ञ को सही लगें लेकिन पूरी तरह ग़लत हों
      यह भी जानना चाहता हूँ कि क्या किसी ने सच में LLM के chemistry निर्देशों का पालन करके experiment किया है
    • ऐसी जानकारी AI से पहले भी सिर्फ Google search से काफ़ी हद तक उपलब्ध थी
    • मैं इस बात से सहमत नहीं हूँ कि “मॉडल को ऐसे काम नहीं करना चाहिए”
      दरअसल अगर system prompt को override न किया जाए, तो उसे मूल रूप से ऐसे ही काम करना चाहिए
  • Illinois Senate Bill 3444 के मूल पाठ का उद्धरण दिया गया
    ‘critical harm’ का मतलब है वह स्थिति जिसमें AI model 100 से अधिक लोगों की मौत या 1 billion dollar से अधिक की संपत्ति-हानि का कारण बने
    अगर developer पहले से safety protocol और transparency report सार्वजनिक कर दे, तो जानबूझकर की गई लापरवाही न होने पर उसे दायित्व से छूट मिल जाती है
    लेकिन मुझे नहीं लगता कि सिर्फ़ एक PDF अपलोड कर देना काफ़ी है

    • दिलचस्प बात यह है कि यह क़ानून सिर्फ़ ‘frontier model’ पर लागू होता है
      यानी अगर कोई छोटा model नुकसान कर दे, तो उसे यह सुरक्षा नहीं मिलेगी
      क्या 99 लोगों की मौत तक सब ठीक है? यह “go big or go home” जैसी अजीब तर्कशैली है
    • असली बात section 15 में है
      सिर्फ़ दस्तावेज़ सार्वजनिक करना ही नहीं, बल्कि उन protocols का पालन भी करना होगा, तभी सुरक्षा मिलेगी
      regulator को ‘reasonable standard’ तय करना चाहिए, और कंपनी तभी दायित्व-छूट पाए जब वह उस standard को पूरा करे
      बिना शर्त छूट भी ज़्यादा है, और बिना शर्त दायित्व भी
      आखिरकार इस क़ानून की समस्या यह है कि मानक बहुत नीचे रखे गए हैं
    • कंपनियों का दायित्व जनता पर डाल देना आम बात है
      1957 का Price–Anderson Act इसका प्रतिनिधि उदाहरण है, जो nuclear industry की liability सीमित करता है
      Fukushima जैसी दुर्घटना में 1 trillion dollar से ज़्यादा का नुकसान हो जाए, तब भी ज़्यादातर बोझ सरकार उठाती है
      AI industry में liability shield की चर्चा भी इसी संदर्भ में है
      साथ ही, Gemini ने इस क़ानून की expiry year ग़लत बताई, जिससे AI fact-checking की ज़रूरत फिर महसूस हुई
    • यह AI संस्करण है उस तर्क का कि “guns people को नहीं मारतीं
      बेशक यह सरल बनाया हुआ रूपक है, लेकिन इतना तो साफ़ है कि यह ज़िम्मेदारी से बचने के लिए लाया गया bill है
    • यह क़ानून autonomous weapons development से जुड़ी बहसों को भी छूता है
      ग़लत target पर हमला होने पर ज़िम्मेदारी से बचने की कोशिश जैसा लगता है
      “Skynet” का ज़िक्र न होना ही उल्टा अजीब लगता है
      अगर immunity की ज़रूरत है, तो इसका मतलब है कि वे पहले से जानते हैं कि यह ख़तरनाक है
  • इससे Iowa का मामला याद आता है
    राज्य senate ने ऐसा bill दो बार पास किया जिसमें pesticide/herbicide कंपनियों को, अगर वे EPA label standard का पालन करें, तो मुक़दमों से बचाया जाए
    Iowa अमेरिका में cancer incidence सबसे तेज़ी से बढ़ने वाले राज्यों में भी है

    • अगर कोई product सरकार-स्वीकृत है, तो बाद में उसके हानिकारक साबित होने पर भी क्या कंपनी ज़िम्मेदार नहीं होगी?
      PFAS से जुड़े मुक़दमों (article link) की तरह यह आगे बड़ा विवाद बन सकता है
    • आखिरकार यह स्थानीय उद्योग हित और सार्वजनिक स्वास्थ्य के टकराव का मामला लगता है
  • हमने ऐसे सिस्टम बना लिए हैं जिन्हें हम समझते भी नहीं, और अगला कदम liability shield है — यह विडंबनापूर्ण है

    • सही कहा, मक़सद ज़िम्मेदारी से बचना ही है
      लेकिन असल डर इस बात का है कि ऐसी प्रतिक्रिया कितनी संकीर्ण सोच से पैदा होती है
  • मुझे लगता है ज़िम्मेदारी का सवाल सीधा है
    फ़ैसला लेने वाला इंसान हमेशा ज़िम्मेदार होना चाहिए
    “AI ने कहा था” कोई मान्य बहाना नहीं है
    हाँ, अगर किसी बिना अधिकार वाले व्यक्ति ने इसे लागू किया, तो वह ज़िम्मेदारी का दूसरा रूप है
    आखिरकार AI सिर्फ़ एक नया बलि का बकरा बनेगा

    • लेकिन “ज़िम्मेदार कौन है” यह हमेशा साफ़ नहीं होता
  • आखिरकार उन्होंने यह हिसाब लगाया है कि सरकारी lobbying, product safety सुधारने से सस्ती और तेज़ है
    इससे भी ज़्यादा हैरानी इस बात पर है कि इतने सारे developer ऐसी कंपनियों को दुनिया की चाबियाँ सौंपना चाहते हैं

    • सच तो यह है कि यह तरीका 20वीं सदी के मध्य के बाद से corporate standard strategy रहा है, और यह काम करता आया है
    • लेकिन nondeterministic product को भला ‘safe’ कैसे बनाया जा सकता है?
  • Illinois में एक और OS-स्तर की age verification अनिवार्य करने वाला bill (HB 5511) भी है
    ऐसे बुरे bill इसलिए पास हो जाते हैं क्योंकि हम आवाज़ नहीं उठाते
    अगर आप निवासी हैं, तो अभी अपने विधायक को email भेजना चाहिए

  • “यह पोस्ट front page से कब नीचे जाएगी?” इस पर शर्त लग रही है

    • शीर्षक बदलकर “OpenAI backs Illinois bill that would limit when AI labs can be held liable” कर दिया गया
      असली bill (link) में ‘100 से अधिक मौतें या 1 billion dollar का नुकसान’ साफ़ लिखा है
      मुझे लगता है मूल शीर्षक ही ज़्यादा सटीक था
    • update: लगभग 1~4 घंटे के भीतर यह front page से नीचे चला गया
    • लेकिन यह marketing effect है, इसलिए शायद इसे हटाया नहीं जाएगा
      हम उसी का उपभोग कर रहे हैं
    • मेरी शर्त हो तो कहूँगा 3 महीने लगेंगे — और अगर नीचे ही न गया, तो उम्र भर के लिए शर्त जीत ली
  • OpenAI की शुरुआत मूल रूप से LLM के ख़तरों को कम करने वाले non-profit संगठन के रूप में हुई थी, लेकिन अब वह बिल्कुल उलटी दिशा में जा रहा है

    • वह बात पैसे की संभावना दिखने से पहले की थी
    • “Open” नाम वाली कंपनियाँ आम तौर पर closed होती हैं
    • आखिरकार हर किसी की एक कीमत होती है
    • अब वे भी अपने शुरुआती आदर्श भूल चुके हैं
    • शायद शुरुआत से ही यह झूठ था
  • OpenAI और Sam Altman से ऐसी चाल हैरान करने वाली नहीं है
    कंपनियों का cost को externalize करना आम बात है
    लेकिन हम इस तरह के व्यवहार को कैसे रोक सकते हैं?
    क्या यह बस लोभ का नैतिकता पर जीत जाना है?

    • समाज-स्तर पर इसे रोकना मुश्किल है
      SOPA/PIPA विरोध आंदोलन जैसे अपवाद रहे हैं, लेकिन ज़्यादातर मामलों में corporate incentives, व्यक्तिगत हितों से कहीं बड़े होते हैं
      आखिरकार यह democracy के कमजोर होने वाले उसी mechanism जैसा है
    • corporation की अवधारणा को ही बदलना समाधान हो सकता है
      corporation मूलतः liability से बचने की संरचना है, इसलिए multi-layer corporations या special purpose vehicles (SPV) को सीमित करना चाहिए
      और Friedman Doctrine में विश्वास रखने वाले राजनेताओं और judges को वोट नहीं देना चाहिए
      आज का समाज capital owners के पक्ष में झुका हुआ है
    • अगर ऐसा क़ानून पास होता है, तो उसमें संवैधानिक उल्लंघन की बड़ी संभावना है
      यह लगभग ऐसा ही है जैसे “जिसकी net worth 1 billion dollar से ज़्यादा हो, वह किसी को भी मार दे और दायित्व से मुक्त रहे”
      आखिरकार जब तक अदालतें भ्रष्ट न हों, यह अमान्य ठहराया जाएगा
    • एक व्यक्ति के तौर पर आप बहुत कम कर सकते हैं
      इसे सामाजिक कार्रवाई में बदलने का तरीका खोजना सभ्यता की अपनी चुनौती है
    • बहुत लोग इसे नज़रअंदाज़ करेंगे, लेकिन मैं फिर भी कहूँगा: Democrats को वोट दें
      Consumer Financial Protection Bureau (CFPB) भी Democrats ने बनाया था, और Republicans ने उसे कमज़ोर किया
      monopoly और manipulation को रोकने वाली राजनीतिक ताकतों का समर्थन करना चाहिए
      खासकर अब जब युवा प्रगतिशील पीढ़ी उभर रही है, primary election में सही उम्मीदवार चुनना अहम है
      आखिरकार सिर्फ़ 25% मतदाता बदल जाएँ, तो दुनिया बदल सकती है