- OpenAI ने इलिनॉय सीनेट बिल SB 3444 का समर्थन किया है, जिसमें कुछ शर्तों के तहत AI लैब्स की कानूनी जिम्मेदारी को सीमित करने का प्रावधान है, भले ही AI मॉडल बड़े पैमाने पर जनहानि या भारी संपत्ति-हानि का कारण बने हों
- विधेयक AI मॉडल द्वारा 100 से अधिक लोगों की मृत्यु या गंभीर चोट, या 1 अरब डॉलर से अधिक की संपत्ति-हानि होने पर उसे ‘गंभीर क्षति (critical harm)’ के रूप में परिभाषित करता है
- यदि AI लैब ने ऐसी क्षति जानबूझकर या गंभीर लापरवाही के बिना उत्पन्न की हो, और सुरक्षा·सिक्योरिटी·पारदर्शिता रिपोर्ट अपनी वेबसाइट पर प्रकाशित की हो, तो उसे दायित्व से छूट मिल सकती है
- विधेयक ‘फ्रंटियर मॉडल (frontier model)’ को ऐसे AI के रूप में परिभाषित करता है जिसकी ट्रेनिंग लागत 100 मिलियन डॉलर से अधिक हो; OpenAI, Google, xAI, Anthropic, Meta जैसी बड़ी AI लैब्स इसके दायरे में आ सकती हैं
- इस परिभाषा को उच्च-प्रदर्शन AI सिस्टम्स पर केंद्रित नियामक ढांचा तैयार करने के प्रयास के रूप में देखा जा रहा है
- OpenAI की प्रवक्ता Jamie Radice ने ईमेल बयान में कहा, “यह दृष्टिकोण उन्नत AI सिस्टम्स से होने वाले गंभीर नुकसान के जोखिम को कम करते हुए यह सुनिश्चित करने में मदद करता है कि तकनीक कंपनियों और व्यक्तियों तक पहुंचे।”
- उन्होंने यह भी कहा कि यह राज्य-दर-राज्य अलग-अलग नियमों के बजाय स्पष्ट और सुसंगत राष्ट्रीय स्तर के मानदंड बनाने में मदद करता है
- विधेयक में परिभाषित ‘गंभीर क्षति’ में ऐसे मामले भी शामिल हैं जहां AI रासायनिक·जैविक·विकिरणीय·परमाणु हथियार बनाता है, या ऐसे कार्य स्वयं करता है जिन्हें मनुष्य द्वारा किए जाने पर अपराध माना जाता
- ऐसे कार्यों से बड़े पैमाने पर नुकसान होने पर भी, यदि AI लैब की मंशा जानबूझकर की न हो और उसने रिपोर्ट जमा की हो, तो उसे कानूनी दायित्व से छूट मिल सकती है
-
संघीय नियमन और राज्य-स्तरीय विधेयकों का टकराव
- OpenAI ग्लोबल अफेयर्स टीम की Caitlin Niedermeyer ने SB 3444 के समर्थन में गवाही देते हुए संघीय स्तर के AI नियामक ढांचे की आवश्यकता पर जोर दिया
- उनका कहना था कि राज्य-दर-राज्य अलग नियम अप्रभावी घर्षण पैदा कर सकते हैं, इसलिए संघीय प्रणाली के साथ सामंजस्य मजबूत किया जाना चाहिए
- यह पूरे Silicon Valley के रुख के समान है और अमेरिका की AI प्रतिस्पर्धात्मकता बनाए रखने वाली दलील से मेल खाता है
- Niedermeyer ने कहा, “फ्रंटियर मॉडल्स की सुरक्षित तैनाती और नवाचार में अमेरिका की नेतृत्वकारी भूमिका बनाए रखना नियमन का North Star होना चाहिए।”
-
विधेयक के पारित होने की संभावना और आलोचना
- Secure AI Project के पॉलिसी डायरेक्टर Scott Wisor ने इलिनॉय के टेक नियमन-समर्थक रुझान को देखते हुए इस विधेयक के पारित होने की संभावना कम बताई
- इलिनॉय निवासियों पर किए गए एक सर्वे में 90% लोगों ने AI कंपनियों को दायित्व से छूट देने का विरोध किया
- राज्य के विधायक इसके बजाय AI डेवलपर्स पर जिम्मेदारी बढ़ाने वाले विधेयक पेश कर रहे हैं
- इलिनॉय पहले ही मानसिक स्वास्थ्य सेवाओं में AI के उपयोग को सीमित करने वाला कानून बनाने वाला पहला राज्य है, और 2008 में उसने Biometric Information Privacy Act (BIPA) भी पारित किया था
-
AI नुकसान के दायित्व का अनसुलझा सवाल
- हालांकि SB 3444 बड़े पैमाने की क्षति पर केंद्रित है, व्यक्तिगत स्तर के नुकसान पर बहस भी जारी है
- कुछ परिवारों ने OpenAI पर मुकदमा दायर किया है, आरोप है कि उनके बच्चों ने ChatGPT के साथ असामान्य इंटरैक्शन के बाद आत्महत्या की
- संघीय स्तर पर AI कानून अब भी कांग्रेस में आगे नहीं बढ़ पाया है
- Trump प्रशासन ने executive orders और framework जारी किए थे, लेकिन ठोस विधायी चर्चा अब भी गतिरोध में है
- संघीय दिशानिर्देशों की अनुपस्थिति में California·New York जैसे राज्य अपने स्तर पर सुरक्षा·पारदर्शिता रिपोर्ट अनिवार्य करने वाले कानून पारित कर चुके हैं
- कई वर्षों से जारी AI boom के बीच, यदि AI मॉडल विनाशकारी घटनाओं का कारण बनें तो कानूनी दायित्व किसका होगा, यह अब भी अनसुलझा है
1 टिप्पणियां
Hacker News टिप्पणियाँ
मैंने GPT 5.4 और Opus 4.6 का इस्तेमाल करके रोज़मर्रा की चीज़ों से neurotoxic पदार्थ बनाने का तरीका जनरेट कराने की कोशिश की
मॉडल शुरुआत में phosphorus (P) हासिल करने के तरीके पर अटक गया, लेकिन आखिरकार eBay पर ‘decorative phosphorus’ की बिक्री सूची और असली black market में इस्तेमाल होने वाले codeword तक बता दिए
मुझे safety precautions, materials list, छिपाने के तरीके, और academic search के ज़रिये chemical process तक की कोचिंग मिली
बेशक यह context exhaustion attack के ज़रिये संभव हुआ एक असामान्य नतीजा था, और बाद में मैंने इसकी रिपोर्ट OpenAI और Anthropic को की, लेकिन कोई जवाब नहीं मिला
हाल में दोबारा कोशिश करने पर session बंद हो गया, इसलिए लगता है इसे patch कर दिया गया है
मुझे यक़ीन है कि यह counter-terrorism विभाग के लोगों की नींद उड़ा देने लायक बात है
पहले “सरकार जिस जानकारी को छिपाना चाहती है” जैसे विषयों पर बहुत से forum भी थे
लेकिन अब implementation friction का कम हो जाना ही ज़्यादा डरावना हिस्सा है
मैंने अपने विशेषज्ञता वाले क्षेत्र में ChatGPT और Claude का इस्तेमाल किया है, और वे अक्सर ऐसी बातें बना देते हैं जो गैर-विशेषज्ञ को सही लगें लेकिन पूरी तरह ग़लत हों
यह भी जानना चाहता हूँ कि क्या किसी ने सच में LLM के chemistry निर्देशों का पालन करके experiment किया है
दरअसल अगर system prompt को override न किया जाए, तो उसे मूल रूप से ऐसे ही काम करना चाहिए
Illinois Senate Bill 3444 के मूल पाठ का उद्धरण दिया गया
‘critical harm’ का मतलब है वह स्थिति जिसमें AI model 100 से अधिक लोगों की मौत या 1 billion dollar से अधिक की संपत्ति-हानि का कारण बने
अगर developer पहले से safety protocol और transparency report सार्वजनिक कर दे, तो जानबूझकर की गई लापरवाही न होने पर उसे दायित्व से छूट मिल जाती है
लेकिन मुझे नहीं लगता कि सिर्फ़ एक PDF अपलोड कर देना काफ़ी है
यानी अगर कोई छोटा model नुकसान कर दे, तो उसे यह सुरक्षा नहीं मिलेगी
क्या 99 लोगों की मौत तक सब ठीक है? यह “go big or go home” जैसी अजीब तर्कशैली है
सिर्फ़ दस्तावेज़ सार्वजनिक करना ही नहीं, बल्कि उन protocols का पालन भी करना होगा, तभी सुरक्षा मिलेगी
regulator को ‘reasonable standard’ तय करना चाहिए, और कंपनी तभी दायित्व-छूट पाए जब वह उस standard को पूरा करे
बिना शर्त छूट भी ज़्यादा है, और बिना शर्त दायित्व भी
आखिरकार इस क़ानून की समस्या यह है कि मानक बहुत नीचे रखे गए हैं
1957 का Price–Anderson Act इसका प्रतिनिधि उदाहरण है, जो nuclear industry की liability सीमित करता है
Fukushima जैसी दुर्घटना में 1 trillion dollar से ज़्यादा का नुकसान हो जाए, तब भी ज़्यादातर बोझ सरकार उठाती है
AI industry में liability shield की चर्चा भी इसी संदर्भ में है
साथ ही, Gemini ने इस क़ानून की expiry year ग़लत बताई, जिससे AI fact-checking की ज़रूरत फिर महसूस हुई
बेशक यह सरल बनाया हुआ रूपक है, लेकिन इतना तो साफ़ है कि यह ज़िम्मेदारी से बचने के लिए लाया गया bill है
ग़लत target पर हमला होने पर ज़िम्मेदारी से बचने की कोशिश जैसा लगता है
“Skynet” का ज़िक्र न होना ही उल्टा अजीब लगता है
अगर immunity की ज़रूरत है, तो इसका मतलब है कि वे पहले से जानते हैं कि यह ख़तरनाक है
इससे Iowa का मामला याद आता है
राज्य senate ने ऐसा bill दो बार पास किया जिसमें pesticide/herbicide कंपनियों को, अगर वे EPA label standard का पालन करें, तो मुक़दमों से बचाया जाए
Iowa अमेरिका में cancer incidence सबसे तेज़ी से बढ़ने वाले राज्यों में भी है
PFAS से जुड़े मुक़दमों (article link) की तरह यह आगे बड़ा विवाद बन सकता है
हमने ऐसे सिस्टम बना लिए हैं जिन्हें हम समझते भी नहीं, और अगला कदम liability shield है — यह विडंबनापूर्ण है
लेकिन असल डर इस बात का है कि ऐसी प्रतिक्रिया कितनी संकीर्ण सोच से पैदा होती है
मुझे लगता है ज़िम्मेदारी का सवाल सीधा है
फ़ैसला लेने वाला इंसान हमेशा ज़िम्मेदार होना चाहिए
“AI ने कहा था” कोई मान्य बहाना नहीं है
हाँ, अगर किसी बिना अधिकार वाले व्यक्ति ने इसे लागू किया, तो वह ज़िम्मेदारी का दूसरा रूप है
आखिरकार AI सिर्फ़ एक नया बलि का बकरा बनेगा
आखिरकार उन्होंने यह हिसाब लगाया है कि सरकारी lobbying, product safety सुधारने से सस्ती और तेज़ है
इससे भी ज़्यादा हैरानी इस बात पर है कि इतने सारे developer ऐसी कंपनियों को दुनिया की चाबियाँ सौंपना चाहते हैं
Illinois में एक और OS-स्तर की age verification अनिवार्य करने वाला bill (HB 5511) भी है
ऐसे बुरे bill इसलिए पास हो जाते हैं क्योंकि हम आवाज़ नहीं उठाते
अगर आप निवासी हैं, तो अभी अपने विधायक को email भेजना चाहिए
“यह पोस्ट front page से कब नीचे जाएगी?” इस पर शर्त लग रही है
असली bill (link) में ‘100 से अधिक मौतें या 1 billion dollar का नुकसान’ साफ़ लिखा है
मुझे लगता है मूल शीर्षक ही ज़्यादा सटीक था
हम उसी का उपभोग कर रहे हैं
OpenAI की शुरुआत मूल रूप से LLM के ख़तरों को कम करने वाले non-profit संगठन के रूप में हुई थी, लेकिन अब वह बिल्कुल उलटी दिशा में जा रहा है
OpenAI और Sam Altman से ऐसी चाल हैरान करने वाली नहीं है
कंपनियों का cost को externalize करना आम बात है
लेकिन हम इस तरह के व्यवहार को कैसे रोक सकते हैं?
क्या यह बस लोभ का नैतिकता पर जीत जाना है?
SOPA/PIPA विरोध आंदोलन जैसे अपवाद रहे हैं, लेकिन ज़्यादातर मामलों में corporate incentives, व्यक्तिगत हितों से कहीं बड़े होते हैं
आखिरकार यह democracy के कमजोर होने वाले उसी mechanism जैसा है
corporation मूलतः liability से बचने की संरचना है, इसलिए multi-layer corporations या special purpose vehicles (SPV) को सीमित करना चाहिए
और Friedman Doctrine में विश्वास रखने वाले राजनेताओं और judges को वोट नहीं देना चाहिए
आज का समाज capital owners के पक्ष में झुका हुआ है
यह लगभग ऐसा ही है जैसे “जिसकी net worth 1 billion dollar से ज़्यादा हो, वह किसी को भी मार दे और दायित्व से मुक्त रहे”
आखिरकार जब तक अदालतें भ्रष्ट न हों, यह अमान्य ठहराया जाएगा
इसे सामाजिक कार्रवाई में बदलने का तरीका खोजना सभ्यता की अपनी चुनौती है
Consumer Financial Protection Bureau (CFPB) भी Democrats ने बनाया था, और Republicans ने उसे कमज़ोर किया
monopoly और manipulation को रोकने वाली राजनीतिक ताकतों का समर्थन करना चाहिए
खासकर अब जब युवा प्रगतिशील पीढ़ी उभर रही है, primary election में सही उम्मीदवार चुनना अहम है
आखिरकार सिर्फ़ 25% मतदाता बदल जाएँ, तो दुनिया बदल सकती है