- OpenAI ने इलिनॉय सीनेट बिल SB 3444 का समर्थन किया है, जिसमें कुछ शर्तों के तहत AI लैब्स की कानूनी जिम्मेदारी को सीमित करने का प्रावधान है, भले ही AI मॉडल बड़े पैमाने पर जनहानि या भारी संपत्ति-हानि का कारण बने हों
- विधेयक AI मॉडल द्वारा 100 से अधिक लोगों की मृत्यु या गंभीर चोट, या 1 अरब डॉलर से अधिक की संपत्ति-हानि होने पर उसे ‘गंभीर क्षति (critical harm)’ के रूप में परिभाषित करता है
- यदि AI लैब ने ऐसी क्षति जानबूझकर या गंभीर लापरवाही के बिना उत्पन्न की हो, और सुरक्षा·सिक्योरिटी·पारदर्शिता रिपोर्ट अपनी वेबसाइट पर प्रकाशित की हो, तो उसे दायित्व से छूट मिल सकती है
- विधेयक ‘फ्रंटियर मॉडल (frontier model)’ को ऐसे AI के रूप में परिभाषित करता है जिसकी ट्रेनिंग लागत 100 मिलियन डॉलर से अधिक हो; OpenAI, Google, xAI, Anthropic, Meta जैसी बड़ी AI लैब्स इसके दायरे में आ सकती हैं
- इस परिभाषा को उच्च-प्रदर्शन AI सिस्टम्स पर केंद्रित नियामक ढांचा तैयार करने के प्रयास के रूप में देखा जा रहा है
- OpenAI की प्रवक्ता Jamie Radice ने ईमेल बयान में कहा, “यह दृष्टिकोण उन्नत AI सिस्टम्स से होने वाले गंभीर नुकसान के जोखिम को कम करते हुए यह सुनिश्चित करने में मदद करता है कि तकनीक कंपनियों और व्यक्तियों तक पहुंचे।”
- उन्होंने यह भी कहा कि यह राज्य-दर-राज्य अलग-अलग नियमों के बजाय स्पष्ट और सुसंगत राष्ट्रीय स्तर के मानदंड बनाने में मदद करता है
- विधेयक में परिभाषित ‘गंभीर क्षति’ में ऐसे मामले भी शामिल हैं जहां AI रासायनिक·जैविक·विकिरणीय·परमाणु हथियार बनाता है, या ऐसे कार्य स्वयं करता है जिन्हें मनुष्य द्वारा किए जाने पर अपराध माना जाता
- ऐसे कार्यों से बड़े पैमाने पर नुकसान होने पर भी, यदि AI लैब की मंशा जानबूझकर की न हो और उसने रिपोर्ट जमा की हो, तो उसे कानूनी दायित्व से छूट मिल सकती है
-
संघीय नियमन और राज्य-स्तरीय विधेयकों का टकराव
- OpenAI ग्लोबल अफेयर्स टीम की Caitlin Niedermeyer ने SB 3444 के समर्थन में गवाही देते हुए संघीय स्तर के AI नियामक ढांचे की आवश्यकता पर जोर दिया
- उनका कहना था कि राज्य-दर-राज्य अलग नियम अप्रभावी घर्षण पैदा कर सकते हैं, इसलिए संघीय प्रणाली के साथ सामंजस्य मजबूत किया जाना चाहिए
- यह पूरे Silicon Valley के रुख के समान है और अमेरिका की AI प्रतिस्पर्धात्मकता बनाए रखने वाली दलील से मेल खाता है
- Niedermeyer ने कहा, “फ्रंटियर मॉडल्स की सुरक्षित तैनाती और नवाचार में अमेरिका की नेतृत्वकारी भूमिका बनाए रखना नियमन का North Star होना चाहिए।”
-
विधेयक के पारित होने की संभावना और आलोचना
- Secure AI Project के पॉलिसी डायरेक्टर Scott Wisor ने इलिनॉय के टेक नियमन-समर्थक रुझान को देखते हुए इस विधेयक के पारित होने की संभावना कम बताई
- इलिनॉय निवासियों पर किए गए एक सर्वे में 90% लोगों ने AI कंपनियों को दायित्व से छूट देने का विरोध किया
- राज्य के विधायक इसके बजाय AI डेवलपर्स पर जिम्मेदारी बढ़ाने वाले विधेयक पेश कर रहे हैं
- इलिनॉय पहले ही मानसिक स्वास्थ्य सेवाओं में AI के उपयोग को सीमित करने वाला कानून बनाने वाला पहला राज्य है, और 2008 में उसने Biometric Information Privacy Act (BIPA) भी पारित किया था
-
AI नुकसान के दायित्व का अनसुलझा सवाल
- हालांकि SB 3444 बड़े पैमाने की क्षति पर केंद्रित है, व्यक्तिगत स्तर के नुकसान पर बहस भी जारी है
- कुछ परिवारों ने OpenAI पर मुकदमा दायर किया है, आरोप है कि उनके बच्चों ने ChatGPT के साथ असामान्य इंटरैक्शन के बाद आत्महत्या की
- संघीय स्तर पर AI कानून अब भी कांग्रेस में आगे नहीं बढ़ पाया है
- Trump प्रशासन ने executive orders और framework जारी किए थे, लेकिन ठोस विधायी चर्चा अब भी गतिरोध में है
- संघीय दिशानिर्देशों की अनुपस्थिति में California·New York जैसे राज्य अपने स्तर पर सुरक्षा·पारदर्शिता रिपोर्ट अनिवार्य करने वाले कानून पारित कर चुके हैं
- कई वर्षों से जारी AI boom के बीच, यदि AI मॉडल विनाशकारी घटनाओं का कारण बनें तो कानूनी दायित्व किसका होगा, यह अब भी अनसुलझा है
अभी कोई टिप्पणी नहीं है.