1 पॉइंट द्वारा GN⁺ 2025-09-30 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • कैलिफ़ोर्निया के गवर्नर ने AI transparency को मजबूत करने वाले विधेयक पर हस्ताक्षर किए
  • यह कानून AI systems के development और use में transparency standards तय करता है
  • कंपनियों पर AI के decision-making process और उसके प्रभाव से जुड़ी जानकारी सार्वजनिक करने की बाध्यता होगी
  • इसका मुख्य उद्देश्य consumer protection और AI के दुरुपयोग पर जवाबदेही को मजबूत करना है
  • इस कानून के लागू होने से AI industry regulation और ethical development को बढ़ावा देने की बुनियाद बनेगी

कैलिफ़ोर्निया AI transparency विधेयक का अवलोकन

  • कैलिफ़ोर्निया के गवर्नर ने AI transparency को मजबूत करने के लिए नए विधेयक पर औपचारिक हस्ताक्षर किए
  • यह विधेयक कंपनियों और संस्थानों से मांग करता है कि वे AI systems को develop या use करते समय decision-making process से जुड़ी जानकारी सार्वजनिक करें
  • इसके मुख्य प्रावधानों में यह जवाबदेही स्पष्ट की गई है कि AI ने किन data और मानदंडों का उपयोग करके निष्कर्ष निकाला, और उस system का संभावित प्रभाव क्या है
  • जब उपभोक्ता AI-based services या products का उपयोग करें, तो उन्हें यह पता चल सके कि वे algorithmic decisions से प्रभावित हुए हैं, इसके लिए transparency सुनिश्चित करने वाले प्रावधान शामिल किए गए हैं
  • अंततः यह विधेयक AI industry में accountability बढ़ाने के साथ-साथ AI misuse की रोकथाम और consumer trust की बहाली को लक्ष्य बनाता है
  • इस कानून के लागू होने के बाद, कैलिफ़ोर्निया के अमेरिका में AI ethics और regulation के अग्रणी राज्य के रूप में स्थापित होने की संभावना है

1 टिप्पणियां

 
GN⁺ 2025-09-30
Hacker News राय
  • अगर यह वास्तव में वास्तविक दुनिया की समस्या है, तो मैं जानना चाहता/चाहती हूँ कि क्या यह बिल मेरी बौद्धिक संपदा (IP) को LLM द्वारा बिना अनुमति इस्तेमाल किए जाने से रोक पाएगा
    • इस बिल का सबसे बड़ा उद्देश्य वास्तविक डेटा पर आधारित चर्चा के लिए एक बुनियादी framework देना है। इसलिए tech कंपनियों से safety plans, transparency reports, और incident history सार्वजनिक करने को कहा गया है। जुर्माना भी $10,000 कम रखने की यही वजह है। व्यापक AI regulation अभी बहुत जल्दी होगा, और California अमेरिका के copyright law को नियंत्रित करने वाली इकाई भी नहीं है
    • सरकार को public computing cluster development framework बनाने का निर्देश दिया गया है। इस बिल से कुछ सरकारी contractors को बड़ा लाभ मिलने की संभावना है, और ऐतिहासिक रूप से देखें तो sole-source contracts के जरिए पैसा खास लोगों तक जा सकता है। संबंधित लेख देखें: Sacramento Bee संपादकीय
    • इसमें whistleblower protection प्रावधान शामिल हैं। इससे गैरकानूनी गतिविधियाँ उजागर हो सकती हैं
    • अभी भी इसे वैसे ही सुरक्षित किया जा सकता है जैसे इंसानों द्वारा IP उल्लंघन से किया जाता है
    • आखिरकार यह बिल सरकारी अधिकारियों को और पैसा दिलाने वाली एक वास्तविक समस्या का समाधान करता है
  • मुझे एक वेबसाइट मिली जहाँ असली बिल का पाठ और annotations देखे जा सकते हैं: https://sb53.info/
    • "AI model" की परिभाषा देखें तो यह अलग-अलग स्तर की autonomy वाले machine-based systems पर लागू होती है, जो input से output निकालकर physical या virtual environment को प्रभावित कर सकते हैं। यानी एक साधारण lawn mower भी शामिल हो सकता है, क्योंकि उसमें input (throttle, kill switch) और output (घूमने वाले blades) के बीच संबंध है। "critical harm" की परिभाषा 50 या अधिक मौत/गंभीर चोट या $1 billion से अधिक नुकसान की संभावना वाले जोखिम के रूप में दी गई है, जबकि हर साल lawn mower से घायल होने वाले लोग ही इससे ज्यादा हैं
  • बिल का मूल पाठ पढ़ने पर यह "AI safety" industry को विशेष लाभ देने जैसा लगता है। compliance certification के लिए ऊँचे rewards मिलेंगे
    • Big4 accounting firms में कुछ boomer partners advisory divisions को अलग नहीं होने देते, और यह AI बिल उनके लिए नया revenue source बनेगा। खासकर deloitte को इससे बड़ा फायदा होगा
    • ऊपर की टिप्पणी लिखने वाला व्यक्ति एक बड़ी AI developer कंपनी में काम करता है। AI regulation के खिलाफ उसका रुख उसकी salary से अच्छी तरह जुड़ा हुआ है। "AI safety" का मज़ाक उड़ाने की भी प्रवृत्ति दिखती है। Silicon Valley के कई industries में safety culture की समझ कम है। regulation की कम efficiency समस्या है, लेकिन regulation न होने पर क्या होगा, यह भी सोचना चाहिए। industry के अंदरूनी भ्रष्टाचार, rebates, और collusion की भी ज़रूर आलोचना होनी चाहिए
  • बिल में साफ लिखा है कि 'मौत, गंभीर चोट, critical harm' पैदा करने वाले जानबूझकर किए गए उल्लंघन पर पहली बार $1 million और उसके बाद अधिकतम $10 million का जुर्माना है। गैर-इरादतन उल्लंघन (जैसे गलती) से वही जोखिम पैदा हो जाए तो कोई जुर्माना नहीं। जुर्माने की केवल upper limit है, lower limit नहीं। यानी $0 भी 'अधिकतम $10 million तक' वाली शर्त में फिट बैठता है
  • क्या $1 billion का नुकसान करने पर भी सिर्फ $10 million जुर्माना? "critical" नुकसान पर भी यही बात लागू होती है। मेरे हिसाब से यह regulation नहीं है। OpenAI अगर engineers को सालाना $1 million देती है, तो $10,000, $1 million, या $10 million का जुर्माना कोई deterrent effect नहीं डालेगा
  • चर्चा को देखें तो यह बिल एक साथ बिल्कुल बेकार भी है, और California को geoblock करने का कारण भी बन सकता है। यह बहुत ज़्यादा भी करता है, और बहुत कम भी। इसका cost ऊँचा भी है, और कम भी। यह corruption का उदाहरण भी है और AI regulation का पहला कदम भी। AI कंपनियाँ California छोड़ भी सकती हैं, या regulation का standard इतना नीचे होने से और ज्यादा आ भी सकती हैं। अगर इस पर कहीं अधिक गहरी चर्चा हो रही हो तो उसका लिंक जानना चाहूँगा/चाहूँगी
    • हर तरह का नतीजा संभव है, और असल फर्क इस बात से पड़ेगा कि सरकार और अदालतें इसे कैसे interpret और enforce करती हैं। कानून की भाषा खुद इतनी अस्पष्ट है कि यह हथौड़ा भी बन सकती है, या बिल्कुल असरहीन भी रह सकती है
  • मुझे लगता है यह ऐसा मामला था जिसे federal law से पहले ही नियंत्रित किया जाना चाहिए था। लेकिन इस बिल की definitions बहुत ढीली हैं। खासकर "AI model" की परिभाषा तो लगभग हर मशीन और algorithm को कवर करती है। यह परिभाषा ऐसी लगती है जैसे किसी ने Twilight Zone देखकर सोचा हो कि कहीं cuckoo clock वाले androids न आ जाएँ
  • मैं जानना चाहता/चाहती था कि California AI को कैसे define करेगा, लेकिन अभी तो यह एक marketing term के ज़्यादा करीब है। यहाँ इसे input लेकर output बनाने वाली non-biological system कहा गया है
    • इस टिप्पणी पर दो प्रतिक्रियाएँ मज़ेदार हैं: "इस definition पर खरी उतरने वाली कोई वास्तविक technology है ही नहीं", "तो फिर मेरा coffee maker?"
    • मेरी राय ऊपर वाली से अलग है। इस definition पर खरी उतरने वाली technology वास्तव में मौजूद नहीं है। AI input से कुछ 'infer' नहीं कर सकता। इसी तरह इंसानों के बारे में भी यह साबित नहीं हुआ है
    • तो क्या मेरा coffee maker भी इसमें आता है
  • एक वाक्य में कहूँ तो यह ‘सिर्फ और प्रक्रियाएँ जोड़कर की गई censorship’ है। बिल की माँग देखें तो कंपनियों को risk mitigation और safety protocols का documentation करना होगा, और सरकार तय करेगी कि क्या खतरनाक है, फिर private sector उसी के अनुसार filtering systems बनाएगा। यह अमेरिकी संविधान के First Amendment के खिलाफ prior restraint है। संघीय सुप्रीम कोर्ट पहले ही साफ कर चुका है कि केवल प्रत्यक्ष हिंसक उकसावे (Brandenburg precedent) और कुछ अपवादस्वरूप मामलों (child porn, true threats) में ही यह स्वीकार्य है। सिर्फ इसलिए कि technology नई है, राज्य को जोखिमपूर्ण speech की नई category बनाने का अधिकार नहीं होना चाहिए। अगर AI हथियार डिज़ाइन या अपराध में मदद से जुड़ी expert-level जानकारी देता है, तो सरकार को रिपोर्ट करना होगा और mitigation भी देना होगा। आज "critical harm" है, कल यह "misinformation", "hate speech" वगैरह तक बढ़ सकता है। एक बार राज्य safety के नाम पर content restrictions लागू करने लगे, तो उसकी तार्किक वैधता खत्म हो जाती है
    • 18 USC § 842 के तहत विस्फोटक बनाने के तरीके जैसी अपराध में इस्तेमाल होने वाली जानकारी देना पहले से अपराध है। यहाँ free speech और वास्तविक harm की संभावना के बीच संतुलन रखा गया है। AI free speech का subject नहीं है, इसलिए राज्य उसे regulate कर सकता है। कंपनियों से AI output को filter करने की माँग को prior restraint कहना इस दावे पर आधारित है कि कंपनियाँ AI की "speech" को नियंत्रित नहीं कर सकतीं। यह तर्क टिकता नहीं। कोई random sentence generator सिर्फ मेरे online hosting पर होने भर से protected नहीं हो जाता। AI censorship पर free speech का तर्क लागू करना उचित नहीं है
    • LLM के कोई अधिकार नहीं हैं। LLM एक tool है, और राज्य tools को regulate कर सकता है। चाहे किसी की मंशा मिलती हो, इंसान कंपनी के blog पर सीधे हथियार बनाने की विधि भी डाल सकता है
    • "आज critical harm, कल misinformation, hate speech वगैरह" — यही समस्या है। मुझे critical harm से ज्यादा रोज़मर्रा के harms की चिंता है। अगर LLM हानिकारक जानकारी देता भी है, तो आखिर वह ऑनलाइन पहले से सार्वजनिक सामग्री का सार ही होता है। अमेरिकी समाज hate speech से भरा हुआ है, लेकिन यह भी कोई नई समस्या नहीं है। असली समस्या "misinformation" है। बड़े LLM इंटरनेट पढ़ते हैं और उस पर authority की परत चढ़ा देते हैं, इसलिए Google या MS की ताकत अप्रमाणित जानकारी को भी वजन दे देती है। बेहतर तरीका यह होगा कि LLM "Y ने X का दावा किया" जैसे रूप में बताए। "safety" का मुद्दा अधिकतर adult content blocking है, और मुझे लगता है कि Pornhub के युग में उसका कोई खास अर्थ नहीं है। जिस मुद्दे पर सच में चर्चा चाहिए वह है commercial purposes के लिए AI का custom services देना ताकि ग्राहकों को धोखा दिया जा सके या उनसे बचा जा सके। इसे consumer rights के नज़रिए से देखना चाहिए। एक और समस्या तब है जब AI मेरे boss की तरह काम करता है (उदाहरण: Uber)
    • पिछले 15 वर्षों में social media के विकास को देखकर एक सीख मिली है कि तेज़ risk assessment और response बहुत देर से आया। social media पहले ही इतना राजनीतिक प्रभाव जमा चुका है कि उस पर वास्तविक regulation लगभग असंभव हो गया है। उम्मीद है कि generative AI में वही गलती फिर नहीं दोहराई जाएगी