- Meta Platforms ने आधिकारिक रूप से घोषणा की कि वह यूरोपीय संघ (EU) की AI code of practice पर हस्ताक्षर नहीं करेगी
- Meta के global policy chief Joel Kaplan ने ज़ोर देकर कहा कि यह code अत्यधिक नियमन है, जो innovation और growth में बाधा डालता है
- इस code का उद्देश्य AI Act (2024 में पारित) के अनुपालन के लिए transparency और safety guidelines प्रदान करना है
- यूरोपीय आयोग ने पिछले सप्ताह general-purpose AI models के लिए अंतिम code of practice जारी किया, और प्रत्येक कंपनी स्वेच्छा से तय कर सकती है कि उसे हस्ताक्षर करना है या नहीं
- Meta के अलावा ASML, Airbus जैसी कंपनियों ने भी implementation टालने की मांग वाले पत्र में भाग लिया, जबकि OpenAI ने code of practice में शामिल होने की इच्छा जताई
Meta के यूरोपीय AI code of practice को ठुकराने की पृष्ठभूमि
- Meta Platforms ने आधिकारिक रूप से घोषणा की कि उसने यूरोपीय संघ के AI code of practice पर हस्ताक्षर न करने का फैसला किया है
- global policy chief Joel Kaplan ने कहा कि "यूरोप AI के मामले में गलत रास्ते पर जा रहा है"
- Kaplan ने दावा किया कि यह code model developers के लिए कानूनी अनिश्चितता पैदा करता है और AI Act के दायरे से आगे जाने वाले अत्यधिक उपाय लागू कर रहा है
- यह code of practice पिछले साल पारित AI Act की transparency और safety requirements को ठोस रूप देने के लिए है, और अगले महीने से लागू होने वाला है
यूरोपीय संघ के AI code of practice का सार
- यूरोपीय आयोग ने general-purpose AI models के लिए अंतिम code of practice जारी किया
- प्रत्येक कंपनी स्वेच्छा से तय कर सकती है कि उसे code पर हस्ताक्षर करना है या नहीं
- code का उद्देश्य AI Act के अनुपालन के लिए एक framework देना और AI तकनीक की transparency और safety सुनिश्चित करना है
उद्योग की प्रतिक्रिया और प्रमुख मुद्दे
- Meta के Kaplan ने आलोचना करते हुए कहा, "यह code इतना अधिक नियामित है कि यह यूरोप में AI model development और business growth के लिए गंभीर बाधा बन जाएगा"
- ASML, Airbus जैसी कुछ बड़ी कंपनियों ने implementation को 2 साल टालने की मांग वाले पत्र पर हस्ताक्षर कर अपनी आलोचनात्मक स्थिति जताई
- इसके विपरीत, OpenAI ने यूरोपीय code of practice में शामिल होने की इच्छा आधिकारिक रूप से जताई
Meta के global policy chief में बदलाव
- Joel Kaplan को 2025 की शुरुआत से Meta का global policy chief नियुक्त किया गया
- इससे पहले वह Facebook में U.S. policy vice president रहे हैं और George W. Bush प्रशासन में भी काम कर चुके हैं
2 टिप्पणियां
नीचे हैकरन्यूज़ टिप्पणी में दिए गए Latham & Watkins के EU AI Act के पहले ड्राफ्ट की व्याख्या
European Commission Releases First Draft of General-Purpose AI Code of Practice
EU AI Act ड्राफ्ट की मुख्य बातें
पारदर्शिता
कॉपीराइट अनुपालन
Text and Data Mining(TDM)
कॉपीराइट अनुपालन में पारदर्शिता
प्रणालीगत जोखिम वर्गीकरण
प्रणालीगत जोखिम प्रबंधन फ्रेमवर्क
Hacker News राय
केवल Meta ही नहीं, 40 यूरोपीय कंपनियों ने भी EU से AI कानून के लागू होने को 2 साल टालने का अनुरोध किया था, यह कहते हुए कि इसका लागू होना अस्पष्ट है। यह code of practice एक स्वैच्छिक मानक है और असली कानून से भी अधिक व्यापक है। EU ने संकेत दिया था कि यदि कोई इस मानक में स्वेच्छा से शामिल होता है तो उस पर कम नियमन लागू हो सकता है। लेकिन Meta का मानना है कि वह हर हाल में नियमन के दायरे में रहेगा, इसलिए ऐसी स्वैच्छिक सहमति से उसे व्यावहारिक लाभ बहुत कम है। कानून के भीतर एक अहम बात यह है कि यदि पार्टनर अनुचित तरीके से उपयोग करें तो उसकी ज़िम्मेदारी भी मॉडल प्रदाता पर आ सकती है। यह open source के लिए बहुत कठिन मांग है। उदाहरण के लिए, GPAI प्रदाताओं को copyright उल्लंघन रोकने के लिए उचित उपाय रखने होंगे, और अनुबंध में भी यह स्पष्ट करने के लिए प्रोत्साहित किया जाता है कि पार्टनर उन उपायों का पालन करें। अधिक जानकारी के लिए Latham & Watkins की व्याख्या देखें
उद्धरण पढ़ने पर यह समझ आता है कि EU ने copyright-सुरक्षित सामग्री को बिना लाइसेंस training data के रूप में उपयोग करने की अनुमति देने वाला अपवाद प्रावधान किस संदर्भ में रखा। लागू करने में कठिनाई ज़रूर है, लेकिन मुझे लगता है कि इसने काफ़ी संतुलित और सुरुचिपूर्ण समाधान की कोशिश की है
मुझे यह मानक उचित लगता है। open source AI मॉडल के लिए भी license शर्तों में यह जोड़ा जा सकता है कि ‘copyright-सुरक्षित content के समान या उससे मिलते-जुलते आउटपुट को बार-बार उत्पन्न न करने के लिए उचित कदम उठाए जाएंगे।’ यह अमेरिकी कानून नहीं बल्कि यूरोपीय कानून है, और ‘reasonable’ जैसी अवधारणा का अर्थ न्यायाधीश दोनों पक्षों के हित तौलकर तय करते हैं, इसलिए इसका निर्णय केवल शाब्दिक व्याख्या से नहीं होगा
यह देखकर काफ़ी झुंझलाहट होती है कि बाज़ार कैसे विकसित होगा इसका कुछ पता नहीं, फिर भी इतनी नई इंडस्ट्री को जल्दबाज़ी में regulate किया जा रहा है
अगर कोई ऐसा मॉडल बनाता है जो अनगिनत copyrighted works को ज्यों-का-त्यों पुनरुत्पादित करता है, तो उसके वितरण की अनुमति नहीं होनी चाहिए। इस अर्थ में मुझे यह मानक अनुचित नहीं लगता। साधारण software में भी यह स्वीकार्य नहीं होगा, तो केवल AI मॉडल होने के कारण इसे छूट नहीं मिल सकती
कानून की उस बात के बारे में कि मॉडल प्रदाता को पार्टनर के दुरुपयोग के लिए भी ज़िम्मेदार ठहराया जाएगा, यह वास्तव में कानून के मूल पाठ[0] में नहीं है, बल्कि Code of Practice के copyright अध्याय में है। हालांकि यह Code कानून पर अतिरिक्त शर्तें नहीं लगाता, बल्कि यह उदाहरण देता है कि कानून का पालन ‘कैसे’ किया जा सकता है। उदाहरण के लिए, कानून ‘machine-readable opt-out’ का सम्मान करने को कहता है, लेकिन तरीका नहीं बताता; Code robots.txt के उपयोग को एक उदाहरण के रूप में देता है। copyright से जुड़ी बात measure 1.4 में है: a) यह तकनीकी उपाय अपनाना कि मॉडल copyright का उल्लंघन करने वाली सामग्री पुनरुत्पादित न करे, b) terms of service या documentation में स्पष्ट करना कि copyright-उल्लंघन वाले उपयोग की अनुमति नहीं है। open source मॉडल के मामले में यह बात documentation में बता देना ही काफ़ी हो सकता है। यह Code of Practice केवल उन्हीं पर लागू होता है जिन्होंने स्वेच्छा से इस पर हस्ताक्षर किए हों; कोई और मेरा मॉडल लेकर इस पर हस्ताक्षर कर दे तो उससे मेरी ज़िम्मेदारी नहीं बनती। यह वैसा ही है जैसे Photoshop plugin को GPL में जारी करने से Photoshop source जारी करना अनिवार्य नहीं हो जाता। कानून में open source के लिए काफ़ी अपवाद भी हैं। Meta की आपत्ति शायद इसलिए है कि EU AI Office, Meta AI को open source नहीं मानता, इसलिए उसे ऐसे अपवाद नहीं मिलते। अधिक जानकारी के लिए कानूनी लिंक और Code of Practice लिंक देखें
मैं मानता हूँ कि Meta की प्रतिक्रिया मात्र से ही यह पूर्वाग्रह बन जाता है कि यह AI कानून शायद वही चीज़ होगी जिसकी हमें सचमुच ज़रूरत है। वास्तव में इसमें क्या है यह मुझे ठीक से नहीं पता, फिर भी ऐसा सोचने का मन होता है
“AI Code of Practice” कुल 3 अध्यायों से बना है, और इसे यहाँ तथा draft history में देखा जा सकता है। मैंने अभी पूरा पाठ नहीं पढ़ा है और पहले वाले AI कानून (artificialintelligenceact.eu) से ही अधिक परिचित हूँ। मेरा अनुमान है कि Meta को दूसरे अध्याय, यानी copyright से जुड़ी बातों से, खासकर copyrighted सामग्री की बिना अनुमति crawling की प्रथा से टकराव वाली बातों से, समस्या है। यह सचमुच ‘fair use’ है या नहीं, यह अभी भी अस्पष्ट है
मुझे नहीं लगता कि किसी कंपनी के ‘बुरे’ होने का मतलब यह है कि उसकी हर दलील अपने-आप ग़लत हो जाती है
जो लोग guideline का सार जानना चाहते हैं, वे यहाँ देख सकते हैं। यह निश्चित रूप से काफ़ी बोझिल नियमावली है। व्यवहार में देखें तो यह बड़े copyright धारकों, वकीलों और नौकरशाहों के पक्ष में जाती हुई लगती है
ऐसे नियम आखिरकार यूरोपीय कंपनियों के लिए जाल बन सकते हैं। जैसे ही वे एक निश्चित पैमाने से ऊपर जाती हैं, compliance का बोझ अचानक बहुत बढ़ जाता है, इसलिए छोटे या नए यूरोपीय AI उद्यमों के लिए growth threshold पार करना ही डरावना हो सकता है। दूसरी ओर, अमेरिकी और चीनी big tech कहीं तेज़ innovation वाले माहौल में AI की क्षमता और पूँजी दोनों बढ़ाते रहेंगे। नतीजतन, अच्छी तरह तराशे हुए उत्पाद और भारी वित्तीय ताकत के साथ वे EU बाज़ार में प्रवेश करेंगे, और असली प्रतिस्पर्धा उनके पक्ष में झुक सकती है
यूरोप ने कभी AI इंडस्ट्री को विकसित करके नहीं देखा, फिर भी वह पूरी इंडस्ट्री को अत्यधिक बारीकी से regulate करना चाहता है। यह regulation for regulation’s sake जैसा लगता है। Draghi की EU competitiveness report से बदलाव की उम्मीद थी, लेकिन EU ने वास्तव में दिशा बिल्कुल नहीं बदली, यह काफ़ी निराशाजनक है। इससे EU नीतियों पर भरोसा कम होता है
आपने इसे ‘बोझिल’ कहा, लेकिन मैं जानना चाहता हूँ कि कौन-सी बातें इसे इतना बोझिल बनाती हैं
EU के नियम कभी-कभी cookie policy की तरह पूरी दुनिया से पालन करवा लेने की ताकत रखते रहे हैं। आम तौर पर ऐसा तब होता है जब कुछ लोग अपनी शर्तें बहुसंख्यक पर थोप सकें, बशर्ते compliance की लागत अवज्ञा की लागत से कम हो। लेकिन AI अलग है। खेल बहुत बड़ा है और कोई भी रुकने वाला नहीं। परमाणु युद्ध न हो तो AI को रोका नहीं जा सकता
AI के संभावित जोखिम बेहद बड़े हैं। automated weapons से लेकर malicious AGI तक की कल्पना की जा सकती है। जर्मनी में पूर्व और पश्चिम जर्मनी के विभाजन काल के automated machine guns का trauma अब भी मौजूद है, और यूक्रेन भी गंभीर drone warfare के मनोवैज्ञानिक आघात से गुज़र रहा है। AI के वास्तविक जोखिम स्पष्ट हैं, इसलिए regulation और कानून ज़रूरी हैं
cookie law का नतीजा बस यह हुआ कि लोग अंतहीन pop-up से परेशान हैं। uBlock न हो तो web इस्तेमाल करना ही कष्टदायक है। user tracking server-side पर शिफ्ट हो गई, और वास्तविक privacy protection बेहतर नहीं हो पाई। इसमें इतना पैसा शामिल है कि इंडस्ट्री ऐसे ढीले नियमों को आसानी से चकमा दे देती है
मुझे आश्चर्य हुआ कि यूरोपीय regulation के साथ इतनी सहज सहमति वाले comments कितने अधिक हैं। क्या मैं ही अकेला हूँ जो मूल रूप से मानता है कि यूरोपीय regulation अक्सर अत्यधिक और खराब डिज़ाइन वाला होता है?
यूरोप ने अब तक अमेरिकी big tech monopoly तोड़ने वाली कोई नीति नहीं बनाई। EU के अधिकांश उपयोगकर्ता अब भी Google, Meta, Amazon पर निर्भर हैं। EU का लक्ष्य शायद अमेरिकी कंपनियों का सीधे मुकाबला करना नहीं, बल्कि शिष्ट तरीके से पेश आना और कुछ राष्ट्रीय सुरक्षा हितों की रक्षा करना भर है। यह बहुत सभ्य लेकिन मूलतः तर्कसंगत रुख लगता है
यदि बात नागरिकों की सुरक्षा की है, तो कड़ा regulation बुरा क्यों माना जाए?
इसे ‘अंध समर्थन’ कहना दरअसल यह मान लेना है कि आप सही हैं और दूसरे लोग केवल अनजान होने के कारण ऐसा निर्णय ले रहे हैं। आपने खुद भी कहा कि आप ‘मूल रूप से मान लेते हैं’, इसलिए यह कुछ हद तक अपनी ही आलोचना जैसा है
सच कहूँ तो लगता है कि यूरोप को दबाने की कोशिश करने वाली बाहरी रायों का प्रभाव बहुत ज़्यादा रहा है
‘मूल रूप से मान लेना’ ही समस्या है। पहले से मान लेने के बजाय संबंधित सामग्री खुद पढ़ना और अपनी राय बनाना ज़्यादा महत्वपूर्ण है। बहुराष्ट्रीय मेगा-कॉरपोरेशनों की राय के अलावा भी अपनी स्वतंत्र राय रखना बेहतर होगा
मुझे डर है कि EU हर वेबसाइट की तरह LLM पर भी हर जगह pop-up चिपका देगा
इंटरनेट तो पहले से हर तरह के pop-up और attention-grabbing UX patterns से भरा है, फिर हैरानी की बात है कि लोग उसी pop-up को समस्या मानते हैं जो कम-से-कम users को tracking अस्वीकार करने का विकल्प देता है
pop-up को अनिवार्य EU ने नहीं बल्कि कंपनियों ने बनाया। अगर website operators खुद data collection कम कर दें या उसे पूरी तरह टालें, तो pop-up की ज़रूरत ही नहीं होगी। लेकिन उन्होंने usability छोड़कर अर्थहीन pop-up लागू कर दिए, और आज का यह हाल उसी का परिणाम है। कम-से-कम जो साइटें कुछ भी collect नहीं करतीं (जैसे Fabien Sanglard ब्लॉग) उनमें कोई pop-up नहीं होता। EU की गलती यह थी कि उसने ऐसे दुरुपयोग की आशंका नहीं की; नतीजा वाकई बहुत खराब रहा
pop-up के बिना भी काम चल सकता है, लेकिन हर कोई बस बड़ी कंपनियों की नकल करने में लगा है। user experience से ज़्यादा नकल प्राथमिकता बन गई है
मुझे ऐसे pop-up सच में नापसंद हैं। यह स्थिति इतनी देर तक जस की तस बनी हुई है, इससे ज़िम्मेदार लोगों की धीमी प्रतिक्रिया साफ़ दिखती है
मेरा अनुमान है कि असली मकसद Meta की growth रोकना है। LinkedIn पोस्ट में Meta कहता है कि वह उल्टा यूरोपीय कंपनियों की growth पर पड़ने वाले असर को लेकर चिंतित है। उसके अनुसार, “ऐसा अत्यधिक regulation यूरोप में frontier AI मॉडल के development/deployment को रोकेगा, और उन पर business बनाने की कोशिश कर रही यूरोपीय कंपनियों को भी हतोत्साहित करेगा”
जब Meta कहता है कि वह “दूसरी कंपनियों के साथ ये चिंताएँ साझा करता है”, तो असल में उसका मतलब अक्सर सिर्फ इतना होता है कि उस पल अपनी PR के लिए जो तर्क सुविधाजनक लगे, वही इस्तेमाल किया जाए। वास्तव में उसे न public good की परवाह है न दूसरी कंपनियों के हित की; उसे केवल और data इकट्ठा कर ज़्यादा ads बेचने की चिंता है
Code of Practice को वास्तव में सरसरी तौर पर देखने पर भी कुछ विशेष रूप से अतिशयोक्तिपूर्ण या ‘अत्यधिक शक्ति के दुरुपयोग’ जैसा नहीं दिखता। आखिरकार मॉडल प्रदाताओं को पारदर्शी ढंग से काम करना चाहिए, और बस यही Meta के पुराने तरीकों से टकराता है
Kaplan की LinkedIn पोस्ट में यह बिल्कुल नहीं बताया गया कि नीति का कौन-सा हिस्सा समस्या है। मुझे लगता है ‘growth को बाधित करना’ जैसी भाषा का मतलब व्यवहार में बस इतना भी हो सकता है कि नई सुविधाएँ जोड़ते समय opt-in अनिवार्य हो
वैश्विक माहौल लगातार दो हिस्सों में बँटता जा रहा है, और मुझे लगता है Meta ने असंतोष और टकराव को बढ़ाने में भूमिका निभाई है। मैं किसी दिन यूरोप जाकर open source LLM को स्वतंत्र रूप से इस्तेमाल करना चाहता हूँ
उम्मीद है कि यह चर्चा इस निष्कर्ष पर नहीं पहुँचेगी कि “regulation होने पर AI का विकास रुक जाता है।” copyright और सूचना के स्रोतों की रक्षा को भी पर्याप्त महत्व दिया जाना चाहिए