4 पॉइंट द्वारा GN⁺ 2025-07-20 | 2 टिप्पणियां | WhatsApp पर शेयर करें
  • Meta Platforms ने आधिकारिक रूप से घोषणा की कि वह यूरोपीय संघ (EU) की AI code of practice पर हस्ताक्षर नहीं करेगी
  • Meta के global policy chief Joel Kaplan ने ज़ोर देकर कहा कि यह code अत्यधिक नियमन है, जो innovation और growth में बाधा डालता है
  • इस code का उद्देश्य AI Act (2024 में पारित) के अनुपालन के लिए transparency और safety guidelines प्रदान करना है
  • यूरोपीय आयोग ने पिछले सप्ताह general-purpose AI models के लिए अंतिम code of practice जारी किया, और प्रत्येक कंपनी स्वेच्छा से तय कर सकती है कि उसे हस्ताक्षर करना है या नहीं
  • Meta के अलावा ASML, Airbus जैसी कंपनियों ने भी implementation टालने की मांग वाले पत्र में भाग लिया, जबकि OpenAI ने code of practice में शामिल होने की इच्छा जताई

Meta के यूरोपीय AI code of practice को ठुकराने की पृष्ठभूमि

  • Meta Platforms ने आधिकारिक रूप से घोषणा की कि उसने यूरोपीय संघ के AI code of practice पर हस्ताक्षर न करने का फैसला किया है
  • global policy chief Joel Kaplan ने कहा कि "यूरोप AI के मामले में गलत रास्ते पर जा रहा है"
  • Kaplan ने दावा किया कि यह code model developers के लिए कानूनी अनिश्चितता पैदा करता है और AI Act के दायरे से आगे जाने वाले अत्यधिक उपाय लागू कर रहा है
  • यह code of practice पिछले साल पारित AI Act की transparency और safety requirements को ठोस रूप देने के लिए है, और अगले महीने से लागू होने वाला है

यूरोपीय संघ के AI code of practice का सार

  • यूरोपीय आयोग ने general-purpose AI models के लिए अंतिम code of practice जारी किया
  • प्रत्येक कंपनी स्वेच्छा से तय कर सकती है कि उसे code पर हस्ताक्षर करना है या नहीं
  • code का उद्देश्य AI Act के अनुपालन के लिए एक framework देना और AI तकनीक की transparency और safety सुनिश्चित करना है

उद्योग की प्रतिक्रिया और प्रमुख मुद्दे

  • Meta के Kaplan ने आलोचना करते हुए कहा, "यह code इतना अधिक नियामित है कि यह यूरोप में AI model development और business growth के लिए गंभीर बाधा बन जाएगा"
  • ASML, Airbus जैसी कुछ बड़ी कंपनियों ने implementation को 2 साल टालने की मांग वाले पत्र पर हस्ताक्षर कर अपनी आलोचनात्मक स्थिति जताई
  • इसके विपरीत, OpenAI ने यूरोपीय code of practice में शामिल होने की इच्छा आधिकारिक रूप से जताई

Meta के global policy chief में बदलाव

  • Joel Kaplan को 2025 की शुरुआत से Meta का global policy chief नियुक्त किया गया
  • इससे पहले वह Facebook में U.S. policy vice president रहे हैं और George W. Bush प्रशासन में भी काम कर चुके हैं

2 टिप्पणियां

 
xguru 2025-07-20

नीचे हैकरन्यूज़ टिप्पणी में दिए गए Latham & Watkins के EU AI Act के पहले ड्राफ्ट की व्याख्या

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • EU AI Act 1 अगस्त 2024 से लागू हुआ, और संबंधित दायित्व चरणबद्ध तरीके से लागू किए जाएंगे
  • आयोग के तहत AI Office आचार संहिता तैयार करने का नेतृत्व कर रहा है, इसे मई 2025 तक तैयार कर 2 अगस्त से लागू करने की योजना है
  • 14 नवंबर 2024 को EC ने पहली बार General-Purpose AI Code of Practice का ड्राफ्ट जारी किया
  • ड्राफ्ट में EU के सिद्धांतों और मूल्यों के अनुरूप स्पष्ट लक्ष्य, कार्रवाई और मुख्य प्रदर्शन संकेतक (KPI) दिए गए हैं

EU AI Act ड्राफ्ट की मुख्य बातें

पारदर्शिता

  • पारदर्शिता आचार संहिता का मुख्य सिद्धांत है
  • GPAI मॉडल प्रदाताओं को निम्न जानकारी का दस्तावेज़ीकरण और रखरखाव करना होगा
    • स्वयं मॉडल के बारे में जानकारी
    • एकीकृत किए जा सकने वाले AI सिस्टम के प्रकार और उपयोग
    • अनुमत उपयोग नीतियाँ
    • मॉडल लाइसेंस के मुख्य तत्व
    • डिज़ाइन स्पेसिफिकेशन और प्रशिक्षण प्रक्रिया
    • परीक्षण और सत्यापन के तरीके
  • ऊपर की जानकारी AI Office और राष्ट्रीय प्राधिकरणों, या AI सिस्टम प्रदाताओं को अनुरोध पर उपलब्ध करानी होगी
  • जहाँ संभव हो, जनता के लिए जानकारी सार्वजनिक करना भी प्रोत्साहित किया गया है

कॉपीराइट अनुपालन

  • EU कॉपीराइट और संबंधित अधिकारों के अनुपालन पर ज़ोर दिया गया है
  • GPAI मॉडल प्रदाताओं को पूरे lifecycle के दौरान एक व्यापक आंतरिक कॉपीराइट नीति बनानी होगी
  • तीसरे पक्ष के साथ dataset अनुबंध से पहले कॉपीराइट due diligence और Article 4(3) के तहत अधिकारधारक अनुपालन की पुष्टि आवश्यक है
  • SME को छोड़कर GPAI प्रदाताओं को यह सुनिश्चित करने के लिए युक्तिसंगत निवारक कदम उठाने होंगे कि मॉडल कॉपीराइट उल्लंघन करने वाले outputs उत्पन्न न करे
  • मॉडल उपलब्ध कराते समय यह अनुशंसा की गई है कि अनुबंध में सामने वाले पक्ष से बार-बार होने वाले कॉपीराइट उल्लंघन को रोकने के उपायों का वचन लिया जाए

Text and Data Mining(TDM)

  • TDM करते समय कॉपीराइट-संरक्षित सामग्री तक वैध पहुँच अधिकार सुनिश्चित करना अनिवार्य है
  • केवल वही crawler इस्तेमाल किए जाएँ जो Robot Exclusion Protocol का पालन करते हों
  • ध्यान रखा जाए कि crawler exclusion से search engine में सामग्री की खोज-योग्यता पर नकारात्मक असर न पड़े
  • मशीन-पठनीय अधिकारधारक संकेतों पर सक्रिय रूप से प्रतिक्रिया दी जाए
  • अधिकारधारक मानकों के विकास में सहयोग किया जाए
  • pirated स्रोतों की crawling रोकने के लिए युक्तिसंगत कदम आवश्यक हैं

कॉपीराइट अनुपालन में पारदर्शिता

  • कॉपीराइट-संबंधी उपायों और अधिकारधारक अनुपालन का प्रकटीकरण अनिवार्य है
  • अधिकारधारकों के आपत्ति दर्ज कराने के लिए एकल संपर्क बिंदु उपलब्ध कराना आवश्यक है
  • प्रशिक्षण, परीक्षण और सत्यापन डेटा के स्रोत तथा पहुँच-अधिकार संबंधी जानकारी AI Office को देनी होगी

प्रणालीगत जोखिम वर्गीकरण

  • GPAI प्रदाताओं को प्रणालीगत जोखिम वर्गीकरण ढाँचे के आधार पर जोखिम का लगातार आकलन और प्रत्युत्तर करना होगा
  • प्रमुख जोखिम श्रेणियाँ:
    • साइबर अपराध
    • रासायनिक, जैविक, रेडियोलॉजिकल और परमाणु जोखिम
    • मॉडल पर नियंत्रण का खोना
    • AI अनुसंधान और विकास उद्देश्यों का automation
    • बड़े पैमाने पर persuasion और manipulation
    • बड़े पैमाने पर भेदभाव

प्रणालीगत जोखिम प्रबंधन फ्रेमवर्क

  • जिन GPAI मॉडल प्रदाताओं में प्रणालीगत जोखिम पहचाना गया है, उन्हें safety और security framework स्थापित करना होगा
  • पारदर्शिता और जवाबदेही बढ़ाने के लिए दस्तावेज़ीकरण और governance structure (जिसमें स्वतंत्र विशेषज्ञ मूल्यांकन शामिल हो) आवश्यक हैं
  • incident reporting, whistleblower protection, public transparency जैसे उपाय भी निर्दिष्ट किए गए हैं
 
GN⁺ 2025-07-20
Hacker News राय
  • केवल Meta ही नहीं, 40 यूरोपीय कंपनियों ने भी EU से AI कानून के लागू होने को 2 साल टालने का अनुरोध किया था, यह कहते हुए कि इसका लागू होना अस्पष्ट है। यह code of practice एक स्वैच्छिक मानक है और असली कानून से भी अधिक व्यापक है। EU ने संकेत दिया था कि यदि कोई इस मानक में स्वेच्छा से शामिल होता है तो उस पर कम नियमन लागू हो सकता है। लेकिन Meta का मानना है कि वह हर हाल में नियमन के दायरे में रहेगा, इसलिए ऐसी स्वैच्छिक सहमति से उसे व्यावहारिक लाभ बहुत कम है। कानून के भीतर एक अहम बात यह है कि यदि पार्टनर अनुचित तरीके से उपयोग करें तो उसकी ज़िम्मेदारी भी मॉडल प्रदाता पर आ सकती है। यह open source के लिए बहुत कठिन मांग है। उदाहरण के लिए, GPAI प्रदाताओं को copyright उल्लंघन रोकने के लिए उचित उपाय रखने होंगे, और अनुबंध में भी यह स्पष्ट करने के लिए प्रोत्साहित किया जाता है कि पार्टनर उन उपायों का पालन करें। अधिक जानकारी के लिए Latham & Watkins की व्याख्या देखें

    • उद्धरण पढ़ने पर यह समझ आता है कि EU ने copyright-सुरक्षित सामग्री को बिना लाइसेंस training data के रूप में उपयोग करने की अनुमति देने वाला अपवाद प्रावधान किस संदर्भ में रखा। लागू करने में कठिनाई ज़रूर है, लेकिन मुझे लगता है कि इसने काफ़ी संतुलित और सुरुचिपूर्ण समाधान की कोशिश की है

    • मुझे यह मानक उचित लगता है। open source AI मॉडल के लिए भी license शर्तों में यह जोड़ा जा सकता है कि ‘copyright-सुरक्षित content के समान या उससे मिलते-जुलते आउटपुट को बार-बार उत्पन्न न करने के लिए उचित कदम उठाए जाएंगे।’ यह अमेरिकी कानून नहीं बल्कि यूरोपीय कानून है, और ‘reasonable’ जैसी अवधारणा का अर्थ न्यायाधीश दोनों पक्षों के हित तौलकर तय करते हैं, इसलिए इसका निर्णय केवल शाब्दिक व्याख्या से नहीं होगा

    • यह देखकर काफ़ी झुंझलाहट होती है कि बाज़ार कैसे विकसित होगा इसका कुछ पता नहीं, फिर भी इतनी नई इंडस्ट्री को जल्दबाज़ी में regulate किया जा रहा है

    • अगर कोई ऐसा मॉडल बनाता है जो अनगिनत copyrighted works को ज्यों-का-त्यों पुनरुत्पादित करता है, तो उसके वितरण की अनुमति नहीं होनी चाहिए। इस अर्थ में मुझे यह मानक अनुचित नहीं लगता। साधारण software में भी यह स्वीकार्य नहीं होगा, तो केवल AI मॉडल होने के कारण इसे छूट नहीं मिल सकती

    • कानून की उस बात के बारे में कि मॉडल प्रदाता को पार्टनर के दुरुपयोग के लिए भी ज़िम्मेदार ठहराया जाएगा, यह वास्तव में कानून के मूल पाठ[0] में नहीं है, बल्कि Code of Practice के copyright अध्याय में है। हालांकि यह Code कानून पर अतिरिक्त शर्तें नहीं लगाता, बल्कि यह उदाहरण देता है कि कानून का पालन ‘कैसे’ किया जा सकता है। उदाहरण के लिए, कानून ‘machine-readable opt-out’ का सम्मान करने को कहता है, लेकिन तरीका नहीं बताता; Code robots.txt के उपयोग को एक उदाहरण के रूप में देता है। copyright से जुड़ी बात measure 1.4 में है: a) यह तकनीकी उपाय अपनाना कि मॉडल copyright का उल्लंघन करने वाली सामग्री पुनरुत्पादित न करे, b) terms of service या documentation में स्पष्ट करना कि copyright-उल्लंघन वाले उपयोग की अनुमति नहीं है। open source मॉडल के मामले में यह बात documentation में बता देना ही काफ़ी हो सकता है। यह Code of Practice केवल उन्हीं पर लागू होता है जिन्होंने स्वेच्छा से इस पर हस्ताक्षर किए हों; कोई और मेरा मॉडल लेकर इस पर हस्ताक्षर कर दे तो उससे मेरी ज़िम्मेदारी नहीं बनती। यह वैसा ही है जैसे Photoshop plugin को GPL में जारी करने से Photoshop source जारी करना अनिवार्य नहीं हो जाता। कानून में open source के लिए काफ़ी अपवाद भी हैं। Meta की आपत्ति शायद इसलिए है कि EU AI Office, Meta AI को open source नहीं मानता, इसलिए उसे ऐसे अपवाद नहीं मिलते। अधिक जानकारी के लिए कानूनी लिंक और Code of Practice लिंक देखें

  • मैं मानता हूँ कि Meta की प्रतिक्रिया मात्र से ही यह पूर्वाग्रह बन जाता है कि यह AI कानून शायद वही चीज़ होगी जिसकी हमें सचमुच ज़रूरत है। वास्तव में इसमें क्या है यह मुझे ठीक से नहीं पता, फिर भी ऐसा सोचने का मन होता है

    • “AI Code of Practice” कुल 3 अध्यायों से बना है, और इसे यहाँ तथा draft history में देखा जा सकता है। मैंने अभी पूरा पाठ नहीं पढ़ा है और पहले वाले AI कानून (artificialintelligenceact.eu) से ही अधिक परिचित हूँ। मेरा अनुमान है कि Meta को दूसरे अध्याय, यानी copyright से जुड़ी बातों से, खासकर copyrighted सामग्री की बिना अनुमति crawling की प्रथा से टकराव वाली बातों से, समस्या है। यह सचमुच ‘fair use’ है या नहीं, यह अभी भी अस्पष्ट है

    • मुझे नहीं लगता कि किसी कंपनी के ‘बुरे’ होने का मतलब यह है कि उसकी हर दलील अपने-आप ग़लत हो जाती है

  • जो लोग guideline का सार जानना चाहते हैं, वे यहाँ देख सकते हैं। यह निश्चित रूप से काफ़ी बोझिल नियमावली है। व्यवहार में देखें तो यह बड़े copyright धारकों, वकीलों और नौकरशाहों के पक्ष में जाती हुई लगती है

    • ऐसे नियम आखिरकार यूरोपीय कंपनियों के लिए जाल बन सकते हैं। जैसे ही वे एक निश्चित पैमाने से ऊपर जाती हैं, compliance का बोझ अचानक बहुत बढ़ जाता है, इसलिए छोटे या नए यूरोपीय AI उद्यमों के लिए growth threshold पार करना ही डरावना हो सकता है। दूसरी ओर, अमेरिकी और चीनी big tech कहीं तेज़ innovation वाले माहौल में AI की क्षमता और पूँजी दोनों बढ़ाते रहेंगे। नतीजतन, अच्छी तरह तराशे हुए उत्पाद और भारी वित्तीय ताकत के साथ वे EU बाज़ार में प्रवेश करेंगे, और असली प्रतिस्पर्धा उनके पक्ष में झुक सकती है

    • यूरोप ने कभी AI इंडस्ट्री को विकसित करके नहीं देखा, फिर भी वह पूरी इंडस्ट्री को अत्यधिक बारीकी से regulate करना चाहता है। यह regulation for regulation’s sake जैसा लगता है। Draghi की EU competitiveness report से बदलाव की उम्मीद थी, लेकिन EU ने वास्तव में दिशा बिल्कुल नहीं बदली, यह काफ़ी निराशाजनक है। इससे EU नीतियों पर भरोसा कम होता है

    • आपने इसे ‘बोझिल’ कहा, लेकिन मैं जानना चाहता हूँ कि कौन-सी बातें इसे इतना बोझिल बनाती हैं

  • EU के नियम कभी-कभी cookie policy की तरह पूरी दुनिया से पालन करवा लेने की ताकत रखते रहे हैं। आम तौर पर ऐसा तब होता है जब कुछ लोग अपनी शर्तें बहुसंख्यक पर थोप सकें, बशर्ते compliance की लागत अवज्ञा की लागत से कम हो। लेकिन AI अलग है। खेल बहुत बड़ा है और कोई भी रुकने वाला नहीं। परमाणु युद्ध न हो तो AI को रोका नहीं जा सकता

    • AI के संभावित जोखिम बेहद बड़े हैं। automated weapons से लेकर malicious AGI तक की कल्पना की जा सकती है। जर्मनी में पूर्व और पश्चिम जर्मनी के विभाजन काल के automated machine guns का trauma अब भी मौजूद है, और यूक्रेन भी गंभीर drone warfare के मनोवैज्ञानिक आघात से गुज़र रहा है। AI के वास्तविक जोखिम स्पष्ट हैं, इसलिए regulation और कानून ज़रूरी हैं

    • cookie law का नतीजा बस यह हुआ कि लोग अंतहीन pop-up से परेशान हैं। uBlock न हो तो web इस्तेमाल करना ही कष्टदायक है। user tracking server-side पर शिफ्ट हो गई, और वास्तविक privacy protection बेहतर नहीं हो पाई। इसमें इतना पैसा शामिल है कि इंडस्ट्री ऐसे ढीले नियमों को आसानी से चकमा दे देती है

  • मुझे आश्चर्य हुआ कि यूरोपीय regulation के साथ इतनी सहज सहमति वाले comments कितने अधिक हैं। क्या मैं ही अकेला हूँ जो मूल रूप से मानता है कि यूरोपीय regulation अक्सर अत्यधिक और खराब डिज़ाइन वाला होता है?

    • यूरोप ने अब तक अमेरिकी big tech monopoly तोड़ने वाली कोई नीति नहीं बनाई। EU के अधिकांश उपयोगकर्ता अब भी Google, Meta, Amazon पर निर्भर हैं। EU का लक्ष्य शायद अमेरिकी कंपनियों का सीधे मुकाबला करना नहीं, बल्कि शिष्ट तरीके से पेश आना और कुछ राष्ट्रीय सुरक्षा हितों की रक्षा करना भर है। यह बहुत सभ्य लेकिन मूलतः तर्कसंगत रुख लगता है

    • यदि बात नागरिकों की सुरक्षा की है, तो कड़ा regulation बुरा क्यों माना जाए?

    • इसे ‘अंध समर्थन’ कहना दरअसल यह मान लेना है कि आप सही हैं और दूसरे लोग केवल अनजान होने के कारण ऐसा निर्णय ले रहे हैं। आपने खुद भी कहा कि आप ‘मूल रूप से मान लेते हैं’, इसलिए यह कुछ हद तक अपनी ही आलोचना जैसा है

    • सच कहूँ तो लगता है कि यूरोप को दबाने की कोशिश करने वाली बाहरी रायों का प्रभाव बहुत ज़्यादा रहा है

    • ‘मूल रूप से मान लेना’ ही समस्या है। पहले से मान लेने के बजाय संबंधित सामग्री खुद पढ़ना और अपनी राय बनाना ज़्यादा महत्वपूर्ण है। बहुराष्ट्रीय मेगा-कॉरपोरेशनों की राय के अलावा भी अपनी स्वतंत्र राय रखना बेहतर होगा

  • मुझे डर है कि EU हर वेबसाइट की तरह LLM पर भी हर जगह pop-up चिपका देगा

    • इंटरनेट तो पहले से हर तरह के pop-up और attention-grabbing UX patterns से भरा है, फिर हैरानी की बात है कि लोग उसी pop-up को समस्या मानते हैं जो कम-से-कम users को tracking अस्वीकार करने का विकल्प देता है

    • pop-up को अनिवार्य EU ने नहीं बल्कि कंपनियों ने बनाया। अगर website operators खुद data collection कम कर दें या उसे पूरी तरह टालें, तो pop-up की ज़रूरत ही नहीं होगी। लेकिन उन्होंने usability छोड़कर अर्थहीन pop-up लागू कर दिए, और आज का यह हाल उसी का परिणाम है। कम-से-कम जो साइटें कुछ भी collect नहीं करतीं (जैसे Fabien Sanglard ब्लॉग) उनमें कोई pop-up नहीं होता। EU की गलती यह थी कि उसने ऐसे दुरुपयोग की आशंका नहीं की; नतीजा वाकई बहुत खराब रहा

    • pop-up के बिना भी काम चल सकता है, लेकिन हर कोई बस बड़ी कंपनियों की नकल करने में लगा है। user experience से ज़्यादा नकल प्राथमिकता बन गई है

    • मुझे ऐसे pop-up सच में नापसंद हैं। यह स्थिति इतनी देर तक जस की तस बनी हुई है, इससे ज़िम्मेदार लोगों की धीमी प्रतिक्रिया साफ़ दिखती है

  • मेरा अनुमान है कि असली मकसद Meta की growth रोकना है। LinkedIn पोस्ट में Meta कहता है कि वह उल्टा यूरोपीय कंपनियों की growth पर पड़ने वाले असर को लेकर चिंतित है। उसके अनुसार, “ऐसा अत्यधिक regulation यूरोप में frontier AI मॉडल के development/deployment को रोकेगा, और उन पर business बनाने की कोशिश कर रही यूरोपीय कंपनियों को भी हतोत्साहित करेगा”

    • जब Meta कहता है कि वह “दूसरी कंपनियों के साथ ये चिंताएँ साझा करता है”, तो असल में उसका मतलब अक्सर सिर्फ इतना होता है कि उस पल अपनी PR के लिए जो तर्क सुविधाजनक लगे, वही इस्तेमाल किया जाए। वास्तव में उसे न public good की परवाह है न दूसरी कंपनियों के हित की; उसे केवल और data इकट्ठा कर ज़्यादा ads बेचने की चिंता है

    • Code of Practice को वास्तव में सरसरी तौर पर देखने पर भी कुछ विशेष रूप से अतिशयोक्तिपूर्ण या ‘अत्यधिक शक्ति के दुरुपयोग’ जैसा नहीं दिखता। आखिरकार मॉडल प्रदाताओं को पारदर्शी ढंग से काम करना चाहिए, और बस यही Meta के पुराने तरीकों से टकराता है

  • Kaplan की LinkedIn पोस्ट में यह बिल्कुल नहीं बताया गया कि नीति का कौन-सा हिस्सा समस्या है। मुझे लगता है ‘growth को बाधित करना’ जैसी भाषा का मतलब व्यवहार में बस इतना भी हो सकता है कि नई सुविधाएँ जोड़ते समय opt-in अनिवार्य हो

    • लगता है कि किसी भी regulation के सामने यह बहाना हमेशा दोहराया जाता है
  • वैश्विक माहौल लगातार दो हिस्सों में बँटता जा रहा है, और मुझे लगता है Meta ने असंतोष और टकराव को बढ़ाने में भूमिका निभाई है। मैं किसी दिन यूरोप जाकर open source LLM को स्वतंत्र रूप से इस्तेमाल करना चाहता हूँ

  • उम्मीद है कि यह चर्चा इस निष्कर्ष पर नहीं पहुँचेगी कि “regulation होने पर AI का विकास रुक जाता है।” copyright और सूचना के स्रोतों की रक्षा को भी पर्याप्त महत्व दिया जाना चाहिए