1 पॉइंट द्वारा GN⁺ 2026-02-04 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • फ़्रांस की साइबर अपराध जांच इकाई ने X के पेरिस दफ़्तर पर छापा मारा है और गैरकानूनी डेटा निकासी तथा बाल अश्लील सामग्री रखने की साजिश के आरोपों की जांच कर रही है
  • Elon Musk और पूर्व CEO Linda Yaccarino को अप्रैल की सुनवाई में उपस्थित होने का नोटिस दिया गया है, जबकि X ने इस जांच को “राजनीतिक हमला” बताया है
  • ब्रिटेन का Information Commissioner’s Office (ICO) ने AI टूल Grok के यौन छवियां और वीडियो बनाने की क्षमता को लेकर अलग जांच शुरू की है
  • Ofcom ने X प्लेटफ़ॉर्म पर यौन deepfake के प्रसार के मुद्दे को आपात मामला माना है, लेकिन कहा है कि उसके पास chatbot से जुड़े मामलों में पर्याप्त अधिकार नहीं हैं
  • यूरोप और ब्रिटेन में एक साथ चल रही जांचों के कारण X और Grok की डेटा प्रोसेसिंग तथा content moderation जिम्मेदारी अंतरराष्ट्रीय स्तर पर बढ़ती दिख रही है

फ़्रांस में X दफ़्तर पर छापा

  • फ़्रांस के पेरिस अभियोजन कार्यालय की साइबर अपराध इकाई ने X के दफ़्तर की तलाशी ली
    • आरोपों में गैरकानूनी डेटा निकासी, बाल अश्लील सामग्री रखने की साजिश, और यौन deepfake के ज़रिए छवि-अधिकार का उल्लंघन शामिल हैं
    • जांच 2025 के जनवरी में X के recommendation algorithm content की जांच से शुरू हुई थी, और उसी वर्ष जुलाई में AI chatbot Grok तक बढ़ाई गई
  • अभियोजक यह जांच रहे हैं कि क्या X ने कई कानूनों का उल्लंघन किया है, और Musk व Yaccarino को अप्रैल की सुनवाई में पेश होने का आदेश मिला है
  • X ने बयान में आरोपों से इनकार करते हुए इसे “अभिव्यक्ति की स्वतंत्रता को धमकाने वाला दुरुपयोग” कहा
    • Musk ने X पर पोस्ट किया कि यह “राजनीतिक हमला” है, और Yaccarino ने इसे “अमेरिकियों के खिलाफ राजनीतिक प्रतिशोध” बताया

ब्रिटेन में Grok से जुड़ी जांच

  • ब्रिटेन का Ofcom X पर फैलाई गई Grok-जनित यौन deepfake images की घटना की जांच जारी रखे हुए है
    • पीड़ितों, राजनेताओं और online safety समूहों ने जनवरी में इसकी कड़ी आलोचना की थी
    • X ने बाद में इस तरह की गतिविधि को रोक दिया, और Ofcom ने इसे “आपात मामला” माना
  • लेकिन Ofcom ने कहा कि उसके पास chatbot द्वारा गैरकानूनी छवियां बनाने की सीधे जांच करने के पर्याप्त अधिकार नहीं हैं
  • इसके बाद ICO ने Ofcom के साथ मिलकर Grok द्वारा personal data को प्रोसेस करने के तरीके की जांच करने का फैसला किया
    • ICO के William Malcolm ने कहा कि “बिना सहमति के personal data का उपयोग करके यौन छवियां बनाई गईं — यह बेहद गंभीर समस्या है”
  • जनवरी के अंत में European Commission ने भी Grok की मूल कंपनी xAI पर अलग जांच की घोषणा की
    • आयोग के प्रवक्ता ने कहा कि वह फ़्रांसीसी अधिकारियों के साथ X दफ़्तर की तलाशी को लेकर चर्चा कर रहा है

Pavel Durov की आलोचना

  • Telegram के संस्थापक Pavel Durov ने फ़्रांसीसी अधिकारियों की आलोचना करते हुए कहा कि यह “स्वतंत्र देश नहीं है
    • उन्होंने पोस्ट किया कि “फ़्रांस एकमात्र ऐसा देश है जो स्वतंत्रता की अनुमति देने वाले सभी social networks पर आपराधिक दमन करता है”
  • Durov को अगस्त 2024 में प्लेटफ़ॉर्म के भीतर आपराधिक गतिविधियों को न रोकने के आरोप में फ़्रांस में गिरफ्तार किया गया था, और बाद में संचालन पद्धति में कुछ बदलाव करने के बाद मार्च 2025 में देश छोड़ने की अनुमति मिली
    • इन बदलावों में कानूनी अनुरोध आने पर user data उपलब्ध कराना शामिल था

1 टिप्पणियां

 
GN⁺ 2026-02-04
Hacker News की राय
  • जो लोग कहते हैं कि भौतिक छापेमारी बेकार है, उनसे मैं कुछ कहना चाहता हूँ
    अगर आप मानकर चलें कि कंपनी सामान्य है और कानून का ठीक से पालन करती है, तो बात अलग है, लेकिन जैसे ही कोई संदिग्ध काम होता है, सारी अच्छी प्रथाएँ गायब हो जाती हैं
    लोग ईमेल को कूटभाषा की तरह लिखते हैं या मिटा देते हैं, रिकॉर्ड छिपाने की कोशिश करते हैं, लेकिन आखिरकार कुछ निशान रह ही जाते हैं
    इसी वजह से जटिल गतिविधियों का पता लगाने के लिए असली छापेमारी ज़रूरी होती है

    • यह बस बुनियादी जांच प्रक्रिया है
      अगर अपराध का संदेह है, तो सबूत सुरक्षित करने होंगे। छापेमारी के बिना अभियोजन चलाना समझ से बाहर है
    • अगर यह सिर्फ “AI nude” की वजह से है, तो यह हद से ज़्यादा लगता है
      AI द्वारा बनाई गई इमेजें आखिर नकली digital drawings ही हैं, लेकिन इसे ऐसे पेश किया जा रहा है जैसे राष्ट्रीय स्तर का गुस्सा भड़काना हो
      यह किशोर लड़कों के खिलौने जैसी चीज़ है; इस पर राष्ट्रीय आक्रोश का शो करना हास्यास्पद है
    • सच कहूँ तो यह छापेमारी कंपनी को सज़ा देने का साधन ज़्यादा लगती है, Grok से जुड़ा डेटा हासिल करने की कोशिश कम
  • किसी भी platform को CSAM(बाल यौन शोषण सामग्री) की अनुमति नहीं देनी चाहिए
    लेकिन X सुरक्षा उपायों या content filtering पर पैसा नहीं खर्च करता। यह censorship का नहीं, जिम्मेदारी से बचने का मामला है

    • मैं सहमत नहीं हूँ। tool बनाने वालों की बजाय users को सज़ा मिलनी चाहिए
      अगर tool provider को जिम्मेदार ठहराना शुरू किया, तो अंत में आजादी का संकुचन होगा
    • पुराने Twitter, BlueSky और Mastodon पर भी ऐसी सामग्री बहुत थी। इसमें नया क्या है
    • 90 के दशक में भी इंटरनेट पर CSAM फैलता था, और तब भी समाज स्तब्ध था
      लेकिन अब अचानक इतना कड़ा रुख क्यों है, यह सवाल है
      कहीं Epstein मामले के बाद ऊँचे तबकों से जुड़े संदेहों को ढकने के लिए यह “नकली कार्रवाई” तो नहीं?
    • पहले CSAM का मतलब वास्तविक बच्चों से था, लेकिन अब इसमें AI-generated images भी शामिल हो रही हैं
      तो क्या हिंसक AI इमेजें भी बैन होनी चाहिए? फिल्म जैसी क्रूरता ठीक मानी जाएगी?
      “अस्वीकार्य” की सीमा कहाँ है, यह धुंधला है
    • मैंने कभी ऐसा सबूत नहीं देखा कि Grok ने वास्तव में CSAM बनाया हो
      स्विमसूट वाली composited images देखी हैं, लेकिन वे कानूनी परिभाषा के हिसाब से CSAM नहीं हैं
  • “संगठित data fraud” का आरोप बताया जा रहा है; अगर इसे व्यापक रूप से लागू किया गया, तो पूरे social media उद्योग पर बड़ा असर पड़ सकता है

    • यह वैसी जांच लगती है जिसमें “पहले व्यक्ति तय करो, फिर अपराध ढूँढो”
      लगता है EU, चीन या रूस की तरह विदेशी social media पर नियंत्रण बढ़ाना चाहता है
      अगर अमेरिका अभिव्यक्ति-नियंत्रण को और स्वीकार नहीं करता, तो EU शायद अपना विकल्प आगे बढ़ाएगा
  • HN की तरह यहाँ भी rule of law और CSAM के मुद्दे पर सब ज़ोरदार बहस कर रहे हैं

  • X/Grok के मालिक भाइयों का बाल यौन व्यापार के दोषी व्यक्ति से संबंध होने की रिपोर्ट आई है
    Grok को लगभग child porn generator कहा जा रहा है, फिर भी कुछ लोग इसे “साज़िश सिद्धांत” कहकर खारिज कर रहे हैं

  • कहा जा रहा है कि फ़्रांस के अभियोजक X की कई कानूनी उल्लंघनों को लेकर जांच कर रहे हैं, लेकिन यह महज़ राजनीतिक दबाव जैसा दिखता है
    स्थानीय कर्मचारियों को परेशान करने के अलावा इसमें कोई खास फायदा नहीं दिखता

    • लेकिन रिकॉर्ड जब्त करना सामान्य जांच प्रक्रिया भी है
      फ़्रांसीसी न्याय व्यवस्था तर्कसंगत है, इसलिए खास उल्टा सबूत न हो तो इसे वैध जांच माना जाना चाहिए
    • ऐसे सबूत हैं कि कंपनी ने वास्तव में CSAM और deepfake porn फैलाकर मुनाफ़ा कमाया
      यह जानने के लिए कि क्या इसमें जानबूझकर किया गया काम था, छापेमारी ज़रूरी है
      संबंधित कानूनी चर्चा इस paper में भी है
    • फिर भी यह राजनीतिक दबाव ही है। EU असहमति बर्दाश्त नहीं करता
    • OpenAI और Google भी इसी तरह की समस्याओं से जूझ रहे हैं
      चाहे जितना पैसा लगा लें, AI के दुरुपयोग को पूरी तरह रोकना मुश्किल है
  • सोचता हूँ फ़्रांस दफ्तर पर छापा मारकर वे क्या ढूँढना चाहते हैं। क्या कोई “Grok की CSAM योजना दस्तावेज़” जैसी चीज़?

    • आपको हैरानी होगी, लेकिन लोग सचमुच ईमेल में अपराध की योजना लिखते हैं
      उदाहरण के लिए Facebook internal documents हैं
    • शायद वे यह पता लगाने के लिए अंदरूनी decision-making records खोज रहे हैं कि क्या Grok के समस्या वाले इमेज बनाने की जानकारी होने के बावजूद उसे छोड़ा गया
    • फ़्रांस शाखा से मुख्यालय को कानून उल्लंघन की संभावना के बारे में चेतावनी देने वाले ईमेल भी हो सकते हैं
    • WaPo लेख के मुताबिक xAI ने जानबूझकर sexual content restrictions को ढीला किया था
      कर्मचारियों की गवाही भी है कि मॉडल को खतरनाक सामग्री पर train किया गया था
      जांचकर्ता शायद इसी तरह की internal communication और अनदेखी की गई चेतावनियाँ ढूँढ रहे हैं
    • Epstein files सार्वजनिक होने के बाद, मुझे लगता है कि “अपराध-योजना ईमेल” का वास्तव में मौजूद होना और अधिक संभव लगने लगा है
  • इस घटना ने AI censorship के समर्थकों को एक बहाना दे दिया है
    अब समय ऐसा आता दिख रहा है जब AI कंपनियों को users से ज़्यादा model itself की जिम्मेदारी उठानी होगी
    अंततः closed models और identity verification और मजबूत होंगे

    • यह दूसरे platforms से अलग नहीं है। फर्क बस इतना है कि इस बार “distribution” नहीं बल्कि “generation” मुद्दा है
    • समस्या generation की संभावना नहीं, बल्कि यह है कि उसे जानते हुए भी promote किया गया
      वास्तव में जानकारी थी या नहीं, यही कानूनी जिम्मेदारी का मुख्य बिंदु है
    • यह सवाल है कि X ने अवैध सामग्री के प्रसार को रोकने के लिए पर्याप्त कदम उठाए भी थे या नहीं
      AI generation feature जोड़कर उसने उलटे अवैध सामग्री के उत्पादन को बढ़ावा दिया
    • मैं इसे censorship नहीं, बल्कि unaligned platform पर कार्रवाई मानता हूँ
      EU, X के अधिग्रहण के बाद से ही इस platform को खटकने वाली चीज़ मानता रहा है
    • यह “censorship” नहीं, बस operational responsibility का मामला है
      अगर बिना filtering के इसे यूँ ही छोड़ा गया, तो यह साफ़ लापरवाही है
  • लगता है इस विवाद का SpaceX IPO पर भी बुरा असर पड़ेगा

    • अगर xAI की जांच का असर SpaceX के साथ contracts पर भी पड़ा, तो conflict of interest के मुद्दे पर lawsuits चलने की संभावना है
  • “रूसी व्यक्ति फ़्रांसीसी जेल में आज़ादी पर भाषण दे रहा है” — यह अपने आप में विडंबना है
    यह ऐसे सुनाई देता है जैसे फ़्रांस कहना चाहता हो कि वह ऐसे अपराधियों का स्वागत नहीं करता