1 पॉइंट द्वारा GN⁺ 2026-02-19 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • Meta CEO Mark Zuckerberg की 2024 की अमेरिकी सीनेट सुनवाई में दी गई गवाही आंतरिक दस्तावेज़ों से टकराती है, और एक रिपोर्ट में जानबूझकर गलत बयान देने की बात सामने आई है
  • The Tech Oversight Project ने गोपनीय दस्तावेज़ों और विशेषज्ञ रिपोर्टों का विश्लेषण कर कहा कि Zuckerberg ने बच्चों की सुरक्षा, मानसिक स्वास्थ्य और content safety से जुड़े बयानों में तथ्यों को तोड़ा-मरोड़ा
  • आंतरिक सामग्री के अनुसार Meta को 13 साल से कम उम्र के users को लाने की रणनीति, sex trafficking को बढ़ावा मिलने, और गोपनीय शोध छिपाने जैसे संगठित मसलों की जानकारी थी, फिर भी उसने इन्हें अनदेखा किया
  • रिपोर्ट कहती है कि Meta ने teen safety features का प्रचार तो किया, लेकिन वास्तव में उनमें से अधिकांश अप्रभावी थे, और आंतरिक शोध ने उल्टा मानसिक स्वास्थ्य बिगड़ने और लत बढ़ने की पुष्टि की
  • संगठन ने ज़ोर देकर कहा कि इस तरह के व्यवहार को सुधारने के लिए ‘Kids Online Safety Act’ जैसे विधायी कदम ज़रूरी हैं

Tech Oversight Project की रिपोर्ट का सार

  • वॉशिंगटन D.C. में जारी इस रिपोर्ट में 2024 की Senate Judiciary Committee hearing में Zuckerberg की गवाही की तुलना नए सार्वजनिक हुए आंतरिक दस्तावेज़ों से की गई
    • दस्तावेज़ों के अनुसार Zuckerberg ने Congress से झूठ बोला, और Meta ने किशोरों की सुरक्षा में अपनी विफलता को छिपाया
  • संगठन ने संबंधित सबूतों को इकट्ठा कर ‘Big Tech on Trial’ microsite शुरू की है, जिसे मुकदमे की प्रगति के साथ लगातार अपडेट किया जाएगा
  • कार्यकारी निदेशक Sacha Haworth ने कहा, “Meta अब तक Section 230 के पीछे छिपता रहा है, और अब Congress को कार्रवाई करनी चाहिए”

सुनवाई के बयानों और आंतरिक सबूतों में असंगति

1. किशोर सुरक्षा फीचर्स

  • Zuckerberg ने कहा था, “हम किशोरों की सुरक्षा के लिए industry-leading प्रयास कर रहे हैं,” लेकिन
    Fairplay सहित संगठनों की जांच के अनुसार Instagram के 53 safety features में
    • 64% disabled या बेअसर थे,
    • 19% का सीमित असर था,
    • और सिर्फ 17% सही तरीके से काम कर रहे थे
  • रिपोर्ट का निष्कर्ष है कि “अधिकांश फीचर्स किशोरों की रक्षा नहीं कर पाते”

2. product design और child safety

  • Zuckerberg ने कहा, “पीड़ित मुआवज़ा फंड मेरी भूमिका नहीं है,” लेकिन
    विशेषज्ञ Tim Estes की अदालत में दी गई रिपोर्ट में साफ़ कहा गया कि Meta के platforms का design बच्चों की सुरक्षा को ध्यान में रखकर नहीं किया गया था
    • कमजोर age verification, अप्रभावी parental controls, और infinite scroll, autoplay, notifications जैसी सुविधाओं को समस्या बताया गया

3. मानसिक स्वास्थ्य पर असर से इनकार

  • Zuckerberg ने कहा, “वैज्ञानिक सबूत इस दावे का समर्थन नहीं करते कि social media हानिकारक है,” लेकिन
    WSJ की Facebook Files और आंतरिक शोध के अनुसार Instagram किशोरों में self-esteem में गिरावट, anxiety, और eating disorder के जोखिम को बढ़ाता है
    • खासकर लड़कियों में मनोवैज्ञानिक नुकसान अधिक केंद्रित पाया गया

4. sexual content और human trafficking

  • Zuckerberg ने कहा, “हम sexual content की अनुमति नहीं देते,” लेकिन
    आंतरिक दस्तावेज़ों के अनुसार Meta ने sex trafficking accounts को 17 violations तक सहन करने वाली policy चला रखी थी
    • 2020 में child sex trafficking के 79% मामले Meta platforms पर हुए,
    • और Instagram इस्तेमाल करने वाले नाबालिगों में 22% ने sexual contact का अनुभव बताया

5. 13 साल से कम उम्र के users पर रोक का दावा

  • Zuckerberg ने कहा, “13 साल से कम उम्र के लोग सेवा का उपयोग नहीं कर सकते,” लेकिन
    आंतरिक दस्तावेज़ों में 6~10 साल ‘Kid’, 10~13 साल ‘Tween’ को शामिल करने वाली age-based targeting strategy दर्ज थी
    • ‘Tweens Competitive Audit’ और ‘Youth Privacy’ दस्तावेज़ों में बच्चों के बाज़ार पर कब्ज़े का लक्ष्य दिखता है

6. मानसिक स्वास्थ्य शोध को दबाना

  • Meta ने अपने आंतरिक ‘deactivation study’ में पाया कि social media बंद करने पर anxiety और depression कम हुए, लेकिन
    नतीजे नकारात्मक होने की वजह से उसे सार्वजनिक करना रोक दिया गया
    • एक कर्मचारी की दर्ज टिप्पणी में चिंता जताई गई कि “हम तंबाकू कंपनी जैसे दिख सकते हैं”

7. Messenger Kids की खामी

  • Zuckerberg ने कहा, “Messenger Kids ज़्यादा सुरक्षित है,” लेकिन
    2019 के bug की वजह से बच्चों को ऐसे users के साथ group chat करने की अनुमति मिल गई जिन्हें मंज़ूरी नहीं मिली थी
    • Meta ने इसे चुपचाप ठीक किया, लेकिन The Verge की रिपोर्ट से यह सार्वजनिक हुआ

8. parents के साथ सहयोग का दावा बनाम आंतरिक नीति

  • Zuckerberg ने कहा, “हम parents के साथ मिलकर बच्चों की रक्षा करते हैं,” लेकिन
    आंतरिक emails में दर्ज है कि “अगर parents को बताया गया तो product टूट जाएगा,” यानी parents को सूचित करने से बचने की नीति
    • एक और mail में यह पंक्ति थी: “हमें इसे optimize करना चाहिए कि बच्चे chemistry class में चुपके से phone देखें”

9. किशोरों की व्यावसायिक value का आकलन

  • 2018 के एक आंतरिक email में 13 साल के किशोर की lifetime value 270 डॉलर आंकी गई
    • इसमें यह प्रबंधन चिंता भी शामिल थी कि “2030 तक 3 करोड़ teen users खो सकते हैं”

Meta से जुड़े अतिरिक्त मामले

1. Instagram की लत पर शोध

  • Adam Mosseri ने कहा, “app का असर मामूली है,” लेकिन
    2019 के आंतरिक शोध ‘Teen Mental Health: Creatures of Habit’ में कहा गया कि
    • “teens Instagram बंद करना चाहें तो भी बंद नहीं कर पाते,”
    • और “addictive use तथा perfection का दबाव anxiety का मुख्य कारण है”

2. content moderation system की प्रभावशीलता

  • Meta ने 2023 की रिपोर्ट में child exploitation material का 99% अपने-आप हटाने का दावा किया, लेकिन
    whistleblower Arturo Béjar ने खुलासा किया कि वास्तविक detection rate 5% से भी कम था
    • यह भी सामने आया कि management ने design improvement के सुझावों को नज़रअंदाज़ किया और research team को भंग कर दिया

निष्कर्ष

  • रिपोर्ट बताती है कि Meta ने किशोर सुरक्षा में विफलता और गलत बयानों को बार-बार दोहराया है
  • यह चेतावनी दी गई कि विधायी दबाव के बिना कंपनी स्वेच्छा से सुधार नहीं करेगी
  • खास तौर पर Kids Online Safety Act के पारित होने को बच्चों और किशोरों की सुरक्षा का अहम साधन बताया गया

1 टिप्पणियां

 
GN⁺ 2026-02-19
Hacker News की राय
  • झूठ और सिर्फ़ निर्णय/आकलन के मसले को मिलाना ठीक नहीं होगा
    उदाहरण के लिए, सुरक्षा टूल्स में निवेश के स्तर को सीधे झूठ कहना अस्पष्ट है। बहुत निवेश किया गया हो सकता है, लेकिन वह असरदार न रहा हो
    पढ़ते समय कुछ बातें सचमुच झूठ लगीं, लेकिन कुछ सिर्फ़ व्याख्या का फर्क लगीं। ऐसी सीमा-रेखा वाली अभिव्यक्तियों को हटाना, या बस इतना कहना कि “इन पर भरोसा करना मुश्किल है”, बेहतर होगा
    • पूरी तरह सहमत। लेख में आए गंभीर मामलों का सार यह है,
      1. Mark ने कहा कि “हर उम्र के लिए sexually explicit content पर प्रतिबंध है”, लेकिन वास्तव में 17-warning policy थी, और 2020 में child sex trafficking के पीड़ितों में से 65% Facebook और 14% Instagram से आए थे (स्रोत रिपोर्ट)
      2. आंतरिक रिसर्च में पाया गया कि Facebook/Instagram का उपयोग बंद करने वाले यूज़र्स में anxiety, depression और loneliness कम हुई, लेकिन Meta ने रिसर्च रोक दी और नतीजे सार्वजनिक नहीं किए
      3. Adam Mosseri ने कहा कि “किशोरों के mental health पर प्रभाव छोटा है”, लेकिन आंतरिक रिपोर्ट में विश्लेषण था कि “किशोर app को addiction की तरह छोड़ नहीं पाते और perfect होने का दबाव महसूस करते हैं”
    • कम से कम सबसे स्पष्ट झूठ पहले रखने चाहिए, और अस्पष्ट हिस्सों को बाद में
    • बहुत पैसा लगाने पर भी नतीजे मामूली हो सकते हैं, या 71 टूल्स में से सिर्फ़ 17% ही प्रभावी रहे हों, लेकिन वही काफी रहा हो सकता है। प्रभावशीलता का अनुपात अपने-आप कुल प्रदर्शन का मतलब नहीं होता
    • जैसे कहा जाता है, “किशमिश और गंदगी को मिलाओ, तो आख़िर में वह गंदगी ही बनती है”; मज़बूत दावों को कमज़ोर दावों के साथ मिलाने से पूरी विश्वसनीयता गिरती है
    • ऐसे गुस्सैल लोग और bots बहुत हैं जो अरबपतियों की हर बात से नफरत करते हैं। उस शोर को हटाकर असली समस्या पहचानना मुश्किल लगता है
  • “2020 में child sex trafficking का 79% Meta platforms पर हुआ” यह दावा बहुत बढ़ा-चढ़ाकर लगा, इसलिए मैंने स्रोत देखा। असल में लिखा था कि “social media से आए पीड़ितों में 65% Facebook और 14% Instagram से थे।” यह बढ़ा-चढ़ा आंकड़ा sensationalism लगता है। वैसे मेरे पास Facebook account भी नहीं है और Meta में मेरी कोई दिलचस्पी नहीं है
    • मैंने भी यही हिस्सा देखा। रिसर्च सिर्फ़ “social media के ज़रिए आए पीड़ितों” पर थी, यानी 100% मामले social media-आधारित थे। इसलिए यह बस platform market share का नक्शा है; इसे कुल trafficking पीड़ितों के 79% के रूप में पेश करना साफ़ विकृति है
    • मैं समझता हूँ कि वह संख्या गलत है, लेकिन अगर उसके साथ स्रोत या तर्क भी दिया जाए तो बात ज़्यादा भरोसेमंद लगेगी
  • मुझे इस मुद्दे में खास दिलचस्पी नहीं थी, लेकिन लेख के उदाहरण देखकर Tech Oversight के निष्कर्ष से सहमति हुई
    हाल में Reels देखते समय मुझे साफ़ तौर पर adult content मिला और मैंने रिपोर्ट किया, लेकिन उसे “policy violation नहीं” कहकर बंद कर दिया गया। रिपोर्ट बहुत आती होंगी, लेकिन Meta अपने बताए content moderation goals ठीक से हासिल नहीं कर रहा
    • अब “रिपोर्ट बहुत ज़्यादा हैं” वाला बहाना चलना मुश्किल है। जो कंपनी AI पर इतना निवेश कर रही है, उसे साफ़ मामलों को AI से priority classify करके इंसानों से review करवाना चाहिए
    • मैंने भी पहले beheading video रिपोर्ट किया था, और उसे भी “policy violation नहीं” कहकर बंद कर दिया गया
    • मैंने violence threat रिपोर्ट की थी, और Instagram ने कहा “policy violation नहीं”
    • पहले भी देखा है कि रिपोर्ट अनदेखी रहती है, फिर कुछ दिन बाद account गायब हो जाता है। शायद system batch processing के ज़रिए चीज़ें छिपा रहा है
    • Twitter पर भी मैंने दर्जनों बार रिपोर्ट किया, लेकिन शायद ही कभी ठीक से कार्रवाई हुई
  • जिन मामलों को मैं जानता हूँ, उनमें ज़्यादातर सीधे ‘झूठ’ से ज़्यादा context distortion के करीब हैं
    उदाहरण के लिए, “Meta ने 6~13 साल के बच्चों के लिए product plan किया” असल में Messenger Kids की slide थी, और उसका मकसद COPPA compliance था।
    इसी तरह “माता-पिता की मदद” कहते हुए किशोरों को उनसे छिपकर संवाद करने देना वाली आलोचना भी वास्तव में live streaming feature design issue पर चर्चा के संदर्भ में थी।
    मुझे भी Facebook पसंद नहीं, लेकिन इस लेख की तुलना में मैं Mark Zuckerberg की बात पर ज़्यादा भरोसा करूँगा
  • मुझे याद है कि Instagram acquisition के समय “इसे FB के साथ integrate नहीं किया जाएगा” जैसी शर्त थी, लेकिन असल में पीछे से सब कुछ पूरी तरह integrate हो चुका लगता है। दोनों services एक साथ down भी हो जाती हैं
    • वह कोई शर्त नहीं थी। उस समय के बयान में सिर्फ़ इतना कहा गया था कि “Instagram की स्वतंत्रता और उसकी strengths बनाए रखी जाएँगी” (आधिकारिक घोषणा लिंक)
      मौजूदा स्थिति को उस वादे को निभाना भी माना जा सकता है
    • सिर्फ़ account management ही नहीं, Instagram content और comments भी Facebook पर auto-post हो जाते हैं
    • आख़िरकार लगता है कि वह शुरू से ही अपनी मंशा छिपा रहा था
    • FB को eBay search history तक पता है। कंपनियों के बीच data sharing यूज़र consent के बिना होने वाली संरचना है
    • वह शुरू से ही manipulative व्यक्ति था। इंडस्ट्री के ऊपरी स्तर पर ज्यादातर लोग ऐसे ही हैं, और लोग खुद को ‘नैतिक पक्ष’ पर मानकर काम करते हैं। ad-based कंपनियाँ सब लगभग एक जैसी हैं
  • कांग्रेस या DOJ शायद कुछ नहीं करेंगे, लेकिन कांग्रेस में perjury की कानूनी सज़ा साफ़ तौर पर लिखी हुई है
    संबंधित प्रावधान Congress.gov दस्तावेज़ में संक्षेपित हैं।
    झूठे बयान पर अधिकतम 5~8 साल की जेल हो सकती है, और खासकर trafficking या child exploitation से जुड़े मामले में 8 साल तक हो सकती है
  • 1994 में तंबाकू कंपनियों के CEOs की कांग्रेस में गवाही का वीडियो याद आता है, जहाँ उन्होंने कहा था, “nicotine addictive नहीं है”
    • Nixon का “मैं भ्रष्ट नहीं हूँ”, Clinton का “उस महिला के साथ मेरा संबंध नहीं था”, Trump की तो बात ही छोड़िए
      ऐसे उदाहरण देखकर लगता है कि कसम खाकर सच बोलो वाली प्रक्रिया उल्टा झूठ को और ज़ोरदार बना देती है
      Watergate scandal, Clinton–Lewinsky scandal देखें
  • बचपन में लगता था कि “कानून तोड़ोगे तो जेल जाओगे”, और अब उस दौर की याद आती है
    • वह अब भी सिर्फ़ हम जैसे आम लोगों पर लागू होता है। अमीर या ताकतवर लोग अपवाद हैं
    • मुझे भी बचपन में लगता था कि न्याय चलता है और सरकार जनता के लिए काम करती है। अब लगता है कि वह सब भ्रम था
    • बड़े वित्तीय घोटालों को देखकर यकीन हो गया। कानून अमीरों पर लागू नहीं होता। ऐसे लोगों से निपटने के लिए कानून के बाहर के साधन चाहिए
    • यह वामपंथी जजों की वजह से नहीं है। यह संरचनात्मक समस्या है
  • “Meta के खतरनाक व्यवहार को रोकने के लिए Kids Online Safety Act जैसे कानून चाहिए” इस दावे पर,
    कुछ लोगों ने हाल की Discord age verification controversy का उदाहरण देते हुए चिंता जताई कि ऐसी regulation आखिरकार हर यूज़र के लिए identity verification को मजबूर कर देगी
    भले ही आप social media इस्तेमाल न करें, Hacker News जैसी जगहें भी कानूनी परिभाषा में social media मानी जा सकती हैं
    • हो सकता है एक दिन “censored internet” सुनते ही चीन नहीं, बल्कि पश्चिमी देश (खासकर UK या US) पहले याद आएँ
    • तो फिर विकल्प क्या है, यह जानने की उत्सुकता है
    • Discord विवाद ID verification के तरीके को लेकर था, और KOSA bill में ऐसा कोई प्रावधान नहीं है। KOSA को identity verification bill समझना अज्ञानता है
    • यह कुछ वैसा है जैसे “पड़ोस के domestic abuser को हटाने के लिए गाँव के बीच में nuclear bomb फोड़ दो”
    • “जब corporate profit मानव कल्याण से टकराए, तब regulation ज़रूरी है” इस तर्क से मैं सहमत हूँ।
      अगर Facebook किशोरों के लिए हानिकारक है, और Meta यह जानते हुए भी उसे अनदेखा करता रहा, तो regulation अपरिहार्य साधन है
  • iOS Safari में CSS पूरी तरह टूट गई है, जिससे पहली column fixed और बहुत छोटी हो जाती है, और rows असामान्य रूप से लंबी दिखती हैं
    • Android Firefox में भी वही हाल है। Reader mode इस्तेमाल करने पर थोड़ा बेहतर है, लेकिन फिर भी असुविधाजनक है
    • iOS पर कोई वेबसाइट इस तरह टूटी हुई हो, यह गंभीर बात है। इस पर तो मज़ाक में कहा गया कि कांग्रेस को दखल देना चाहिए