- Meta CEO Mark Zuckerberg की 2024 की अमेरिकी सीनेट सुनवाई में दी गई गवाही आंतरिक दस्तावेज़ों से टकराती है, और एक रिपोर्ट में जानबूझकर गलत बयान देने की बात सामने आई है
- The Tech Oversight Project ने गोपनीय दस्तावेज़ों और विशेषज्ञ रिपोर्टों का विश्लेषण कर कहा कि Zuckerberg ने बच्चों की सुरक्षा, मानसिक स्वास्थ्य और content safety से जुड़े बयानों में तथ्यों को तोड़ा-मरोड़ा
- आंतरिक सामग्री के अनुसार Meta को 13 साल से कम उम्र के users को लाने की रणनीति, sex trafficking को बढ़ावा मिलने, और गोपनीय शोध छिपाने जैसे संगठित मसलों की जानकारी थी, फिर भी उसने इन्हें अनदेखा किया
- रिपोर्ट कहती है कि Meta ने teen safety features का प्रचार तो किया, लेकिन वास्तव में उनमें से अधिकांश अप्रभावी थे, और आंतरिक शोध ने उल्टा मानसिक स्वास्थ्य बिगड़ने और लत बढ़ने की पुष्टि की
- संगठन ने ज़ोर देकर कहा कि इस तरह के व्यवहार को सुधारने के लिए ‘Kids Online Safety Act’ जैसे विधायी कदम ज़रूरी हैं
Tech Oversight Project की रिपोर्ट का सार
- वॉशिंगटन D.C. में जारी इस रिपोर्ट में 2024 की Senate Judiciary Committee hearing में Zuckerberg की गवाही की तुलना नए सार्वजनिक हुए आंतरिक दस्तावेज़ों से की गई
- दस्तावेज़ों के अनुसार Zuckerberg ने Congress से झूठ बोला, और Meta ने किशोरों की सुरक्षा में अपनी विफलता को छिपाया
- संगठन ने संबंधित सबूतों को इकट्ठा कर ‘Big Tech on Trial’ microsite शुरू की है, जिसे मुकदमे की प्रगति के साथ लगातार अपडेट किया जाएगा
- कार्यकारी निदेशक Sacha Haworth ने कहा, “Meta अब तक Section 230 के पीछे छिपता रहा है, और अब Congress को कार्रवाई करनी चाहिए”
सुनवाई के बयानों और आंतरिक सबूतों में असंगति
1. किशोर सुरक्षा फीचर्स
- Zuckerberg ने कहा था, “हम किशोरों की सुरक्षा के लिए industry-leading प्रयास कर रहे हैं,” लेकिन
Fairplay सहित संगठनों की जांच के अनुसार Instagram के 53 safety features में
- 64% disabled या बेअसर थे,
- 19% का सीमित असर था,
- और सिर्फ 17% सही तरीके से काम कर रहे थे
- रिपोर्ट का निष्कर्ष है कि “अधिकांश फीचर्स किशोरों की रक्षा नहीं कर पाते”
2. product design और child safety
- Zuckerberg ने कहा, “पीड़ित मुआवज़ा फंड मेरी भूमिका नहीं है,” लेकिन
विशेषज्ञ Tim Estes की अदालत में दी गई रिपोर्ट में साफ़ कहा गया कि Meta के platforms का design बच्चों की सुरक्षा को ध्यान में रखकर नहीं किया गया था
- कमजोर age verification, अप्रभावी parental controls, और infinite scroll, autoplay, notifications जैसी सुविधाओं को समस्या बताया गया
3. मानसिक स्वास्थ्य पर असर से इनकार
- Zuckerberg ने कहा, “वैज्ञानिक सबूत इस दावे का समर्थन नहीं करते कि social media हानिकारक है,” लेकिन
WSJ की Facebook Files और आंतरिक शोध के अनुसार Instagram किशोरों में self-esteem में गिरावट, anxiety, और eating disorder के जोखिम को बढ़ाता है
- खासकर लड़कियों में मनोवैज्ञानिक नुकसान अधिक केंद्रित पाया गया
4. sexual content और human trafficking
- Zuckerberg ने कहा, “हम sexual content की अनुमति नहीं देते,” लेकिन
आंतरिक दस्तावेज़ों के अनुसार Meta ने sex trafficking accounts को 17 violations तक सहन करने वाली policy चला रखी थी
- 2020 में child sex trafficking के 79% मामले Meta platforms पर हुए,
- और Instagram इस्तेमाल करने वाले नाबालिगों में 22% ने sexual contact का अनुभव बताया
5. 13 साल से कम उम्र के users पर रोक का दावा
- Zuckerberg ने कहा, “13 साल से कम उम्र के लोग सेवा का उपयोग नहीं कर सकते,” लेकिन
आंतरिक दस्तावेज़ों में 6~10 साल ‘Kid’, 10~13 साल ‘Tween’ को शामिल करने वाली age-based targeting strategy दर्ज थी
- ‘Tweens Competitive Audit’ और ‘Youth Privacy’ दस्तावेज़ों में बच्चों के बाज़ार पर कब्ज़े का लक्ष्य दिखता है
6. मानसिक स्वास्थ्य शोध को दबाना
- Meta ने अपने आंतरिक ‘deactivation study’ में पाया कि social media बंद करने पर anxiety और depression कम हुए, लेकिन
नतीजे नकारात्मक होने की वजह से उसे सार्वजनिक करना रोक दिया गया
- एक कर्मचारी की दर्ज टिप्पणी में चिंता जताई गई कि “हम तंबाकू कंपनी जैसे दिख सकते हैं”
7. Messenger Kids की खामी
- Zuckerberg ने कहा, “Messenger Kids ज़्यादा सुरक्षित है,” लेकिन
2019 के bug की वजह से बच्चों को ऐसे users के साथ group chat करने की अनुमति मिल गई जिन्हें मंज़ूरी नहीं मिली थी
- Meta ने इसे चुपचाप ठीक किया, लेकिन The Verge की रिपोर्ट से यह सार्वजनिक हुआ
8. parents के साथ सहयोग का दावा बनाम आंतरिक नीति
- Zuckerberg ने कहा, “हम parents के साथ मिलकर बच्चों की रक्षा करते हैं,” लेकिन
आंतरिक emails में दर्ज है कि “अगर parents को बताया गया तो product टूट जाएगा,” यानी parents को सूचित करने से बचने की नीति
- एक और mail में यह पंक्ति थी: “हमें इसे optimize करना चाहिए कि बच्चे chemistry class में चुपके से phone देखें”
9. किशोरों की व्यावसायिक value का आकलन
- 2018 के एक आंतरिक email में 13 साल के किशोर की lifetime value 270 डॉलर आंकी गई
- इसमें यह प्रबंधन चिंता भी शामिल थी कि “2030 तक 3 करोड़ teen users खो सकते हैं”
Meta से जुड़े अतिरिक्त मामले
1. Instagram की लत पर शोध
- Adam Mosseri ने कहा, “app का असर मामूली है,” लेकिन
2019 के आंतरिक शोध ‘Teen Mental Health: Creatures of Habit’ में कहा गया कि
- “teens Instagram बंद करना चाहें तो भी बंद नहीं कर पाते,”
- और “addictive use तथा perfection का दबाव anxiety का मुख्य कारण है”
2. content moderation system की प्रभावशीलता
- Meta ने 2023 की रिपोर्ट में child exploitation material का 99% अपने-आप हटाने का दावा किया, लेकिन
whistleblower Arturo Béjar ने खुलासा किया कि वास्तविक detection rate 5% से भी कम था
- यह भी सामने आया कि management ने design improvement के सुझावों को नज़रअंदाज़ किया और research team को भंग कर दिया
निष्कर्ष
- रिपोर्ट बताती है कि Meta ने किशोर सुरक्षा में विफलता और गलत बयानों को बार-बार दोहराया है
- यह चेतावनी दी गई कि विधायी दबाव के बिना कंपनी स्वेच्छा से सुधार नहीं करेगी
- खास तौर पर Kids Online Safety Act के पारित होने को बच्चों और किशोरों की सुरक्षा का अहम साधन बताया गया
1 टिप्पणियां
Hacker News की राय
उदाहरण के लिए, सुरक्षा टूल्स में निवेश के स्तर को सीधे झूठ कहना अस्पष्ट है। बहुत निवेश किया गया हो सकता है, लेकिन वह असरदार न रहा हो
पढ़ते समय कुछ बातें सचमुच झूठ लगीं, लेकिन कुछ सिर्फ़ व्याख्या का फर्क लगीं। ऐसी सीमा-रेखा वाली अभिव्यक्तियों को हटाना, या बस इतना कहना कि “इन पर भरोसा करना मुश्किल है”, बेहतर होगा
हाल में Reels देखते समय मुझे साफ़ तौर पर adult content मिला और मैंने रिपोर्ट किया, लेकिन उसे “policy violation नहीं” कहकर बंद कर दिया गया। रिपोर्ट बहुत आती होंगी, लेकिन Meta अपने बताए content moderation goals ठीक से हासिल नहीं कर रहा
उदाहरण के लिए, “Meta ने 6~13 साल के बच्चों के लिए product plan किया” असल में Messenger Kids की slide थी, और उसका मकसद COPPA compliance था।
इसी तरह “माता-पिता की मदद” कहते हुए किशोरों को उनसे छिपकर संवाद करने देना वाली आलोचना भी वास्तव में live streaming feature design issue पर चर्चा के संदर्भ में थी।
मुझे भी Facebook पसंद नहीं, लेकिन इस लेख की तुलना में मैं Mark Zuckerberg की बात पर ज़्यादा भरोसा करूँगा
मौजूदा स्थिति को उस वादे को निभाना भी माना जा सकता है
संबंधित प्रावधान Congress.gov दस्तावेज़ में संक्षेपित हैं।
झूठे बयान पर अधिकतम 5~8 साल की जेल हो सकती है, और खासकर trafficking या child exploitation से जुड़े मामले में 8 साल तक हो सकती है
ऐसे उदाहरण देखकर लगता है कि कसम खाकर सच बोलो वाली प्रक्रिया उल्टा झूठ को और ज़ोरदार बना देती है
Watergate scandal, Clinton–Lewinsky scandal देखें
कुछ लोगों ने हाल की Discord age verification controversy का उदाहरण देते हुए चिंता जताई कि ऐसी regulation आखिरकार हर यूज़र के लिए identity verification को मजबूर कर देगी
भले ही आप social media इस्तेमाल न करें, Hacker News जैसी जगहें भी कानूनी परिभाषा में social media मानी जा सकती हैं
अगर Facebook किशोरों के लिए हानिकारक है, और Meta यह जानते हुए भी उसे अनदेखा करता रहा, तो regulation अपरिहार्य साधन है