1 पॉइंट द्वारा GN⁺ 2026-03-19 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • whistleblowers ने खुलासा किया कि Meta और TikTok को अपनी आंतरिक रिसर्च से पता था कि algorithm जितना ज्यादा गुस्सा भड़काता है, एंगेजमेंट उतनी बढ़ती है, फिर भी उन्होंने यूज़र फ़ीड में अधिक हानिकारक कंटेंट दिखाया
  • Meta के एक engineer ने कहा कि शेयर प्राइस में गिरावट के कारण उसे ‘borderline content’ की visibility बढ़ाने के निर्देश मिले, जबकि TikTok के एक कर्मचारी ने एक आंतरिक dashboard साझा किया, जिसमें राजनीतिज्ञों से जुड़े मामलों को बच्चों को नुकसान पहुंचाने वाले मामलों से पहले प्राथमिकता दी गई
  • Meta का Reels TikTok से प्रतिस्पर्धा करने के लिए पर्याप्त safety guardrails के बिना लॉन्च किया गया, और आंतरिक रिसर्च में पाया गया कि bullying, hate speech और violent comments की दर Instagram के main feed से अधिक थी
  • TikTok की internal safety team के एक कर्मचारी ने गवाही दी कि राजनीतिक संबंध बनाए रखने के लिए child safety को पीछे धकेला गया, और चेतावनी दी कि “माता-पिता ऐप को delete कर दें”
  • दोनों कंपनियों ने जानबूझकर हानिकारक कंटेंट को amplify करने से इनकार किया, लेकिन आंतरिक दस्तावेज़ और गवाही इस संरचनात्मक समस्या को दिखाते हैं कि एंगेजमेंट-केंद्रित algorithm ने यूज़र सुरक्षा से ऊपर revenue को रखा

whistleblowers के खुलासों का सार

  • 12 से अधिक whistleblowers और संबंधित लोगों ने गवाही दी कि कंपनियां हिंसा, यौन शोषण और आतंकवाद से जुड़े कंटेंट जैसी safety समस्याओं को नज़रअंदाज़ करते हुए यूज़र एंगेजमेंट की दौड़ में लगी थीं
    • Meta के एक engineer ने कहा कि उसे management की ओर से महिला-विरोधी सामग्री, साज़िशी सिद्धांत जैसे ‘borderline content’ को अधिक दिखाने के निर्देश मिले
    • TikTok के एक कर्मचारी ने BBC को ऐसे मामले दिखाए जिनमें राजनीतिज्ञों से जुड़ी शिकायतों को बच्चों को नुकसान पहुंचाने वाले मामलों से ऊपर रखा गया
  • TikTok के भीतर राजनीतिज्ञों के साथ संबंध बनाए रखना regulation या ban के जोखिम से बचने का कारण बताया गया

Meta की आंतरिक रिसर्च और Reels की समस्या

  • Meta के researcher Matt Motyl ने कहा कि Reels लॉन्च (2020) के समय safety guardrails पर्याप्त नहीं थे
    • आंतरिक रिसर्च के अनुसार Reels comments में Instagram के main feed की तुलना में bullying, hate speech और violence को बढ़ावा देने वाली टिप्पणियों की दर क्रमशः 75%, 19% और 7% अधिक थी
  • कंपनी ने Reels की growth पर 700 कर्मचारियों को लगाया, जबकि child protection और election integrity टीमों की hiring requests ठुकरा दी गईं
  • आंतरिक दस्तावेज़ों में कहा गया कि algorithm यूज़र कल्याण से ऊपर revenue maximization को प्राथमिकता देता है
    • इसमें यह अभिव्यक्ति भी शामिल थी कि “Facebook यूज़र्स को ‘fast food’ की तरह consume करा सकता है, लेकिन इसे लंबे समय तक टिकाए रखना मुश्किल है”

TikTok की internal safety team की गवाही

  • BBC ने 2025 में कई महीनों तक TikTok trust and safety team के कर्मचारी ‘Nick’ से संपर्क बनाए रखा
    • उसने कहा कि AI की शुरुआत और workforce cuts के कारण हानिकारक कंटेंट से निपटने की क्षमता कमजोर हुई
    • उसने गवाही दी कि आतंकवाद, यौन हिंसा, abuse और human trafficking से जुड़ी सामग्री में बढ़ोतरी देखी गई
  • आंतरिक dashboard में राजनीतिज्ञों का मज़ाक उड़ाने वाली पोस्ट को किशोर यौन ब्लैकमेल के पीड़ित मामलों से पहले review किए जाने का उदाहरण दिखाया गया
    • इराक की 16 वर्षीय पीड़िता के मामले जैसे उदाहरणों में urgency कम वर्गीकृत होने की बात भी पुष्टि हुई
  • Nick ने कहा, “कंपनी बच्चों की सुरक्षा से ज्यादा राजनीतिक संबंधों को महत्व देती है,” और माता-पिता को ‘TikTok delete कर दें’ की सलाह दी
  • TikTok ने जवाब दिया कि “राजनीतिक कंटेंट को child safety से ऊपर प्राथमिकता नहीं दी जाती,” और इन दावों को तोड़-मरोड़ कर पेश किया गया बताया
    • कंपनी ने कहा कि किशोर अकाउंट्स पर 50 से अधिक default safety settings लागू होती हैं

algorithm प्रतिस्पर्धा और Meta की प्रतिक्रिया

  • 2020 में COVID-19 के दौरान TikTok की तेज़ growth का जवाब देने के लिए Meta ने Reels को जल्दी में लॉन्च किया
    • Motyl ने कहा, “यूज़र protection से ज्यादा speed को प्राथमिकता दी गई”
    • Reels टीम safety features जोड़ने से हिचक रही थी क्योंकि हानिकारक कंटेंट ज्यादा एंगेजमेंट पैदा करता है
  • Brandon Silverman (Crowdtangle founder) ने गवाही दी कि उस समय Mark Zuckerberg प्रतिस्पर्धा को लेकर बेहद संवेदनशील थे
    • Reels विस्तार में 700 लोग लगाए गए, जबकि safety teams को staffing हासिल करने में कठिनाई हुई
  • Meta के पूर्व engineer ‘Tim’ ने कहा कि TikTok से प्रतिस्पर्धा के कारण ‘borderline content’ पर सीमाएं ढीली कर दी गईं
    • उसने कहा, “शेयर प्राइस में गिरावट और revenue pressure के बीच short-term revenue हासिल करने के लिए इन measures को ढीला करने का फैसला लिया गया”

algorithm कैसे काम करता है और उसका सामाजिक प्रभाव

  • आंतरिक दस्तावेज़ों में स्पष्ट रूप से कहा गया कि गुस्सा और नैतिक उत्तेजना पैदा करने वाला कंटेंट उच्च एंगेजमेंट लाता है, और algorithm इसे पसंद करता है
    • इसकी संरचना यह है कि “यूज़र जितना ज्यादा गुस्सा महसूस करता है, उतना ज्यादा कंटेंट consume करता है”
  • UK के police counter-terrorism experts ने हाल में यहूदी-विरोधी, नस्लवादी और अतिदक्षिणपंथी हिंसक पोस्ट के ‘सामान्यीकरण’ का रुझान देखने की बात कही
  • एक किशोर यूज़र ने गवाही दी कि 14 साल की उम्र से algorithm ने उसे ‘radicalize’ किया, जिससे उसके भीतर गुस्सा और नफ़रत और मजबूत हुई

कंपनियों का आधिकारिक रुख

  • Meta: “यह दावा तथ्यात्मक नहीं है कि हम आर्थिक लाभ के लिए हानिकारक कंटेंट को amplify करते हैं”
    • कंपनी ने ज़ोर देकर कहा कि उसने पिछले 10 वर्षों में safety और security पर बड़े पैमाने पर निवेश किया है और teen protection features पेश किए हैं
  • TikTok: कंपनी ने कहा कि “ये दावे गढ़े गए हैं,” और वह हानिकारक कंटेंट की exposure रोकने के लिए तकनीक में निवेश जारी रखे हुए है
    • उसने यह भी जोड़ा कि “हम लाखों लोगों को नई रुचियां खोजने और communities बनाने में मदद करते हैं”

1 टिप्पणियां

 
GN⁺ 2026-03-19
Hacker News की राय
  • पिछले 5 सालों में यह समस्या मानो पहले से ही सामान्य समझ का हिस्सा बन गई है
    लेकिन असली सवाल है, “तो फिर हमें क्या करना चाहिए?”
    मैं ऑनलाइन गुस्से में अपना समय बर्बाद न करने की कोशिश करता हूँ, लेकिन यह एक ऐसा सामाजिक विकार है जो किसी एक व्यक्ति के बस की बात नहीं है

    • मेरा मानना है कि ऐसे व्यवहार को regulation से रोका जाना चाहिए, या फिर इन कंपनियों को पूरी तरह बंद कर देना चाहिए
      अगर Meta या TikTok का समाज पर शुद्ध प्रभाव नकारात्मक है, तो उनके अस्तित्व का कोई प्राकृतिक अधिकार नहीं है
    • online advertising पर tax लगना चाहिए और सख्त regulation होना चाहिए
      समस्या की जड़ यह है कि ‘engagement बढ़ाना’ बहुत ज़्यादा पैसा कमाता है। जब तक यह आर्थिक प्रोत्साहन खत्म नहीं होगा, समस्या भी खत्म नहीं होगी
    • मेरा Instagram feed आजकल लगभग पूरी तरह राजनीतिज्ञों के वीडियो, राष्ट्रपति से जुड़े विवाद, और भड़काऊ content से भरा रहता है
      NPR ही सुनने की तुलना में मुझे लगता है कि इससे ज़्यादा जानकारी मिलती है, लेकिन मैं तैयार किया गया content (editing, music, commentary वगैरह) से बचता हूँ
      मैं सिर्फ उन भावनात्मक प्रतिक्रियाओं को स्वीकार करना चाहता हूँ जो वास्तव में हुई घटनाओं या किसी के बयान से आती हैं
      ‘समाचार के रूप में content’ में वास्तविकता होनी चाहिए
    • “दवा का असर कम कर दो” जैसी approach इसका जवाब नहीं है। ban भी नहीं
      अगर देखें कि Gen Z शराब कम क्यों पीती है बनिस्बत millennials के, तो शायद उसी में कोई हल मिल सकता है
    • शायद हम कुछ भी नहीं करेंगे और बस शिकायत करते रहेंगे
  • मेरे हिसाब से “हानिकारक content” का मतलब आखिरकार वही होता है जो सरकार या कोई खास देश नापसंद करता है
    अंत में यह censorship की एक और माँग जैसा ही लगता है

    • BBC की internal research के अनुसार Reels comments में harassment और hate speech दूसरी जगहों की तुलना में कहीं ज़्यादा थे
      अगर कोई समूह इस तरह की हिंसा का विरोध करता है, तो क्या वह उल्टा अच्छी बात नहीं है?
    • मेरे TikTok feed में कभी-कभी यहूदियों के खिलाफ सीधी हिंसा के लिए उकसावा भी आता है
      report करने पर भी बस “कोई नियम उल्लंघन नहीं” जैसा जवाब मिलता है
  • यह बहुत हताशाजनक है कि ये platforms अब भी इसी तरह चल रहे हैं
    सामाजिक नुकसान के बारे में 10 साल से भी ज़्यादा समय से पता होने के बावजूद कुछ नहीं हुआ
    Facebook और TikTok असल में digital drugs हैं। और इन्हें ऐसे लोगों ने design किया है जिनमें सामाजिक सहानुभूति की कमी है

  • यह नतीजा हैरान करने वाला नहीं है। शायद ज़्यादातर लोगों के लिए भी नहीं
    फिर bhi सबूत का साफ़ तौर पर सामने आना अच्छी बात है

  • क्या यह घटना टाली ही नहीं जा सकती?
    क्योंकि इससे clicks, views, और user engagement बनता है, अगर एक platform ऐसा करेगा तो बाकी भी पीछे-पीछे आएँगे

    • अब users को खुद अपना feed manage करना होगा। यह उम्मीद नहीं की जा सकती कि platform उनकी ओर से इसे साफ़-सुथरा रखेगा
    • engagement rate, market share के बराबर नहीं होता
      उदाहरण के लिए, अगर McDonald’s का कोई कर्मचारी ग्राहकों का अपमान करे, तो ‘engagement’ बढ़ सकता है लेकिन market share घटेगा
  • उनका ऐसा करना स्वाभाविक था
    जब तक यह क़ानूनी है और मुनाफ़ा देता है, वे ऐसा करते रहेंगे

  • यह कम-से-कम 2012 से दोहराई जा रही कहानी है
    Max Fisher की किताब The Chaos Machine में यह अच्छी तरह दर्ज है
    Facebook और YouTube दोनों आलोचना होने पर कहते हैं कि “कार्रवाई की गई है”, लेकिन असल में यह बचना, टालना, छोटा करके दिखाना, और इनकार करना ही होता है

  • मुझे जानना है कि क्या कोई ऐसी संस्था है जो हानिकारक algorithms की निगरानी करती हो और मुकदमे भी चलाती हो
    Reset.tech इस क्षेत्र में अच्छा काम कर रहा है, लेकिन मैं यह भी जानना चाहता हूँ कि और कौन हैं, और उन्हें फंड कौन करता है

  • अगर वे 20 billion dollar कमाते हैं और जुर्माना 200 million dollar है, तो वे users की mental health की बिल्कुल परवाह नहीं करेंगे

  • जब तक आम लोग सनसनीखेज content पर प्रतिक्रिया देते रहेंगे, platforms के पास उसका इस्तेमाल न करने की कोई वजह नहीं है
    ज़्यादातर posts आखिरकार सिर्फ clickbait ही होती हैं