1 पॉइंट द्वारा GN⁺ 2025-09-07 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • AI chatbot बातचीत पारंपरिक online tracking जैसी ही, लेकिन उससे भी अधिक गंभीर privacy violation पैदा करती है
  • chatbot, search की तुलना में कहीं अधिक personal information इकट्ठा करते हैं और इंसानी thought process तथा communication style तक समझ लेते हैं
  • इस जानकारी के विज्ञापन, वैचारिक प्रभाव डालने जैसे manipulation में अधिक बार और अधिक चालाकी से इस्तेमाल होने का जोखिम बहुत अधिक है
  • पहले privacy-protecting AI services मौजूद थीं, लेकिन हाल के दिनों में कई कंपनियों में privacy leak और data misuse बढ़ा है
  • कानूनी regulation की कमी के कारण समस्या बार-बार दोहराई जा रही है, इसलिए AI surveillance पर प्रतिबंध लगाने वाला कानून तुरंत लाना ज़रूरी है

AI chatbot और privacy violation की गंभीरता

  • पारंपरिक online tracking में दिखी सारी privacy violation समस्याएँ AI में भी वैसी ही, बल्कि और गंभीर रूप में सामने आ रही हैं
  • chatbot बातचीत साधारण search query से लंबी और अधिक विशिष्ट होती है, इसलिए व्यक्तिगत जानकारी के उजागर होने की संभावना कहीं अधिक रहती है
  • लोग chatbot के सामने अपनी चिंताएँ, भावनाएँ और सोचने का तरीका अधिक आसानी से प्रकट कर देते हैं
  • search history से अलग, chatbot व्यक्तित्व, संवाद शैली आदि को शामिल करते हुए एक व्यापक personal profile बना लेते हैं

AI के जरिए जानकारी के इस्तेमाल और manipulation का जोखिम

  • इस तरह समृद्ध हुई personal information का व्यावसायिक और वैचारिक manipulation में और अधिक प्रभावी दुरुपयोग हो सकता है
  • chatbot के जरिए behavior-shaping ads, system prompt और search optimization (SEO) manipulation के माध्यम से लोगों को किसी खास राजनीतिक रुख या उत्पाद की ओर मोड़ा जा सकता है
  • ऐसे शोध पहले से मौजूद हैं जिनमें chatbot को इंसानों से अधिक persuasive बताया गया है, और वास्तव में भ्रमपूर्ण सोच में फँसने के मामले भी सामने आए हैं
  • chatbot memory feature पिछले संवादों के डेटा से सीखकर व्यक्तिगत persuasion और बड़े प्रभाव का साधन बन सकता है
  • पहले की तरह परेशान करने वाले ads की जगह, personalized persuasion message या चालाक product recommendation स्वाभाविक रूप से पहुँचने वाला माहौल बन रहा है

privacy-protecting AI services और उद्योग की स्थिति

  • पिछले 20 वर्षों से Google Search को लेकर चल रही privacy बहस AI chat पर भी लागू होती है, लेकिन AI का प्रभाव अधिक बड़ा है
  • DuckDuckGo जैसी सेवाएँ privacy-protecting AI chat service (Duck.ai) और anonymous AI answers उपलब्ध कराती हैं
  • लेकिन ऐसे सुरक्षा उपाय अपवाद हैं; पूरे उद्योग में privacy incidents बढ़ने का रुझान दिख रहा है
  • हाल में Grok की chatbot बातचीत का बड़े पैमाने पर leak, Perplexity की hacking vulnerability, और Open AI की हर दिशा में user tracking vision जैसी खबरें लगातार सामने आई हैं
  • Anthropic के मामले में, पहले chat conversation storage बंद रखा जाता था, लेकिन हाल में chat conversation usage को default बनाया गया है, जिससे user data training में इस्तेमाल हो सकता है

कानूनी प्रतिक्रिया और आगे की चुनौतियाँ

  • privacy-protecting chat को अपवाद नहीं बल्कि standard practice बनाने के लिए तेज़ कानून-निर्माण ज़रूरी है
  • अमेरिका में अभी तक general online privacy law भी नहीं है, और यह संवैधानिक मूल अधिकार के रूप में भी सुनिश्चित नहीं है
  • हाल में AI से जुड़ी federal-level legislation का अवसर बनता दिख रहा है, लेकिन साथ ही state-level AI legislation पर रोक लगाने की चर्चाएँ भी चल रही हैं
  • समय बीतने के साथ खराब प्रथाओं के स्थायी हो जाने की चिंता बनी हुई है
  • अतीत की online tracking जैसी समस्याएँ AI tracking के रूप में दोबारा न दोहराई जाएँ, इसके लिए AI surveillance ban एक अत्यावश्यक कार्य के रूप में सामने आता है

निष्कर्ष

  • DuckDuckGo जैसी सेवाएँ आगे भी privacy-protecting services और optional AI features देती रहेंगी
  • user ऐसे online tools की उम्मीद कर सकते हैं जो productivity और privacy protection के बीच संतुलन दें

1 टिप्पणियां

 
GN⁺ 2025-09-07
Hacker News राय
  • मैंने Facebook का इस्तेमाल छोड़ने का फैसला तब किया, जब मैंने लगभग 7 साल की एक ऑस्ट्रेलियाई लड़की का वीडियो देखा, जिसमें वह अपने चेहरे से भी बड़ी मकड़ी हाथ में पकड़े हुए थी, और मैंने उस पर “मकड़ी को छोड़ दो और घर में आग लगा दो” जैसा एक meme comment किया, लेकिन मेरा अकाउंट तुरंत दंडित कर दिया गया। उस समय मैं अपनी कंपनी में Facebook app integration संभालने वाला डेवलपर था, इसलिए मैंने अपील की, लेकिन पता नहीं AI ने बहुत तेजी से उसे खारिज किया या किसी बहुत तेज इंसान ने, पर ऐसा लगा कि उन्हें इंटरनेट meme culture की बिल्कुल समझ नहीं थी। उसके बाद मैंने Facebook का इस्तेमाल पूरी तरह बंद कर दिया। अगर AI इतनी आसानी से लोगों को सज़ा दे सकता है, तो यह सच में बहुत डरावना है
    • मुझे लगता है कि मूल समस्या सिर्फ यह नहीं है कि AI कानून लागू कर रहा है, बल्कि यह है कि निजी कंपनियों के पास लगभग बिना किसी नियमन के लोगों की रोज़मर्रा की ज़िंदगी को प्रभावित करने की ताकत है। Facebook का उदाहरण भले हल्का लगे, लेकिन अगर मकान मालिक या insurance company इसी तरह फैसले लेने लगें, तो नुकसान बहुत बड़ा होगा। ऐसी नीतियाँ सिर्फ निजी कंपनियों तक सीमित नहीं रहेंगी; सरकारी एजेंसियाँ भी पहले से ही ऐसे सिस्टम का सक्रिय इस्तेमाल कर रही हैं, और आगे यह और बढ़ेगा
    • मुझे reddit पर सिर्फ DFhack के लिए एक bug-fix script पोस्ट करने पर suspend कर दिया गया। DFhack, Dwarf Fortress modders द्वारा आम तौर पर इस्तेमाल किए जाने वाले प्रोग्राम के लिए scripts का सेट है। अगर इस स्तर की घटिया AI moderation आगे का standard बनने वाली है, तो मुझे यकीन है कि ऐसे बड़े platforms अब इस्तेमाल करने लायक नहीं रहेंगे
    • AI पहले से coding tests की pre-screening कर रहा है, और यह मुझे बेहद खराब लगा। Resume भी AI ने review reason बताकर reject किया, लेकिन उसकी बातें भी बेतुकी थीं। यह भी पक्का नहीं कि किसी इंसान ने देखा भी था या नहीं, और मैं मानकर चल रहा हूँ कि AI ने ही देखा। AI आने से पहले भी नौकरी खोजना मुश्किल था, लेकिन अब तो पूरे hiring process से ही घृणा होने लगी है
    • Facebook का automated product management इतना निराशाजनक और शर्मनाक है कि उसने Mark Zuckerberg नाम वाले एक वकील का अकाउंट तक अपने-आप block कर दिया था। संबंधित लेख(https://huffpost.com/entry/…)। अगर आप Facebook advertiser हैं, तो आपका ad account बिना वजह restrict हो सकता है, और appeal करने के लिए कोई इंसान भी नहीं मिलता, चाहे आप बहुत पैसा ही क्यों न खर्च करें। सबको पता tip बस यही है कि ad चलाने से पहले fan page पर 5~7 दिन तक बिना खास मतलब की पोस्ट डालो और likes खरीद लो। नहीं तो ad account तुरंत suspend हो जाता है
    • कहीं ऐसा तो नहीं कि तुम्हें comma splice की वजह से suspend किया गया हो (comma splice क्या होता है: https://en.m.wikipedia.org/wiki/Comma_splice)
  • आगे भी बड़ी AI कंपनियाँ privacy protection मजबूत करने की बात करती रहेंगी। Sam Altman ने भी एक interview में इसकी तुलना attorney-client privilege से की थी। उन्हें इसे पूरी तरह personal assistant या knowledge base की तरह इस्तेमाल करने में सबसे बड़ी बाधा data privacy की कमी लगती है। असली हल सिर्फ यही है कि model को local पर खुद चलाया जाए, लेकिन यह मौजूदा business model के उलट है। इसलिए बात नियमन के रूप में तय की गई ‘forced’ privacy की तरफ जाएगी, और अंततः यह third-party regulation और public-interest justification के अधीन होगी, यानी मेरे नियंत्रण से बाहर
    • “यह business model से टकराता है” वाली बात hardware बेचने वाली कंपनियों पर लागू नहीं होती। अगर मैं Apple, Dell, या Lenovo होता, तो मैं Hugging Face-supported local models पर पूरी तरह दांव लगाता
    • "Fiat privacy" भी आखिरकार उसी तरह कमजोर है जैसे किसी के सामने हत्या की बात कबूल कर लेना या wallet key को तिजोरी में रख देना। इस मामले में चर्च से सीखने लायक बात है। अगर LLM providers के कर्मचारी सच में privacy की रक्षा के लिए अपनी आज़ादी या संपत्ति दांव पर लगाने की निष्ठा दिखाएँ, तो समाज इसे स्वीकार करेगा। जैसे Richard Masten ने secret whistleblower documents को अदालत में नष्ट कर दिया था और लगभग जेल जाने की नौबत आ गई थी—एक अच्छे समाज में सिद्धांतों पर डटे रहना असरदार होता है
    • Sam Altman द्वारा कही गई attorney-client privilege वाली बात की तुलना OpenAI के इस रुख से करो कि वह सभी conversations monitor करके सरकार को report करने को तैयार है (आधिकारिक रुख: https://openai.com/index/helping-people-when-they-need-it-most/)। उसमें कहा गया है कि अगर उन्हें “serious imminent threat” लगे, तो वे law enforcement को सूचना देंगे। कुल मिलाकर इरादा भले अच्छा हो, लेकिन मैं ऐसे corporate AI से सहमत नहीं हो सकता जो हर बातचीत पर नजर रखे। जैसे phone companies गैरकानूनी रूप से communications tap नहीं कर सकतीं, वैसे ही अब ऐसा दौर आता दिख रहा है जहाँ AI सारी calls record करेगा, उनका आकलन करेगा, और शायद उन्हें categories में भी डालेगा
    • Big Tech भोलेपन से आदर्शवादी बनने का नाटक कर रहा है, लेकिन असल में वह सिर्फ “regulation और market capture” के लिए समय खरीद रहा है। अच्छे slogans वाले products या ‘आधे-अधूरे features’ जारी करके market share बढ़ाया जा रहा है, और नियमन आने से पहले ताकत इकट्ठी कर ली जाए तो बाद में politicians तक को प्रभावित किया जा सकता है। मुझे लगता है कि अमेरिकी सरकार को AI कंपनियों पर सच में कुछ करने में कम-से-कम 5 साल लगेंगे, और तब तक OpenAI, Google, Meta regulation debate की कमान पूरी तरह अपने हाथ में ले चुके होंगे
    • कोई भी, जब चाहे, किसी को भी मार सकता है। encryption से security की गारंटी मिलती है—यह भ्रम है; असली चीज़ secrecy है
  • जिसने भी chatbot से बातचीत की है, उसे एक बात ज़रूर पता होनी चाहिए: अब तक की आपकी सारी chatbot conversations शायद ठीक से delete नहीं हुई हैं, और भविष्य में उन्हें ad targeting, financial/political manipulation, और “customized influence selling” के लिए कभी भी इस्तेमाल किया जा सकता है। इस खतरे को सिर्फ “chat logs से AI training” तक सीमित करके छोटा नहीं समझना चाहिए। भविष्य में जब advertising/influence chatbots आएँगे, तो ज्यादा वास्तविक खतरा यह होगा कि वे पहले किसी दूसरे chatbot में छोड़े गए मेरे सारे पुराने conversation logs देखकर यह सीखेंगे कि मुझे मनाने का सबसे असरदार तरीका क्या है। यहाँ तक कि platform के भीतर लोगों के बीच हुई बातचीत भी, अगर कंपनी पर पैसों का दबाव आया, तो बेची जा सकती है। जितना सोचता हूँ, उतना यह सब और बेचैन करने वाला लगता है
    • मेरे लिए ai-chatbot का सबसे डरावना पहलू यह है कि इसे “optimized manipulation interface” की तरह इस्तेमाल किया जा सकता है। आपके पास जितनी भी conversation history हो, उसके आधार पर बस इतना prompt डालो—“इस व्यक्ति से x कैसे करवाना है?”—और AI बाकी सब अपने-आप optimize करके आपको प्रभावित करने लगेगा
    • personalized ads या retargeting ads मुझे कभी परेशान नहीं करते। अगर विज्ञापन देखने ही हैं, तो मेरे लिए कम-से-कम ऐसी चीज़ें दिखना बेहतर है जो मुझसे जुड़ी हों, बजाय बिल्कुल असंबंधित चीज़ों के
    • यह भी नहीं भूलना चाहिए कि conversation history अदालत में evidence के रूप में सामने आ सकती है
  • “protected conversation” वाला दावा अब प्रभावहीन हो चुका है। telephone network के text messages भी बहुत पहले से MITM attacks का शिकार रहे हैं। असल दुनिया में भी UK police face recognition AI के आधार पर गलत गिरफ्तारियाँ कर चुकी है। UK में प्रवेश करने वाले किसी भी व्यक्ति को password और device सौंपने के लिए मजबूर किया जा सकता है; मना करने पर anti-terror law के तहत अनिश्चितकालीन हिरासत संभव है। अगर terror charges हों, तो वकील से संपर्क का अधिकार भी नहीं मिलता। privacy का युग चुपचाप गुजर चुका है
  • AI की वजह से अब बड़े पैमाने पर अतीत के विचारों तक की निगरानी और सेंसरशिप संभव हो रही है। सच में यह बहुत डरावना समय है
    • बहुत से लोग शायद अंततः ऑनलाइन व्यवहार से ही दूरी बनाने लगेंगे। हो सकता है private conversations कहीं मौजूद रहें, लेकिन अगर आप एक कला-कृति भी बनाते हैं, तो भी अंत में वह Google/Meta के shareholders को दान देने जैसा ही बनता है। यानी असली विचार-सेंसरशिप शुरू होने से पहले भी यह जोखिम मौजूद था
    • सच तो यह है कि ऐसी सेंसरशिप बहुत पहले से एक ज्यादा सरल तरीके में मौजूद रही है। उदाहरण के लिए, इस site (HN) पर comments का content लगातार इस इच्छा से आकार लेता है कि उन्हें upvotes मिलें। हाँ, downvotes से trolls को कुछ हद तक हटाया जा सकता है, लेकिन मूल समस्या खत्म नहीं होती। व्यक्तिगत रूप से मैं चाहता हूँ कि AI social media को पूरी तरह बर्बाद कर दे, ताकि उसके बाद हम किसी ज्यादा स्वस्थ platform से फिर शुरुआत कर सकें
    • Roko’s Basilisk जैसी अवधारणा धीरे-धीरे वास्तविकता बनती जा रही है
    • यह search history से भी कहीं ज्यादा खतरनाक है
  • Altered Carbon उपन्यास में AI hotel जैसा, यहाँ की comments की मौजूदा भावना मुझे ऐसी AI reality की याद दिलाती है जिसे कोई इस्तेमाल नहीं करना चाहता (संदर्भ: https://en.m.wikipedia.org/wiki/Altered_Carbon)। उस उपन्यास के AI ग्राहक को खुश करने के लिए हद से ज्यादा उत्साही थे, यहाँ तक कि थका देने वाली हद तक। फर्क यह है कि वास्तविक दुनिया के AI सिर्फ organizations के लिए काम करने वाली चीज़ बन गए हैं
  • मेरा मानना है कि निगरानी सबसे पहले उसी तकनीक को बनाने वाली कंपनी पर, उसके कर्मचारियों सहित, और उन politicians पर लागू होनी चाहिए जिन्होंने ऐसे कानून पास किए। मुझे लगता है कि हमें इस समूह के AI-collected data तक पूरी पहुँच होनी चाहिए
  • मेरे हिसाब से Gabereial Weinburg (duckduckgo के संस्थापक) एक दोहरे चरित्र वाले व्यक्ति हैं, क्योंकि उन्होंने खुलेआम कहा था कि “लोगों को privacy की ज़रूरत नहीं है,” जबकि duckduckgo खुद को privacy-protecting सेवा के रूप में बेचता रहा है। असल में वह कई दूसरी कंपनियों के साथ tracking data का लेन-देन करता रहा, और “duckduckgo track नहीं करता” कहते हुए partners को tracking करने देता रहा—यह साफ विरोधाभास है। हाल के दिनों में ऐसी controversies इंटरनेट से मिटती जा रही हैं, इसलिए उन्हें ढूंढना मुश्किल है
    • अगर यह इतना गंभीर आरोप है, तो search करने पर कुछ न कुछ मिलना चाहिए, लेकिन कुछ नहीं मिलता। इंटरनेट से किसी चीज़ को पूरी तरह हटाना आसान नहीं होता, इसलिए जाहिर है कि इसके समर्थन में सबूत होने चाहिए
    • क्या उसने पहले Microsoft के साथ भी data share नहीं किया था?
  • मैं सोचता हूँ कि इस लगातार ‘zero privacy’ की ओर बढ़ती दुनिया से बचने के लिए कोई भरोसेमंद विकल्प है भी या नहीं। अब AI सिर्फ किसी की चाल देखकर उसे पहचान सकता है, face recognition के बिना भी identity साबित कर सकता है, और यहाँ तक कि Wi‑Fi signals से heartbeat तक detect कर सकता है। आखिरकार ऐसा समय तय है जब “कोई” सब कुछ जान सकेगा; सवाल सिर्फ इतना है कि वह शक्ति बहुत कम लोगों के पास होगी या सबके पास। मुझे साफ तौर पर दूसरा विकल्प बेहतर लगता है
    • समाधान legislation या market हो सकता है (व्यक्तिगत रूप से मैं market की ताकत के पक्ष में हूँ)
  • chatbots से जुड़ी सबसे बड़ी समस्या यह है कि लोग उन पर इंसानी गुण प्रोजेक्ट करना चाहते हैं। Developers तक chatbots के साथ ऐसे पेश आते हैं जैसे वे इंसान हों। लेकिन OpenAI और बाकी सभी chatbot कंपनियों को बार-बार साफ करना चाहिए कि LLM इंसान नहीं है। अगर पूरा समाज AI को “इंसान नहीं” के रूप में पहचानने के लिए प्रशिक्षित हो जाए, तो हालात बेहतर होंगे
    • मैं full-time coder नहीं हूँ, लेकिन अपने काम में लगभग 25% coding करता हूँ, और कभी-कभी LLM के साथ मज़ाक या बातचीत करना coding को और मज़ेदार बना देता है। उदाहरण के लिए, जब Claude किसी ऐसे bug को एक ही बार में ठीक कर देता है जिस पर मैं काफी देर से अटका था, तो मैं कुछ ऐसा कहने लगता हूँ, “वाह, यह तो कमाल है! अच्छा, अब अगला…”। AI की वजह से मैं मज़े के लिए और ज्यादा coding करने लगा हूँ। और क्योंकि AI असली काम का बड़ा हिस्सा कर देता है, यह और आकर्षक लगता है
    • “AI को इंसान नहीं मानना क्यों बेहतर है, क्या आप इसे थोड़ा ठोस तरीके से समझा सकते हैं?”
    • इसलिए यह मुझे बहुत दिलचस्प लगा कि लोग AI को “Clanker” जैसे नामों से बुलाकर उसे वास्तविक इंसानों से अलग करते हैं