1 पॉइंट द्वारा GN⁺ 2025-08-30 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • अगर आप Anthropic के Claude service का उपयोग करते हैं, तो आगे से आपका डेटा AI training में इस्तेमाल किया जाएगा
  • उपयोगकर्ता का input data भविष्य में AI system को बेहतर बनाने के लिए model training में इस्तेमाल किया जाएगा
  • पुराने डेटा को इसमें शामिल नहीं किया जाएगा; केवल आगे से डाला जाने वाला नया डेटा ही लागू होगा
  • delete किया गया या private रखा गया डेटा training में इस्तेमाल नहीं होगा
  • उपयोगकर्ता settings के जरिए training opt-out option चुन सकते हैं

Claude की data collection और AI training policy में बदलाव

  • Anthropic द्वारा संचालित Claude account के उपयोगकर्ताओं को अब यह समझना होगा कि वे service में जो सारा डेटा input करते हैं, उसका उपयोग AI training के लिए किया जाएगा
  • यह policy आगे से डाले गए नए डेटा पर लागू होगी, और पहले दिया गया डेटा इसमें शामिल नहीं होगा
  • उपयोगकर्ता द्वारा delete किया गया डेटा और private mark किया गया डेटा अलग प्रक्रिया के कारण AI training dataset में शामिल नहीं किया जाएगा
  • Anthropic ने service notice के जरिए बताया है कि यदि उपयोगकर्ता चाहें, तो वे settings menu (opt-out) के माध्यम से अपने डेटा के training उपयोग को अस्वीकार कर सकते हैं
  • AI service के विकास और उपयोगकर्ता डेटा सुरक्षा के बीच संतुलित policy लागू की जा रही है

1 टिप्पणियां

 
GN⁺ 2025-08-30
Hacker News राय
  • सच कहूँ तो, ये कंपनियाँ पहले ही टेराबाइट-स्तर का डेटा चुरा चुकी हैं और datasets भी सार्वजनिक नहीं करतीं, इसलिए मैं मानकर चलता हूँ कि मैं सेवा में जो भी डालूँ, वे उसे ज़रूर इकट्ठा करके training में इस्तेमाल करेंगी
    • क्या इंटरनेट पर खुलकर डाली गई चीज़ों को पढ़ना अब चोरी हो गया है? मुझे लगता है कि यह property rights की बहुत ही कठोर व्याख्या है
    • इतना बुरा मान लेने की ज़रूरत नहीं है, यह नहीं मानना चाहिए कि हर कोई बुरी नीयत से काम करेगा, और इस तरह की सोच का सामान्य हो जाना भी ठीक नहीं है
    • मुझे लगता है कि ऊपर वाली राय सबसे तर्कसंगत व्याख्या है
  • मैं तो पहले से यही मानकर चल रहा था कि सारा डेटा पहले ही AI training में इस्तेमाल हो रहा है, सोच रहा हूँ क्या सिर्फ़ मैं ही ऐसा था
    • 2025 में computer science की सबसे कठिन समस्या शायद लोगों को यह यक़ीन दिलाना होगी कि 'हम आपकी सारी personal information को AI में train नहीं कर रहे हैं', सच कहूँ तो Anthropic ने भी शायद यह सोचा होगा कि लोग वैसे भी यह नहीं मानते कि उनका डेटा इस्तेमाल नहीं हो रहा, तो चलो इस्तेमाल ही कर लेते हैं; उल्टा अगर लोगों को अपने हाथ में control वाला विकल्प दिया जाए तो भरोसा और बढ़ सकता है
    • मैं इस मानसिकता को ठीक से समझ नहीं पाता, हर चीज़ को default से मानकर क्यों चला जाए समझ नहीं आता, Claude पहली बार इस्तेमाल करते समय कुछ मिनट लगाकर privacy settings देखी जा सकती थीं, मैं तो हर नई service इस्तेमाल करते समय हमेशा देखता हूँ; अगर व्यंग्य में यह तय कर लिया जाए कि सब कुछ share हो ही रहा है, तो फिर कोई कुछ जाँचता ही नहीं; Settings -> Privacy मेनू में जाते ही दिख जाता है
    • यह वैसा ही है जैसी उन लोगों की भोलेपन भरी धारणा कि Google/META/Apple/Microsoft के servers से document delete करने पर वह सचमुच गायब हो जाता है; Google के पास पिछले 20 सालों में index की गई लगभग हर चीज़ की backup copies शायद अब भी होंगी, यह तो Internet Archive को भी ईर्ष्या दिला दे
    • मैं तो मानता था कि free accounts का डेटा वैसे भी AI training में जाता है, और जिसे मैं रखना नहीं चाहता उसे service से delete कर देना काफ़ी है; लेकिन paid accounts को भी शामिल करना और डेटा को 5 साल तक रखना समझ से बाहर है
    • बेशक अब भी कुछ लोग होंगे जो समाज के बुनियादी वादों पर भरोसा करते हैं, लेकिन जब आप देखते हैं कि असुविधाजनक होने पर उन वादों को बार-बार मोड़ दिया जाता है या नज़रअंदाज़ किया जाता है, तो निंदक नज़रिया आम हो जाए तो हैरानी नहीं होती; समस्या यह है कि इसका असली विकल्पों पर क्या असर पड़ता है; अंत में जो पहले खुला था वह धीरे-धीरे निजी होता जाता है; इसलिए मैं local versions खुद चलाने और ऐसी चीज़ें बनाने की कोशिश कर रहा हूँ जिन पर मेरा ज़्यादा control हो
  • आगे चलकर शायद आखिरकार यह सामने आए कि opt-out किसने किया था इससे फ़र्क़ नहीं पड़ा और सबके डेटा पर training हुई, मैं Claude इस्तेमाल करते रहना चाहता हूँ, लेकिन यह नहीं चाहता कि मेरे बनाए हुए सारे solutions सार्वजनिक ज्ञान की तरह फैल जाएँ
    • क्या पहले कभी किसी company ने opt-out request को नज़रअंदाज़ किया है, ऐसा सवाल है; लगता है जैसे कुछ बात मन में अटकी हुई है
    • मुझे company/AI का मेरे inputs से थोड़ा बेहतर होना बुरा नहीं लगता, बस यह मेरे नाम या जानकारी से सीधे जुड़ा न हो; अगर Chatham House Rule लागू हो सके तो अच्छा होगा (Chatham House Rule: बातचीत की सामग्री साझा की जा सकती है, लेकिन बोलने वाले की पहचान गुमनाम रहती है)
    • मैं जानना चाहता हूँ कि आप अपनी insights साझा क्यों नहीं करना चाहते, मुझे लगता है कि सीधे साझा करना AI training के ज़रिए डेटा के बहने से बेहतर है, लेकिन आपकी बात कुछ ज़्यादा मज़बूत लगी
  • लगता है कि आख़िरकार training data की कमी पड़ गई है, सोचता हूँ कि वे डेटा पर कितना निर्भर कर सकते हैं और किस तरह का 'knowledge' उससे निकाल सकते हैं; मैं लगभग कोई feedback नहीं देता और ज़्यादातर बार (6 में से 5 बार) ग़लत results मिलते हैं, फिर भी समझ नहीं आता कि वे कैसे तय करेंगे कि ये results मूल्यवान हैं या नहीं
    • Google की तरह वे यह तरीका अपना सकते हैं कि user ने किसी खास link पर click किया और फिर आगे search नहीं किया, तो result मददगार था; मेरी चुप्पी को भी मेरी संतुष्टि का एक कमज़ोर signal माना जा सकता है (हालाँकि यह user के usage pattern पर निर्भर करेगा)
    • अंत में training में जो भी इस्तेमाल हो, यह पता नहीं कि उसका वास्तविक मूल्य है भी या नहीं; मुझे ग़लत जवाब मिले और मैं शिकायत भी न करूँ, तो company शायद ज़्यादा परवाह नहीं करेगी
  • यह बात याद आती है कि यह सब AI Safety Index के जारी होने के तुरंत बाद हुआ, उस report में Anthropic की इस बात के लिए तारीफ़ की गई थी कि वह user data को training में इस्तेमाल नहीं करता, इसलिए मैं भी उस पर ज़्यादा भरोसा करके इस्तेमाल करने वाला था
    https://futureoflife.org/ai-safety-index-summer-2025/
  • आधुनिक AI डेटा पर आधारित है, यह विश्वास करना कि हमारी बातचीत training में इस्तेमाल नहीं होगी कुछ वैसा है जैसे किसी बहुत खाने वाले को उसका सबसे पसंदीदा खाना देकर उससे वादा लेना कि वह उसे बिल्कुल नहीं खाएगा; खैर, जब तक बातचीत पूरी तरह बाहर leak न हो, मुझे ठीक लगता है; मैं तो पहले से यही शर्त मानकर इस्तेमाल कर रहा हूँ
    • हमें इस तरह की चीज़ों को सामान्य नहीं बनने देना चाहिए, contractual obligations का पालन कराने और हमारी privacy व human rights की रक्षा के लिए enforcement ज़रूरी है
  • iOS app में login करते ही तुरंत opt-out settings का popup आया, थोड़ा परेशान करने वाला था लेकिन उसे संभालने का तरीका ठीक था
    • मैं चाहता हूँ कि Claude जैसे LLM मेरी बातचीत या feedback से और ज़्यादा smart बने, per-user long-term memory या conversation history का built-in न होना मेरे लिए बहुत निराशाजनक है; मैं 6 महीने से Anthropic से opt-in feature माँग रहा हूँ; बेशक मैं privacy issues समझता हूँ, लेकिन मेरे domain (cognitive research, genetics, neurophilosophy) में Claude को और smart होना चाहिए, और मैं अपनी जानकारी साझा करके सचमुच एक अच्छा thinking partner पाना चाहता हूँ
  • यक़ीन करना मुश्किल है, privacy के लिहाज़ से यह Meta के कुख्यात फ़ैसलों के बराबर का ethical issue है, rollout वाकई बहुत ग़लत था, यह modal (settings guide popup) सीधे मौजूदा chat window में आ गया; मैंने कभी अपने डेटा, ideas, salary या family history के इस्तेमाल की मंज़ूरी नहीं दी, लेकिन डर है कि PR टीम बाद में कहेगी, "आपने तो modal में opt-in किया था, है न?"
    https://imgur.com/afqMi0Z
  • पता नहीं किस तरह का डेटा training में इस्तेमाल किया गया, लेकिन मैंने Claude दूसरी बार cancel कर दिया; web interface के UI bugs, लगातार flicker होना भी परेशान करता है, और हाल में AI के जवाब बहुत ज़्यादा नकारात्मक और घमंडी हो गए हैं; पहले या दूसरे LLMs में ऐसा नहीं था; शायद पहले चापलूसी के आरोप लगने के बाद उसे tune करने की कोशिश की गई और वह उलटी पड़ गई; अब यह मेरे व्यवहार का अनुमान लगाकर technical context से आगे बढ़कर आलोचना करने लगता है; Gemini इस्तेमाल करूँ तो वह हमेशा मान लेता है कि मैं जवाब से नाराज़ हूँ, लेकिन कम से कम बदतमीज़ नहीं होता; इसलिए मैं फिर से chatgpt पर लौट आया हूँ और तुलना करता जा रहा हूँ
    • power users के लिए API की तरह adjustable dials होने चाहिए (चापलूसी/सुरक्षा/child protection mode off वगैरह), microwave की तरह कोई unlock switch भी हो तो अच्छा हो
  • इस पोस्ट जैसी एक और पोस्ट यहाँ है
    • कम से कम इस पोस्ट में Anthropic द्वारा भेजी गई वास्तविक सूचना का मूल पाठ शामिल है, इसलिए इसका मतलब है; Perplexity का दिया हुआ summary गैर-विशेषज्ञों को शायद ज़्यादा आसानी से समझ आए