1 पॉइंट द्वारा GN⁺ 2025-08-30 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • Anthropic ने उपभोक्ताओं के लिए उपयोग की शर्तें और गोपनीयता नीति को अपडेट किया है
  • अब उपयोगकर्ता स्वयं चुन सकेंगे कि वे अपने डेटा को मॉडल सुधार के लिए उपयोग करने की अनुमति देना चाहते हैं या नहीं
  • यह Claude Free, Pro, Max प्लान पर लागू होगा, जबकि मौजूदा वाणिज्यिक सेवाओं और API उपयोगकर्ताओं को इससे बाहर रखा गया है
  • डेटा साझा करने की अनुमति देने पर उपयोगकर्ता मॉडल सुरक्षा को मजबूत करने और भविष्य के मॉडलों की coding जैसी क्षमताओं को बेहतर बनाने में योगदान दे सकते हैं
  • डेटा उपयोग की सहमति, अवधि और अन्य बदलावों को Settings में कभी भी प्रबंधित किया जा सकता है

अपडेट की मुख्य बातें

  • Anthropic ने Claude AI के प्रदर्शन को बेहतर बनाने और उपयोगकर्ता सुरक्षा को मजबूत करने के लिए उपभोक्ता उपयोग की शर्तें और गोपनीयता नीति को अपडेट किया है
  • उपयोगकर्ता यह चुन सकते हैं कि उनका डेटा Claude के मॉडल सुधार और सुरक्षा उपायों को मजबूत करने के लिए दिया जाए या नहीं
  • Settings में डेटा साझा करने की अनुमति को कभी भी बदला जा सकता है

लागू क्षेत्र और अपवाद

  • यह अपडेट केवल Claude Free, Pro, Max प्लान और उन प्लानों के Claude Code उपयोगकर्ताओं पर लागू होता है
  • वाणिज्यिक शर्तों के तहत आने वाली सेवाओं — यानी Claude for Work, Claude Gov, Claude for Education, और API उपयोग (तीसरे पक्ष के माध्यम से भी, जैसे Amazon Bedrock, Google Cloud Vertex AI) — पर यह लागू नहीं होता

डेटा उपयोग की सहमति का प्रभाव

  • डेटा साझा करने की सहमति देने पर मॉडल सुरक्षा में सुधार होगा और हानि व दुरुपयोग रोकथाम प्रणालियों की सटीकता बढ़ेगी
  • यह coding, analysis, reasoning जैसी भविष्य के Claude मॉडलों की विभिन्न क्षमताओं को बेहतर बनाने में योगदान दे सकता है
  • यह सेटिंग हमेशा उपयोगकर्ता के सीधे नियंत्रण में रहेगी, और नए साइन-अप या मौजूदा उपयोगकर्ताओं के लिए पॉप-अप विंडो के माध्यम से विकल्प चुना जा सकेगा

सूचना और प्रभावी होने की तिथि

  • इन-ऐप नोटिफिकेशन के माध्यम से उपयोगकर्ताओं को अपडेट और Settings बदलने के अवसर की जानकारी दी जाएगी
  • मौजूदा उपयोगकर्ता 28 सितंबर 2025 तक शर्तों से सहमत होने और डेटा साझा करने का निर्णय ले सकते हैं
  • सहमति देने पर नई नीति तुरंत लागू होगी, और यह केवल नई या फिर से शुरू की गई बातचीत और coding sessions पर लागू होगी
  • 28 सितंबर 2025 के बाद Claude का उपयोग जारी रखने के लिए Settings में स्वयं विकल्प चुनना आवश्यक होगा
  • Privacy Settings में विकल्प बदले जा सकते हैं

डेटा संरक्षण अवधि बढ़ाई गई

  • मॉडल training के लिए डेटा साझा करने की सहमति देने पर डेटा संरक्षण अवधि 5 वर्ष तक बढ़ा दी जाएगी
  • यह बढ़ी हुई अवधि नई/फिर से शुरू की गई बातचीत और coding sessions पर ही लागू होगी, और मॉडल सुधार व सुरक्षा बढ़ाने के लिए उपयोग की जाएगी
  • यदि बातचीत delete कर दी जाती है, तो वह डेटा भविष्य के मॉडल training में उपयोग नहीं किया जाएगा
  • यदि उपयोगकर्ता डेटा साझा करने की सहमति नहीं देता, तो मौजूदा 30-दिन की संरक्षण नीति बरकरार रहेगी

फीडबैक डेटा का प्रबंधन

  • उपयोगकर्ता feedback पर भी 5 वर्ष की संरक्षण नीति लागू होगी

गोपनीयता सुरक्षा और डेटा प्रोसेसिंग का तरीका

  • Anthropic संवेदनशील डेटा को automated tools और processes से filter/pseudonymize करके उपयोगकर्ता privacy की सुरक्षा करता है
  • उपयोगकर्ता का डेटा किसी तीसरे पक्ष को बेचा नहीं जाता

अतिरिक्त जानकारी

  • उपभोक्ता उपयोग की शर्तों और गोपनीयता नीति में हुए विस्तृत बदलाव FAQ सेक्शन में देखे जा सकते हैं

1 टिप्पणियां

 
GN⁺ 2025-08-30
Hacker News राय
  • यह जिज्ञासा है कि क्या उपयोगकर्ता वास्तव में मदद मिलने के बाद भी हर बार असंतुष्ट फीडबैक छोड़कर, या जानबूझकर बातचीत को विनाशकारी दिशा में ले जाकर फिर बहुत सकारात्मक फीडबैक देकर, भविष्य के training dataset को दूषित कर सकते हैं

  • यह पसंद नहीं आया कि इसे ऐसे दिखाया जा रहा है मानो डिफॉल्ट opt-in हो, जबकि व्यवहार में यह opt-out है, और इसे एक साधारण terms update जैसा prompt बनाकर आगे बढ़ाया जा रहा है; 5 साल तक data retention भी ज़्यादा लगता है; शक है कि नई terms में और भी समस्याग्रस्त बातें हों; अंततः इसी वजह से subscription रद्द कर दी

    • Anthropic की बाकी सभी settings में switch on होने पर नीला और off होने पर काला होता है, लेकिन इस बदलाव वाले notice box में slider दोनों ही स्थितियों में grey है; settings में जाकर तुलना करने पर यह साफ दिखता है; यह देखकर निराशा और थोड़ा कड़वापन हुआ कि शायद इसे जानबूझकर ऐसा बनाया गया
    • “opt-in by default” शब्दावली पर आपत्ति है; असल में यह “opt-out” ही है; opt-out setting ही डिफॉल्ट है
    • “5 साल retention” वाले हिस्से का उल्लेख किया गया; एक बार model में train हो गया तो वह हमेशा के लिए रहता है
    • असली चिंता 5 साल retention को लेकर है; अगर अगले 5 साल तक वे terms बदलते रहें और बार-बार opt-out विकल्प फिर से दिखाएँ, तो एक बार गलती से क्लिक करते ही सारा data उनके पास चला जाएगा; बाद में वे opt-out को हटा भी सकते हैं; 4 साल 364 दिन बाद terms बदलकर retention को 10 साल कर सकते हैं; तब तक privacy इतनी कमजोर हो चुकी होगी कि लोगों को शायद यह भी महसूस न हो कि ऐसा कोई विकल्प वास्तव में अब है ही नहीं
    • app खोलते समय बदलाव वाला popup और opt-out विकल्प दिखा; transparency के लिहाज़ से यह ठीक लगा
  • Claude मेरी गणितीय research में मदद कर रहा है; चिंता यह है कि अगर बातचीत के दौरान मैं अपनी अभी unpublished research ideas Claude को बता दूँ, तो बाद में Claude वही विचार किसी और को सुझा दे और वह व्यक्ति उसे अपना विचार समझे; इससे लगा कि commercial accounts ही नहीं, व्यक्तिगत स्तर पर AI-सहायित knowledge development में भी privacy बहुत ज़रूरी है

    • जवाब में पूछा गया कि क्या Claude आखिरकार हमेशा किसी और के काम में मदद नहीं कर रहा होता; Claude को अपनी chat के बाहर training data के अलावा कुछ पता नहीं होता, इसलिए यह classical AI mechanism जैसा ही है
    • AI को एक विशाल association engine की तरह देखा गया; गणितीय research में “ऐसा विचार जो किसी ने नहीं सोचा” और “ऐसा विचार जो कोई पहले ही सोच चुका है” में फर्क करना पहले से ही समय लेने वाला काम था; पहले internet, MathSciNet, ArXiv आदि में keywords ढूँढते हुए बार-बार खोज करनी पड़ती थी; AI में पिछले 6 महीने से अधिक समय rare answers दिलाने वाले prompts ढूँढने के अभ्यास में लगाया गया; AI की generalization क्षमता उल्टा भ्रम भी पैदा करती है; उदाहरण के लिए, जो चीज़ सबसे मौलिक लगती है, वह कभी-कभी दरअसल पहले से मौजूद विचारों के बीच कड़ी जोड़ना ही होती है; सही तरह से prompt दिया जाए तो AI भी इसी तरह ideas जोड़ सकता है
    • नई terms वाले popup में opt-out चुनने पर मेरी chats training में उपयोग नहीं होंगी
    • अगर काम सचमुच बहुत मौलिक है, तो उसके बाद ऐसे models में आने की संभावना बहुत कम है; ये systems मूलतः बहुत लोगों द्वारा साझा किए गए data पर आधारित generalized output देते हैं, इसलिए कोई concept inference में तभी निकलता है जब वह training data में बहुत आम हो; व्यवहार में यह innovation और privacy दोनों की रक्षा करने वाली संरचना भी हो सकती है; अगर कोई concept कुछ हद तक लोकप्रिय हो चुका है, तो वह public knowledge का हिस्सा बनने लायक भी है, IP मुद्दों को छोड़कर
    • AI कंपनियाँ उस मानवीय ज्ञान का कितना उपयोग कर सकती हैं जिस पर उनका वास्तव में स्वामित्व नहीं है, इसकी सीमा धुँधली है; शायद यह सीमा खींची ही नहीं गई
  • यह अनुमानित ही था; बड़े players पहले ही पूरे internet और यहाँ तक कि मुकदमों में फँसे चुराए गए content समेत लगभग हर data source पर train करने की सीमा तक पहुँच चुके हैं; पिछले कुछ वर्षों में model architecture में कोई बड़ी छलांग नहीं आई, इसलिए अब लड़ाई और अधिक training data की है; अंततः वे user data तक हाथ बढ़ा रहे हैं और धीरे-धीरे और संदिग्ध तरीकों का सहारा लेने को तैयार हैं

    • सैकड़ों data brokers भी user data चाहते हैं, लेकिन AI कंपनियों के पास पहले से बना हुआ वह channel है जहाँ उपयोगकर्ता रोज़ स्वेच्छा से data देते हैं; इन्हें बस dark-pattern terms changes और थोड़ा-बहुत PR management चाहिए; ऐसा विवाद एक हफ्ते में भुला दिया जाएगा
    • हाल के AI models अपने ही generated data पर train होकर quality गिरावट झेल रहे हैं, यह दिलचस्प है; अगर लोग human+AI content को अधिक सावधानी से अलग करते या publishers के साथ deals करते, तो शायद स्थिति अलग होती; लेकिन सबने जल्दबाज़ी में हर data source को scrape करना चाहा और अंत में सबका नुकसान हुआ
    • “चोरी” हुई या नहीं, यह विवाद का विषय नहीं; उन्होंने अदालत में खुद illegal copying स्वीकार की
    • AI कंपनियों के लिए data, ad industry से भी कहीं बड़ा gold mine है; यह उनके survival के लिए आवश्यक है; AI और advertising के मिलने की जगह पर जो unethical व्यवहार उभरेगा, वही असली समस्या है; अनुमान है कि Google या Facebook पहले से ही अपने-अपने data platforms को आपस में जोड़ रहे होंगे; जिस दिन यह खुलकर स्वीकार्य हो जाएगा, उस दिन कौन-कौन से use cases सामने आएँगे, इसे लेकर उत्सुकता भी है और चिंता भी
    • ऐसे मामले अपने आप में अधिक सख्त regulation और safeguards की ज़रूरत दिखाते हैं
  • बहुत लोग हैरान नहीं हैं, लेकिन व्यक्तिगत रूप से यह काफ़ी चौंकाने वाला है; जैसे Google उपयोगकर्ताओं के Gmail body को search results में नहीं डालता, वैसे ही यह आत्मघाती business decision जैसा लगता है; लगता है शायद मैं कुछ मिस कर रहा हूँ

    • Gmail ने भी 2017 तक कई वर्षों तक emails को analyze करके ads serve किए थे लिंक
    • एक लेख लिंक से पता चला कि यह policy change work, education-purpose Claude accounts पर लागू नहीं होता और उनकी मौजूदा privacy protections बनी रहती हैं; असल में free या non-commercial accounts Anthropic के लिए कम फ़ायदेमंद समूह हैं; यह फैसला शायद ऐसे “मुफ़्त उपयोगकर्ताओं” की आमद घटाने के लिए है; अनुमान है कि जल्द ही वे कुछ ऐसा घोषित करेंगे: “आपकी प्रतिक्रिया सुनकर हम privacy-केंद्रित नया product ला रहे हैं, केवल $30/माह”
    • ऐसा data reinforcement learning के लिए बहुत उपयोगी है; दूसरी कंपनियाँ भी यही कर रही हैं; और चाहें तो opt-out भी किया जा सकता है
    • इसे हैरानी के रूप में पेश करना ही अजीब लगता है; यह तो सबको पहले से अनुमान था
    • Google emails को गहराई से खोदकर marketing या government transmission जैसे कई उद्देश्यों के लिए इस्तेमाल करता है, लेकिन email body को search results में दिखाना और Claude का training में उपयोग करना अलग बातें हैं; Google को इस व्यवहार पर कोई बड़ी सज़ा नहीं मिली
  • सच कहूँ तो अब तक यह बात खटकती थी कि AI उपयोगकर्ताओं के साथ interaction से बिल्कुल नहीं सीख पाता, खासकर जब वही गलतियाँ बार-बार दोहराई जाती हैं; इसलिए यह बदलाव अब जाकर होना ही उल्टा हैरान करता है

    • real-time learning नहीं हो रही; मेरा data तुरंत reflect भी नहीं होगा; training data अब भी model training में ही जाता है, जो कई महीनों का काम है; एक-दो लोगों का data अधिकतर users के flow पर बड़ा असर नहीं डालता; किसी खास व्यक्ति की कार्यशैली के बजाय वही चीज़ें सीखी जाती हैं जो कई users में समान हों
    • interaction से ही बहुत कुछ नहीं सीखा जा सकता; evaluation metrics भी individual user के बजाय global criteria पर केंद्रित होते हैं, इसलिए service बस और सामान्य होती जाती है
    • यह समान subscription fee पर और अधिक data पाने की रणनीति है; discount या refund की संभावना कम है
  • अगर बहुत लोग इसके खिलाफ़ हैं, तो मैं उल्टा इसे सकारात्मक रूप में देखता हूँ; LLM को पिछली conversations पर train करने देना model improvement के लिए बेहद महत्वपूर्ण है; लंबी अवधि में यह जोखिम समझ आता है कि सामूहिक ज्ञान कुछ गिनी-चुनी कंपनियों में केंद्रित हो जाए; इसलिए अंततः शायद एकमात्र समाधान “self custody” मॉडल होगा, जहाँ संगठन या व्यक्ति अपने models खुद चलाएँ और train करें; बेशक, इसे व्यवहार्य बनाने के लिए लागत बहुत कम होनी चाहिए

    • अगर इसमें reciprocity हो तो यह अच्छा मॉडल हो सकता है; लेकिन मैं हर महीने $20 दे रहा हूँ और training data मुझे मुफ्त में Anthropic को देना पड़े, यह अनुचित लगता है
    • “हम सब मिलकर LLM को बेहतर बना रहे हैं” की बजाय असलियत यह है कि data एक ही LLM, यानी Claude, के लिए दिया जा रहा है
    • अगर कंपनियों का source code, scenarios, health या financial information जैसे संवेदनशील data train करा दिए जाएँ, तो जोखिम बढ़ जाता है
    • मुझे नहीं लगता कि LLM का बहुत अधिक आगे बढ़ना ज़रूरी है
    • बल्कि यह भी स्पष्ट नहीं कि LLM बेहतर होने से अधिकांश users को कोई ठोस लाभ मिलेगा; कुल मिलाकर शायद नुकसान ही ज़्यादा हो
  • अब जाकर policy बदली, यह और भी बुरा लगता है; मैं तो पहले ही चाहता था कि वे मेरे data पर train करें, बल्कि आगे भी करते रहें तो मुझे आपत्ति नहीं; अगर कोई data privacy को लेकर बहुत कट्टर है तो वह अपना data इस्तेमाल ही न करे; मैं तो पूरी तरह उल्टी तरफ़ हूँ, लेकिन कंपनियाँ इस तरह की preference को बिल्कुल ध्यान में नहीं रखतीं; Google में भी “मेरे सारे data का सक्रिय रूप से training में उपयोग करो” जैसा विकल्प नहीं है, इससे खीझ होती है; मैंने कई बार बताया कि मैं कहाँ रहता हूँ, फिर भी वह भूल जाता है; सब कुछ इस धारणा पर बना है कि ‘कोई भी अपना data साझा नहीं करना चाहता’; medicine में DeepMind के interviews भी हमेशा data sharing के डर, तबाही और जुनून से शुरू होते हैं; मुझे इससे कभी कोई बड़ा नुकसान नहीं हुआ, बल्कि medical progress में फ़ायदा ही दिखा; NHS में भी मैं हर बार ‘मेरा data सक्रिय रूप से उपयोग करें’ वाला checkbox ढूँढता हूँ; डिफॉल्ट हमेशा “सब मना करें” होता है, इसलिए विकल्प झंझट वाला है; अच्छा हो अगर एक बार master checkbox हो: “मेरा सारा data उपयोग करो और दोबारा मत पूछो”

    • इस दृष्टिकोण से सहमत होने के लिए यह मानना होगा कि कंपनियाँ अब भी users की सेवा के लिए काम करती हैं; लेकिन व्यवहार में मेरी जानकारी का उपयोग अक्सर मेरे हितों के ख़िलाफ़ ज़्यादा होता है, जैसे scammy products के ads target करना; AI कंपनियाँ भी ज़्यादातर VC प्रभाव में हैं, user-केंद्रित product development से ज़्यादा profit-केंद्रित; अभी का दौर market share हासिल करने के लिए users को उदार लाभ देने वाला “MoviePass” phase है, आगे service quality गिरेगी और abuse की गुंजाइश बढ़ेगी MoviePass Wikipedia
    • बिना critical thinking के कोई व्यक्ति गंभीरता से ऐसी राय रख सकता है, यह समझना कठिन है
    • medical data privacy की अहमियत, private insurance system वाले देश में रहकर जल्दी समझ आ जाती है
    • यह trolling है या फिर कोई ऐसे आदर्शवादी संसार में जी रहा है जहाँ कंपनियाँ users को सबसे ऊपर रखती हैं, समझ नहीं आता
    • मेरी ज़िंदगी में “LLMs थोड़ा बेहतर हो जाएँ” से भी ऊपर कई मूल्य हैं
  • मुझे विश्वास था कि Anthropic लंबी अवधि में छोटे लेकिन तकनीकी रूप से मज़बूत user base को लक्ष्य बना रहा है; सिद्धांततः subscription रद्द करने वाला हूँ; open source models अभी तक Claude जितना मेरी ज़रूरतों, जैसे ISO/IEEE standards केंद्रित security-testing तैयारी, को पूरा नहीं करते, लेकिन मैं कोई रास्ता ढूँढ लूँगा

    • अंततः user जो कर सकता है, वह service छोड़ना ही है; क़ानून या regulation से ज़्यादा उम्मीद नहीं, और यदि कुछ बना भी तो शायद जुर्माना भरकर मामला निपट जाएगा; web service या app को data दे दिया, तो उसे फिर पूरी तरह अपना मानकर नहीं चलना चाहिए
  • यह सवाल है कि perplexity.ai द्वारा लिखे AI summary article की जगह सीधे असली official announcement को link क्यों नहीं किया गया; वास्तविक announcement लिंक में मुख्य बिंदु हैं: in-app notification popup के ज़रिए बदलाव की सूचना और opt-out का विकल्प, settings menu में कभी भी opt-out संभव, यह 28 सितंबर से प्रभावी होगा, केवल नई terms की सहमति और session refresh होने पर लागू होगा, और API/external services, Claude Gov, Claude for Education आदि पर लागू नहीं होगा; मूल लिंक अधिक उपयोगी होता

    • अगर opt-out संभव है, तो मुझे बहुत चिंता नहीं; लेकिन यह सवाल है कि JetBrains AI, Zed जैसे Claude API से जुड़े third-party apps क्या user की ओर से opt-in का फ़ैसला करते हैं; API-आधारित मामलों में ऐसा training विकल्प कभी भी डिफॉल्ट opt-in नहीं होना चाहिए, और पूरे industry को यही तरीका अपनाना चाहिए
    • मुझे जो app popup मिला, उसमें सिर्फ buttons और images थे, कोई text नहीं; मैंने सोचा शायद dark mode की समस्या हो, इसलिए DOM भी देखा, लेकिन text नहीं मिला; मैंने इसे बस किसी नए feature announcement की तरह नज़रअंदाज़ कर दिया; अगर Reddit पर संयोग से हालिया policy change न दिखता, तो मुझे इसकी जानकारी ही नहीं होती; शायद मेरे अलावा बहुत से users ने भी इसे मिस किया होगा
    • माना कि मेरी पुरानी comment context के हिसाब से सही नहीं थी और मैंने उसे edit किया; पहले link perplexity.ai की कई article summaries का था, लेकिन moderator ने बाद में उसे original announcement से बदल दिया; बहुत-सी comments ने सिर्फ AI summary देखकर जल्दबाज़ी में प्रतिक्रिया दी; इस लिहाज़ से अच्छा हुआ कि link मूल स्रोत में बदल गया
    • कई article summaries के बजाय सीधे original source को link करना कहीं बेहतर है