- Anthropic ने उपभोक्ताओं के लिए उपयोग की शर्तें और गोपनीयता नीति को अपडेट किया है
- अब उपयोगकर्ता स्वयं चुन सकेंगे कि वे अपने डेटा को मॉडल सुधार के लिए उपयोग करने की अनुमति देना चाहते हैं या नहीं
- यह Claude Free, Pro, Max प्लान पर लागू होगा, जबकि मौजूदा वाणिज्यिक सेवाओं और API उपयोगकर्ताओं को इससे बाहर रखा गया है
- डेटा साझा करने की अनुमति देने पर उपयोगकर्ता मॉडल सुरक्षा को मजबूत करने और भविष्य के मॉडलों की coding जैसी क्षमताओं को बेहतर बनाने में योगदान दे सकते हैं
- डेटा उपयोग की सहमति, अवधि और अन्य बदलावों को Settings में कभी भी प्रबंधित किया जा सकता है
अपडेट की मुख्य बातें
- Anthropic ने Claude AI के प्रदर्शन को बेहतर बनाने और उपयोगकर्ता सुरक्षा को मजबूत करने के लिए उपभोक्ता उपयोग की शर्तें और गोपनीयता नीति को अपडेट किया है
- उपयोगकर्ता यह चुन सकते हैं कि उनका डेटा Claude के मॉडल सुधार और सुरक्षा उपायों को मजबूत करने के लिए दिया जाए या नहीं
- Settings में डेटा साझा करने की अनुमति को कभी भी बदला जा सकता है
लागू क्षेत्र और अपवाद
- यह अपडेट केवल Claude Free, Pro, Max प्लान और उन प्लानों के Claude Code उपयोगकर्ताओं पर लागू होता है
- वाणिज्यिक शर्तों के तहत आने वाली सेवाओं — यानी Claude for Work, Claude Gov, Claude for Education, और API उपयोग (तीसरे पक्ष के माध्यम से भी, जैसे Amazon Bedrock, Google Cloud Vertex AI) — पर यह लागू नहीं होता
डेटा उपयोग की सहमति का प्रभाव
- डेटा साझा करने की सहमति देने पर मॉडल सुरक्षा में सुधार होगा और हानि व दुरुपयोग रोकथाम प्रणालियों की सटीकता बढ़ेगी
- यह coding, analysis, reasoning जैसी भविष्य के Claude मॉडलों की विभिन्न क्षमताओं को बेहतर बनाने में योगदान दे सकता है
- यह सेटिंग हमेशा उपयोगकर्ता के सीधे नियंत्रण में रहेगी, और नए साइन-अप या मौजूदा उपयोगकर्ताओं के लिए पॉप-अप विंडो के माध्यम से विकल्प चुना जा सकेगा
सूचना और प्रभावी होने की तिथि
- इन-ऐप नोटिफिकेशन के माध्यम से उपयोगकर्ताओं को अपडेट और Settings बदलने के अवसर की जानकारी दी जाएगी
- मौजूदा उपयोगकर्ता 28 सितंबर 2025 तक शर्तों से सहमत होने और डेटा साझा करने का निर्णय ले सकते हैं
- सहमति देने पर नई नीति तुरंत लागू होगी, और यह केवल नई या फिर से शुरू की गई बातचीत और coding sessions पर लागू होगी
- 28 सितंबर 2025 के बाद Claude का उपयोग जारी रखने के लिए Settings में स्वयं विकल्प चुनना आवश्यक होगा
- Privacy Settings में विकल्प बदले जा सकते हैं
डेटा संरक्षण अवधि बढ़ाई गई
- मॉडल training के लिए डेटा साझा करने की सहमति देने पर डेटा संरक्षण अवधि 5 वर्ष तक बढ़ा दी जाएगी
- यह बढ़ी हुई अवधि नई/फिर से शुरू की गई बातचीत और coding sessions पर ही लागू होगी, और मॉडल सुधार व सुरक्षा बढ़ाने के लिए उपयोग की जाएगी
- यदि बातचीत delete कर दी जाती है, तो वह डेटा भविष्य के मॉडल training में उपयोग नहीं किया जाएगा
- यदि उपयोगकर्ता डेटा साझा करने की सहमति नहीं देता, तो मौजूदा 30-दिन की संरक्षण नीति बरकरार रहेगी
फीडबैक डेटा का प्रबंधन
- उपयोगकर्ता feedback पर भी 5 वर्ष की संरक्षण नीति लागू होगी
गोपनीयता सुरक्षा और डेटा प्रोसेसिंग का तरीका
- Anthropic संवेदनशील डेटा को automated tools और processes से filter/pseudonymize करके उपयोगकर्ता privacy की सुरक्षा करता है
- उपयोगकर्ता का डेटा किसी तीसरे पक्ष को बेचा नहीं जाता
अतिरिक्त जानकारी
- उपभोक्ता उपयोग की शर्तों और गोपनीयता नीति में हुए विस्तृत बदलाव FAQ सेक्शन में देखे जा सकते हैं
1 टिप्पणियां
Hacker News राय
यह जिज्ञासा है कि क्या उपयोगकर्ता वास्तव में मदद मिलने के बाद भी हर बार असंतुष्ट फीडबैक छोड़कर, या जानबूझकर बातचीत को विनाशकारी दिशा में ले जाकर फिर बहुत सकारात्मक फीडबैक देकर, भविष्य के training dataset को दूषित कर सकते हैं
यह पसंद नहीं आया कि इसे ऐसे दिखाया जा रहा है मानो डिफॉल्ट opt-in हो, जबकि व्यवहार में यह opt-out है, और इसे एक साधारण terms update जैसा prompt बनाकर आगे बढ़ाया जा रहा है; 5 साल तक data retention भी ज़्यादा लगता है; शक है कि नई terms में और भी समस्याग्रस्त बातें हों; अंततः इसी वजह से subscription रद्द कर दी
Claude मेरी गणितीय research में मदद कर रहा है; चिंता यह है कि अगर बातचीत के दौरान मैं अपनी अभी unpublished research ideas Claude को बता दूँ, तो बाद में Claude वही विचार किसी और को सुझा दे और वह व्यक्ति उसे अपना विचार समझे; इससे लगा कि commercial accounts ही नहीं, व्यक्तिगत स्तर पर AI-सहायित knowledge development में भी privacy बहुत ज़रूरी है
यह अनुमानित ही था; बड़े players पहले ही पूरे internet और यहाँ तक कि मुकदमों में फँसे चुराए गए content समेत लगभग हर data source पर train करने की सीमा तक पहुँच चुके हैं; पिछले कुछ वर्षों में model architecture में कोई बड़ी छलांग नहीं आई, इसलिए अब लड़ाई और अधिक training data की है; अंततः वे user data तक हाथ बढ़ा रहे हैं और धीरे-धीरे और संदिग्ध तरीकों का सहारा लेने को तैयार हैं
बहुत लोग हैरान नहीं हैं, लेकिन व्यक्तिगत रूप से यह काफ़ी चौंकाने वाला है; जैसे Google उपयोगकर्ताओं के Gmail body को search results में नहीं डालता, वैसे ही यह आत्मघाती business decision जैसा लगता है; लगता है शायद मैं कुछ मिस कर रहा हूँ
सच कहूँ तो अब तक यह बात खटकती थी कि AI उपयोगकर्ताओं के साथ interaction से बिल्कुल नहीं सीख पाता, खासकर जब वही गलतियाँ बार-बार दोहराई जाती हैं; इसलिए यह बदलाव अब जाकर होना ही उल्टा हैरान करता है
अगर बहुत लोग इसके खिलाफ़ हैं, तो मैं उल्टा इसे सकारात्मक रूप में देखता हूँ; LLM को पिछली conversations पर train करने देना model improvement के लिए बेहद महत्वपूर्ण है; लंबी अवधि में यह जोखिम समझ आता है कि सामूहिक ज्ञान कुछ गिनी-चुनी कंपनियों में केंद्रित हो जाए; इसलिए अंततः शायद एकमात्र समाधान “self custody” मॉडल होगा, जहाँ संगठन या व्यक्ति अपने models खुद चलाएँ और train करें; बेशक, इसे व्यवहार्य बनाने के लिए लागत बहुत कम होनी चाहिए
अब जाकर policy बदली, यह और भी बुरा लगता है; मैं तो पहले ही चाहता था कि वे मेरे data पर train करें, बल्कि आगे भी करते रहें तो मुझे आपत्ति नहीं; अगर कोई data privacy को लेकर बहुत कट्टर है तो वह अपना data इस्तेमाल ही न करे; मैं तो पूरी तरह उल्टी तरफ़ हूँ, लेकिन कंपनियाँ इस तरह की preference को बिल्कुल ध्यान में नहीं रखतीं; Google में भी “मेरे सारे data का सक्रिय रूप से training में उपयोग करो” जैसा विकल्प नहीं है, इससे खीझ होती है; मैंने कई बार बताया कि मैं कहाँ रहता हूँ, फिर भी वह भूल जाता है; सब कुछ इस धारणा पर बना है कि ‘कोई भी अपना data साझा नहीं करना चाहता’; medicine में DeepMind के interviews भी हमेशा data sharing के डर, तबाही और जुनून से शुरू होते हैं; मुझे इससे कभी कोई बड़ा नुकसान नहीं हुआ, बल्कि medical progress में फ़ायदा ही दिखा; NHS में भी मैं हर बार ‘मेरा data सक्रिय रूप से उपयोग करें’ वाला checkbox ढूँढता हूँ; डिफॉल्ट हमेशा “सब मना करें” होता है, इसलिए विकल्प झंझट वाला है; अच्छा हो अगर एक बार master checkbox हो: “मेरा सारा data उपयोग करो और दोबारा मत पूछो”
मुझे विश्वास था कि Anthropic लंबी अवधि में छोटे लेकिन तकनीकी रूप से मज़बूत user base को लक्ष्य बना रहा है; सिद्धांततः subscription रद्द करने वाला हूँ; open source models अभी तक Claude जितना मेरी ज़रूरतों, जैसे ISO/IEEE standards केंद्रित security-testing तैयारी, को पूरा नहीं करते, लेकिन मैं कोई रास्ता ढूँढ लूँगा
यह सवाल है कि perplexity.ai द्वारा लिखे AI summary article की जगह सीधे असली official announcement को link क्यों नहीं किया गया; वास्तविक announcement लिंक में मुख्य बिंदु हैं: in-app notification popup के ज़रिए बदलाव की सूचना और opt-out का विकल्प, settings menu में कभी भी opt-out संभव, यह 28 सितंबर से प्रभावी होगा, केवल नई terms की सहमति और session refresh होने पर लागू होगा, और API/external services, Claude Gov, Claude for Education आदि पर लागू नहीं होगा; मूल लिंक अधिक उपयोगी होता