- अगर आप Anthropic के Claude service का उपयोग करते हैं, तो आगे से आपका डेटा AI training में इस्तेमाल किया जाएगा
- उपयोगकर्ता का input data भविष्य में AI system को बेहतर बनाने के लिए model training में इस्तेमाल किया जाएगा
- पुराने डेटा को इसमें शामिल नहीं किया जाएगा; केवल आगे से डाला जाने वाला नया डेटा ही लागू होगा
- delete किया गया या private रखा गया डेटा training में इस्तेमाल नहीं होगा
- उपयोगकर्ता settings के जरिए training opt-out option चुन सकते हैं
Claude की data collection और AI training policy में बदलाव
- Anthropic द्वारा संचालित Claude account के उपयोगकर्ताओं को अब यह समझना होगा कि वे service में जो सारा डेटा input करते हैं, उसका उपयोग AI training के लिए किया जाएगा
- यह policy आगे से डाले गए नए डेटा पर लागू होगी, और पहले दिया गया डेटा इसमें शामिल नहीं होगा
- उपयोगकर्ता द्वारा delete किया गया डेटा और private mark किया गया डेटा अलग प्रक्रिया के कारण AI training dataset में शामिल नहीं किया जाएगा
- Anthropic ने service notice के जरिए बताया है कि यदि उपयोगकर्ता चाहें, तो वे settings menu (opt-out) के माध्यम से अपने डेटा के training उपयोग को अस्वीकार कर सकते हैं
- AI service के विकास और उपयोगकर्ता डेटा सुरक्षा के बीच संतुलित policy लागू की जा रही है
1 टिप्पणियां
Hacker News राय
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z