- व्यक्तिगत प्रोजेक्ट ऑटोमेशन के लिए Claude Code CLI का उपयोग करते समय,
CLAUDE.md फ़ाइल बनाने की प्रक्रिया में अकाउंट बिना किसी पूर्व सूचना के निष्क्रिय कर दिया गया
- दो Claude instances को parallel चलाकर, एक से दूसरे की errors ठीक करवाने वाला स्वचालित iterative loop बनाया गया
- Claude द्वारा बनाई गई फ़ाइल में system commands जैसी पंक्तियाँ बार-बार आने लगीं, जिससे अनुमान है कि ‘prompt injection’ detection system सक्रिय हो गया
- इसके बाद support request और appeal की कोशिश की गई, लेकिन कोई जवाब नहीं मिला, केवल payment refund notice प्राप्त हुआ
- लेखक ने इस घटना के जरिए AI services की automated censorship और अपारदर्शी operational structure से उपयोगकर्ताओं पर पड़ने वाले असर की ओर ध्यान दिलाया
अकाउंट निष्क्रिय होना
- लेखक हर महीने €220 भुगतान कर Claude Code CLI का उपयोग कर रहे थे, तभी API call के दौरान
"This organization has been disabled" error मिला
- इस error का मतलब था कि अकाउंट निष्क्रिय कर दिया गया है
- उस समय वे अपने व्यक्तिगत प्रोजेक्ट के automated scaffolding tool को बेहतर बनाने पर काम कर रहे थे
- काम के दौरान Claude को अपने-आप code generate और modify करने के लिए सेट किया गया था, और इसी प्रक्रिया में ब्लॉक लगा
CLAUDE.md फ़ाइल बनाने की प्रक्रिया
- लेखक ने Claude से कहा कि उनका scaffolding tool project बनाते समय
CLAUDE.md फ़ाइल अपने-आप शामिल करे
- इस फ़ाइल में एक विशेष custom framework (boreDOM) से जुड़ी instructions शामिल थीं
- दो Claude instances (A और B) को अलग-अलग
tmux sessions में चलाया गया
- Claude A tool को update करता था, और Claude B नए project में काम करता था
- यदि Claude B error देता, तो वह error Claude A को भेजकर उसे ठीक करवाया जाता, और यह प्रक्रिया दोहराई जाती
- यह loop चलते रहने के दौरान अकाउंट निष्क्रिय हो गया
Claude की प्रतिक्रिया और system detection
- Claude A ने Claude B की errors ठीक करते समय ALL CAPS में commands लिखने जैसी असामान्य output देना शुरू किया
- बनाई गई
CLAUDE.md फ़ाइल में Claude B को निर्देश देने वाले वाक्य बड़ी संख्या में शामिल थे
- लेखक का कहना है कि यह pattern संभवतः Claude के security system ने ‘prompt injection’ के रूप में पहचान लिया होगा
- हालांकि, वास्तविक ब्लॉक का कारण क्या था, इस पर कोई आधिकारिक स्पष्टीकरण नहीं दिया गया
support request और refund प्रक्रिया
- लेखक ने Google Docs form के ज़रिए appeal submit की, लेकिन कोई जवाब नहीं मिला
- बाद में किसी अन्य LLM की मदद से support team को email भेजा, फिर भी automated reply तक नहीं आया
- कुछ दिनों बाद Anthropic से केवल refund receipt (credit note) मिली
- लेखक ने इसे “संवाद नहीं, एकतरफ़ा सूचना” बताया
- “It’s not just bad support; it’s automated exclusion.” जैसे वाक्य के साथ उन्होंने automated exclusion system की आलोचना की
AI services के संचालन पर सवाल
- लेखक ने कहा कि इस घटना से AI services की censorship और account management का अपारदर्शी और एकतरफ़ा स्वभाव सामने आता है
- उन्होंने यह भी कहा कि अगर यही बात किसी दूसरे platform पर हुई होती, तो email, photos, documents जैसी अहम services तक पहुंच रुकने का जोखिम होता
- AI की safety-first censorship सटीकता की कीमत पर काम कर रही है, और उपयोगकर्ता के लिए यह व्यवस्था black box जैसी लगती है
- बाद में उन्होंने project को Claude के बिना फिर से तैयार करने और boreDOM framework को LLM-केंद्रित JS framework के रूप में दोबारा लॉन्च करने की योजना बताई
- अंत में उन्होंने स्पष्ट किया कि ब्लॉक के समय Claude सिर्फ
CLAUDE.md फ़ाइल को बार-बार modify कर रहा था, और Anthropic की ओर से कोई अतिरिक्त संपर्क नहीं हुआ
अभी कोई टिप्पणी नहीं है.