• व्यक्तिगत प्रोजेक्ट ऑटोमेशन के लिए Claude Code CLI का उपयोग करते समय, CLAUDE.md फ़ाइल बनाने की प्रक्रिया में अकाउंट बिना किसी पूर्व सूचना के निष्क्रिय कर दिया गया
  • दो Claude instances को parallel चलाकर, एक से दूसरे की errors ठीक करवाने वाला स्वचालित iterative loop बनाया गया
  • Claude द्वारा बनाई गई फ़ाइल में system commands जैसी पंक्तियाँ बार-बार आने लगीं, जिससे अनुमान है कि ‘prompt injection’ detection system सक्रिय हो गया
  • इसके बाद support request और appeal की कोशिश की गई, लेकिन कोई जवाब नहीं मिला, केवल payment refund notice प्राप्त हुआ
  • लेखक ने इस घटना के जरिए AI services की automated censorship और अपारदर्शी operational structure से उपयोगकर्ताओं पर पड़ने वाले असर की ओर ध्यान दिलाया

अकाउंट निष्क्रिय होना

  • लेखक हर महीने €220 भुगतान कर Claude Code CLI का उपयोग कर रहे थे, तभी API call के दौरान "This organization has been disabled" error मिला
    • इस error का मतलब था कि अकाउंट निष्क्रिय कर दिया गया है
  • उस समय वे अपने व्यक्तिगत प्रोजेक्ट के automated scaffolding tool को बेहतर बनाने पर काम कर रहे थे
  • काम के दौरान Claude को अपने-आप code generate और modify करने के लिए सेट किया गया था, और इसी प्रक्रिया में ब्लॉक लगा

CLAUDE.md फ़ाइल बनाने की प्रक्रिया

  • लेखक ने Claude से कहा कि उनका scaffolding tool project बनाते समय CLAUDE.md फ़ाइल अपने-आप शामिल करे
    • इस फ़ाइल में एक विशेष custom framework (boreDOM) से जुड़ी instructions शामिल थीं
  • दो Claude instances (A और B) को अलग-अलग tmux sessions में चलाया गया
    • Claude A tool को update करता था, और Claude B नए project में काम करता था
    • यदि Claude B error देता, तो वह error Claude A को भेजकर उसे ठीक करवाया जाता, और यह प्रक्रिया दोहराई जाती
  • यह loop चलते रहने के दौरान अकाउंट निष्क्रिय हो गया

Claude की प्रतिक्रिया और system detection

  • Claude A ने Claude B की errors ठीक करते समय ALL CAPS में commands लिखने जैसी असामान्य output देना शुरू किया
  • बनाई गई CLAUDE.md फ़ाइल में Claude B को निर्देश देने वाले वाक्य बड़ी संख्या में शामिल थे
  • लेखक का कहना है कि यह pattern संभवतः Claude के security system ने ‘prompt injection’ के रूप में पहचान लिया होगा
  • हालांकि, वास्तविक ब्लॉक का कारण क्या था, इस पर कोई आधिकारिक स्पष्टीकरण नहीं दिया गया

support request और refund प्रक्रिया

  • लेखक ने Google Docs form के ज़रिए appeal submit की, लेकिन कोई जवाब नहीं मिला
  • बाद में किसी अन्य LLM की मदद से support team को email भेजा, फिर भी automated reply तक नहीं आया
  • कुछ दिनों बाद Anthropic से केवल refund receipt (credit note) मिली
    • लेखक ने इसे “संवाद नहीं, एकतरफ़ा सूचना” बताया
    • “It’s not just bad support; it’s automated exclusion.” जैसे वाक्य के साथ उन्होंने automated exclusion system की आलोचना की

AI services के संचालन पर सवाल

  • लेखक ने कहा कि इस घटना से AI services की censorship और account management का अपारदर्शी और एकतरफ़ा स्वभाव सामने आता है
  • उन्होंने यह भी कहा कि अगर यही बात किसी दूसरे platform पर हुई होती, तो email, photos, documents जैसी अहम services तक पहुंच रुकने का जोखिम होता
  • AI की safety-first censorship सटीकता की कीमत पर काम कर रही है, और उपयोगकर्ता के लिए यह व्यवस्था black box जैसी लगती है
  • बाद में उन्होंने project को Claude के बिना फिर से तैयार करने और boreDOM framework को LLM-केंद्रित JS framework के रूप में दोबारा लॉन्च करने की योजना बताई
  • अंत में उन्होंने स्पष्ट किया कि ब्लॉक के समय Claude सिर्फ CLAUDE.md फ़ाइल को बार-बार modify कर रहा था, और Anthropic की ओर से कोई अतिरिक्त संपर्क नहीं हुआ

अभी कोई टिप्पणी नहीं है.

अभी कोई टिप्पणी नहीं है.