1 पॉइंट द्वारा GN⁺ 3 시간 전 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • यह प्लगइन सूट कानूनी प्रैक्टिस के पूरे दायरे को कवर करता है — इन-हाउस commercial contracts, privacy, employment, M&A, litigation, regulation, AI governance, intellectual property, और law education तक; और इसे Claude Cowork, Claude Code, तथा Managed Agents API के तीन तरीकों से डिप्लॉय किया जा सकता है
  • 70 से अधिक Named Agent शामिल — Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder आदि, जिन्हें workflow के अनुसार सिर्फ एक slash command से चलाया जा सकता है
  • हर प्लगइन cold-start interview के जरिए टीम के playbook, escalation rules, और house style को सीखता है, और उन्हें CLAUDE.md practice profile में दर्ज करता है, ताकि सभी skills customized परिणाम बना सकें
  • 20 से अधिक MCP connectors उपलब्ध: Slack, Google Drive, Box जैसे सामान्य tools के साथ Ironclad, DocuSign, iManage, Everlaw, CourtListener, Trellis जैसे कानूनी-विशेष सिस्टम इंटीग्रेशन
  • Thomson Reuters के CoCounsel Legal प्लगइन के जरिए Westlaw Deep Research इंटीग्रेशन, जिससे case law, statutes, और regulations पर अधिकतम 3 अमेरिकी jurisdictions में पूर्ण citation रिपोर्ट बनाई जा सकती है
  • research connector के माध्यम से आए citations पर source tags दिखते हैं, जबकि केवल model knowledge से आए citations पर [verify] flag लगाया जाता है, ताकि citation reliability को स्पष्ट रूप से अलग किया जा सके
  • contracts से जुड़ी skills Claude for Word sidebar में tracked changes mode में काम करती हैं, और numbering, definition clauses, cross-references, तथा style को सुरक्षित रखती हैं। Excel के लिए skills multi-sheet .xlsx workbook के रूप में आउटपुट देती हैं
  • legal-builder-hub community skills के लिए trust layer देता है — hidden content scanning, injection detection, allowlist, license gate, freshness gate, update के समय re-scan, और installation audit log
  • law students के लिए Socratic Drill (बिना उत्तर बताए learning mode), IRAC grading, bar exam preparation, flashcards, exam prediction जैसे education plugins और legal-clinic plugin (ABA Formal Op. 512 मानक के अनुसार डिज़ाइन) भी शामिल
  • सभी output वकीलों की समीक्षा के लिए draft हैं, और Anthropic की कानूनी स्थिति का प्रतिनिधित्व नहीं करते। पूरा सिस्टम Markdown और JSON से बना है, इसलिए build step की आवश्यकता नहीं है
  • Apache-2.0 license

1 टिप्पणियां

 
GN⁺ 3 시간 전
Hacker News की राय
  • वकील के नज़रिए से यह दिलचस्प है, लेकिन दो बाधाएँ हैं जिन्हें Anthropic कैसे पार करेगा, यह स्पष्ट नहीं है
    (1) अगर कोई गैर-वकील ऐसे skill/connector जैसी चीज़ें इस्तेमाल करके कानूनी सलाह लेने की कोशिश करता है, तो वह बातचीत attorney-client privilege से संरक्षित नहीं होगी। यह निश्चित रूप से किसी के लिए बड़ी समस्या बनकर लौटेगा
    (2) अगर कोई वकील क्लाइंट की गोपनीय जानकारी डाल दे और settings में “Help improve Claude” बंद करना भूल जाए, तो संभव है कि उसने वकीली लापरवाही की हो। यहाँ गोपनीय जानकारी का मतलब सिर्फ़ SSN या account number नहीं, बल्कि “क्लाइंट के प्रतिनिधित्व से जुड़ी हर जानकारी” है
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • बिंदु 1 के समर्थन में https://harvardlawreview.org/blog/2026/03/united-states-v-he... है
      न्यूयॉर्क के Southern District Court के न्यायाधीश Rakoff ने “राष्ट्रीय स्तर पर पहली बार उठे प्रश्न” पर फैसला देते हुए कहा कि आपराधिक प्रतिवादी और generative AI platform Claude के बीच लिखित बातचीत attorney-client privilege या work-product doctrine से संरक्षित नहीं है
      मामला इस एक पंक्ति से कहीं ज़्यादा जटिल है, लेकिन कम-से-कम इतना मानना सुरक्षित है कि अगर आप कानूनी बचाव या उसके तत्व AI में डालते हैं, तो वह discovery के दायरे में आ सकता है
    • बिंदु 1 सचमुच बहुत अजीब लगता है। अगर मैं वकील को पैसे दूँ और वह वही प्रश्न इन tools में डाले, तो वह attorney-client privilege से सुरक्षित रहता है; लेकिन अगर मैं वही प्रश्न अपनी रक्षा की तैयारी के लिए खुद पूछूँ, तो वह subpoena या discovery के दायरे में आ जाता है
      मैं जानना चाहता हूँ कि ऐसे third-party tools को संवेदनशील कानूनी सवालों के लिए इस्तेमाल करते समय क्या कोई operational security procedure है, जिससे नैतिक रूप से भी सही रहा जा सके और यह भरोसा भी हो कि यह interaction discovery documents में शामिल नहीं होगा
    • बिंदु 1 थोड़ा जटिल है। AI के साथ बातचीत कुछ मामलों में work-product doctrine के तहत संरक्षित हो सकती है, लेकिन केवल तब जब व्यक्ति खुद अपना मुक़दमा लड़ रहा pro se पक्षकार हो, और वह भी सख्ती से उसी सीमा तक जहाँ वह वकील के मानसिक impressions और opinion work product के बराबर हो। इस स्थिति में वही सुरक्षा pro se पक्षकार तक विस्तारित होती है। Warner v. Gilbarco, Inc. देखें
      मौजूदा स्थिति का अच्छा सार यहाँ है: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      हालाँकि इनमें से कुछ भी बाध्यकारी precedent नहीं है, इसलिए यह क्षेत्र समय के साथ बदलता रहेगा
    • बिंदु 2 का व्यावहारिक हल शायद data retention बंद किए गए organization/business account के ज़रिए इस्तेमाल करना होगा
    • क्या बिंदु 1 को क़ानून की एक पंक्ति से हल नहीं किया जा सकता? जैसे: “LLM से की गई कानूनी पूछताछ भी समान रूप से attorney-client privilege के दायरे में होगी”
  • अगर यह कोई गलत काम करे तो ज़िम्मेदार कौन होगा? Anthropic Inc उसकी ज़िम्मेदारी नहीं लेगा। न errors and omissions insurance है, न कानूनी liability, न attorney-client privilege, न अनुशासन संभालने वाली कोई bar association
    व्यवहारिक रूप से देखें तो यह PDF उगलने वाले “will kit” का बस एक ज़्यादा उन्नत संस्करण लगता है। जब तक बुनियादी स्तर पर कुछ बदलता नहीं, कानूनी व्यवस्था इसे अच्छी नज़र से नहीं देखेगी
    मुक़दमेबाज़ी आम होने वाली संस्कृति में अगर अपने बचाव पर हज़ारों डॉलर खर्च न करने पड़ें तो अच्छा होगा, लेकिन मैं अपनी ज़िंदगी और भलाई इस पर दाँव पर नहीं लगाऊँगा

    • repository में बहुत कड़ा disclaimer है कि वे किसी भी चीज़ के लिए ज़िम्मेदार नहीं हैं। यह उपयोगी चीज़ से ज़्यादा marketing use case category जैसा लगता है
    • ज़िम्मेदारी उपयोगकर्ता की होगी। उपयोगकर्ता जानकारी LLM, मशीन, या वेब पोस्ट—कहीं से भी ले—इससे फ़र्क नहीं पड़ता; दस्तावेज़ जमा करने वाला व्यक्ति ही जवाबदेह होना चाहिए
    • ज़िम्मेदारी वकीलों की होती है। AI का उपयोग कोई binary फ़ैसला नहीं है। वकील ज़्यादा कुशलतापूर्वक काम करने के लिए AI इस्तेमाल कर सकते हैं, और क्लाइंट मौजूदा स्थिति या वकील की व्याख्या बेहतर समझने, या कौन-से सवाल पूछने चाहिए यह सीखने के लिए AI का उपयोग कर सकते हैं। या फिर कम-जोखिम वाली स्थितियों में, जहाँ कोई भी वकील की फ़ीस नहीं देगा, वहाँ इसका उपयोग हो सकता है
      कानूनी काम में AI को लेकर मैं सावधानीपूर्वक आशावादी हूँ। कानूनी काम का बड़ा हिस्सा दस्तावेज़ों के ढेर में खोजबीन करने वाला दोहरावपूर्ण श्रम है, इसलिए केवल उन कामों के आधार पर भी काफ़ी उपयोग की संभावना है जिनमें LLM पहले से अच्छा है। लेकिन कानूनी काम में Claude जैसे agent-based approach को ही सही मानता हूँ
      LLM का context window इतना छोटा है कि छोटे मामले के दस्तावेज़ भी उसमें नहीं समा पाते। इसलिए इसे वैसे इस्तेमाल करना चाहिए जैसे प्रोग्रामर करते हैं—फ़ाइल संरचना के ऊपर काम करके, .md फ़ाइलों में state सहेजकर। यह तरीका programming में काफ़ी विकसित हो चुका है, लेकिन legal AI कंपनियाँ अभी इसकी सतह भी ठीक से नहीं छू पाई हैं। LLM को किसी interface के पीछे छिपाकर बनाए गए products भी सच कहूँ तो ज़्यादा अच्छे नहीं हैं
      दुर्भाग्य से, कम लागत पर कोई व्यक्ति खुद मुक़दमे का बचाव करे—इस तरह की स्थितियों में AI शायद बहुत मददगार नहीं होगा। उस काम का बड़ा हिस्सा लोगों से निपटने का होता है। क्या हुआ, संबंधित लोगों से बात करना, टकराती कहानियों को व्यवस्थित करना, जहाँ हो सके समझौता करना, और नहीं तो अदालत में जज को मनाना। AI शायद बड़ी कंपनियों के लिए ज़्यादा उपयुक्त है, ताकि वे बड़े मुक़दमों में कानूनी लागत नियंत्रित करते हुए एक-दूसरे पर और ज़्यादा काग़ज़ फेंक सकें
    • कानूनी व्यवस्था ने jaywalking को decriminalize करने को भी शुरू में पसंद नहीं किया था। अमेरिका में इसमें लगभग 20 साल लगे
    • मूल लेख के अनुसार, plugin इस्तेमाल करने वाला वकील—यानी plugin या Anthropic नहीं, बल्कि वही वकील—अपने work product में लिए गए कानूनी रुख़ की ज़िम्मेदारी उठाता है
  • AI chat logs को attorney-client privilege जैसा संरक्षण नहीं मिलता, और उन्हें अदालत में आपके ख़िलाफ़ सबूत की तरह इस्तेमाल किया जा सकता है। अगर आप वकील से बात करें और वह वकील AI इस्तेमाल करे, तो वह बातचीत privilege के दायरे में आती है

    • नहीं। अगर आप वकील से बात करें और वह वकील गोपनीय attorney-client relationship की अखंडता बनाए रखने के लिए उचित एहतियाती कदम उठाए, तभी privilege बना रहता है। नहीं तो नहीं
  • ऐसा लगता है कि वकीलों के लिए सबसे महत्वपूर्ण tools में से एक Lexis को हटा दिया गया है: https://github.com/anthropics/claude-for-legal/pull/5

    • “partner request के अनुसार” — सोच रहा हूँ क्या Thomson Reuters(Westlaw) को इतना ख़तरा महसूस हुआ कि उन्हें इस हद तक शिकायत करनी पड़ी। बल्कि अब जिज्ञासा है कि Lexis के साथ ये skills कितनी अच्छी तरह काम करतीं
    • क्या बदलाव से पहले वाले codebase version को बस इस्तेमाल नहीं किया जा सकता?
  • इसलिए मुझे लगता है कि मौजूदा application-layer AI startups की valuation का बड़ा हिस्सा थोड़ा अस्थिर है। अगर Anthropic जैसी बड़ी AI कंपनियाँ vertical products में फैलना शुरू कर दें, तो पूरा हिसाब बदल जाता है
    हालाँकि यह देखना दिलचस्प होगा कि वे इसे कितनी गंभीरता से जारी रखते हैं। कुछ startups के पास बची हुई बढ़त शायद सिर्फ़ यह डर हो कि OpenAI/Anthropic जैसी कंपनियों के bundled products, Google products की तरह, 1–2 साल बाद सीधे कब्रिस्तान पहुँच सकते हैं

    • यह कुछ वैसा ही है जैसे पूछना कि अगर AWS यह करना शुरू कर दे तो क्या होगा। infrastructure तो उनके पास पहले से है। LLM सिर्फ़ एक gear है, और application side में अभी भी बहुत-सी चीज़ें हैं जो ये बिल्कुल नहीं कर रहे
    • AI क्षेत्र की सारी valuations अस्थिर हैं। वास्तव में किसी के पास ठोस business plan नहीं है, बस माहौल है, और फिर भी पैसा लगातार डाला जा रहा है
  • “वे कानूनी workflows जिन्हें हम सबसे ज़्यादा देखते हैं” यह वाक्य थोड़ा परेशान करता है। क्या इसका मतलब है कि यह customer sessions पर आधारित है? क्या उन्हें ग्राहक data इस्तेमाल करके दुनिया भर के हर पेशे, विषय और workflow के लिए knowledge base बनाने का अधिकार है?

    • मुझे तो ऐसा ही लगता है। वे आपकी कंपनी के data से AI को train कर रहे हैं ताकि बाद में आपके business को replace कर सकें। अगर यक़ीन नहीं है, तो बस बता दीजिए कि ऐसी एक भी चीज़ क्या है जिस पर उन्होंने training नहीं की
    • हाँ, यह customer sessions पर आधारित है
      वे मानते हैं कि उनके पास यह अधिकार है, और इस बात को काफ़ी खुले तौर पर कहते भी हैं
      इसका नाम भी है। Clio — और उस पेज के अनुसार यह “वास्तविक AI उपयोग से privacy-preserving insights के लिए system” है
      संबंधित पेज यहाँ है: https://www.anthropic.com/research/clio
    • यह किस देश के हिसाब से है, यह भी समस्या है। आपको पता है न कि हर देश के क़ानून अलग होते हैं?
    • “क्या उनके पास कानूनी और नैतिक अधिकार है” और “क्या वे ऐसे व्यवहार करते हैं मानो अधिकार है” — ये दो अलग बातें हैं। यही बड़ा सवाल है
  • किसी समय वकील, solicitor, और judge इस तरह की चीज़ें इस्तेमाल करने लगेंगे। तब वकील शायद ऐसे SEO/copywriter विशेषज्ञ बन जाएँ जो दूसरी तरफ़ के LLM को और बेहतर तरीक़े से गुमराह कर सकें

    • हम उस बिंदु से काफ़ी आगे निकल चुके हैं। दुनिया भर में कितने मामलों में वकीलों ने hallucinated case citations वाले दस्तावेज़ अदालत में दाख़िल किए हैं, बस वही देख लीजिए
    • क़ानून आख़िरकार कहीं-न-कहीं लिखा हुआ है। कोई इंसान असली क़ानून देखकर यह जाँच सकता है कि AI बकवास कर रहा है या नहीं
  • जिसने पहले कभी tribunal में खुद अपनी पैरवी की हो, उसके लिए यह निश्चित रूप से दिलचस्प है
    लेकिन UK जैसी कुछ jurisdictions में, SRA authorization या FCA regulation के बिना किसी को यूँ ही कानूनी सलाह नहीं दी जा सकती। यानी UK क़ानून के तहत यह व्यवहारिक रूप से Anthropic को claims management company बना सकता है
    Financial Services and Markets Act 2000 (Regulated Activities) Order 2001 के article 89I के अनुसार, financial services या financial products से जुड़े claims में दावेदार या संभावित दावेदार को सलाह देना, claim की जाँच करना, या दावेदार का प्रतिनिधित्व करना—ये सब परिभाषित regulated activities हैं
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • अब तक तो AI कंपनियों को सीख लेना चाहिए था कि कानूनी क्षेत्र ऐसा स्थान नहीं है जहाँ लापरवाही से घुसा जाए। रिकॉर्ड ही काफ़ी है। लेकिन ये खास AI optimists मानो सीखने की क्षमता ही नहीं रखते

    • मुझे नहीं लगता कि इस क्षेत्र में खिलवाड़ बंद होगा। वकील महँगे होते हैं, इसलिए AI से उन्हें replace करने का संभावित लाभ बड़ा है। लेकिन कुछ लोग सोचते हैं कि AI कंपनियाँ वकीलों से प्रतिस्पर्धा करते हुए सीधे कानूनी सलाह देने लगेंगी; मुझे नहीं लगता वे कभी ऐसा करेंगी, क्योंकि वह liability का बारूदी मैदान है
      इसके बजाय वे law firms को AI services देंगी, ताकि law firms उन्हें अपनी कानूनी सेवाओं के हिस्से के रूप में इस्तेमाल करें। अच्छा हो या बुरा, यह पहले से हो रहा है, और लगभग सभी बड़े corporate law firms किसी-न-किसी रूप में AI का उपयोग कर रहे हैं। क्लाइंट भी इसकी माँग करते हैं। कानूनी क्षेत्र में AI उपयोग से समस्याएँ आती रहेंगी, लेकिन उनकी ज़िम्मेदारी आख़िरकार वकीलों पर ही आएगी
    • अगर उन पर जबरन liability नहीं थोपी जाती, तो यहाँ से मिलने वाला publicity value ही उनके लिए काफ़ी है। अच्छी स्थिति नहीं है
  • GitHub organization का नाम “Anthropics” होना काफ़ी भ्रामक लगता है