1 पॉइंट द्वारा GN⁺ 2026-03-05 | 1 टिप्पणियां | WhatsApp पर शेयर करें
  • आंध्र प्रदेश में एक निचली अदालत के जज द्वारा संपत्ति विवाद मामले में AI-जनित फर्जी निर्णय-पाठ का हवाला देने की बात सामने आई
  • सुप्रीम कोर्ट ने इसे ‘संस्थागत चिंता’ का मामला बताया और इसे सिर्फ निर्णय की गलती नहीं बल्कि ‘सेवा में दुराचार(misconduct)’ माना
  • संबंधित जज ने कहा कि उन्होंने पहली बार AI टूल का इस्तेमाल किया था और उन्हें लगा कि उद्धरण असली है, लेकिन सुप्रीम कोर्ट ने निचली अदालत के फैसले के प्रभाव पर रोक लगा दी
  • उस समय हाई कोर्ट ने जज की सद्भावना(good faith) को मानते हुए फैसला बरकरार रखा, लेकिन सुप्रीम कोर्ट ने AI उपयोग से जुड़े प्रक्रियात्मक मुद्दे को अधिक महत्व दिया
  • यह मामला न्यायिक प्रक्रिया पर AI के प्रभाव को उजागर करता है, और भारत के अलावा अमेरिका और ब्रिटेन में भी ऐसे मिलते-जुलते मामले सामने आ चुके हैं

मामले का सार

  • भारत का सुप्रीम Court आंध्र प्रदेश के विजयवाड़ा की एक निचली सिविल अदालत के जज द्वारा AI-जनित फर्जी मिसालों का हवाला देकर संपत्ति विवाद पर फैसला सुनाने के मामले की जांच कर रहा है
    • प्रतिवादी पक्ष की अपील के बाद मामला सुप्रीम Court तक पहुंचा
    • सुप्रीम Court ने इसे “न्यायिक प्रक्रिया की विश्वसनीयता और अखंडता पर सीधा असर डालने वाला मामला” बताया
  • संबंधित घटना अगस्त 2025 में हुई थी, और जज ने 4 पुरानी मिसालों का हवाला दिया था, लेकिन वे सभी AI द्वारा बनाए गए फर्जी दस्तावेज़ निकले

निचली अदालत और हाई कोर्ट का रुख

  • प्रतिवादी ने यह कहते हुए हाई Court में अपील की कि जिन मिसालों का हवाला दिया गया, वे फर्जी थीं
    • हाई Court ने माना कि जज से ‘सद्भावना में हुई गलती’ हुई
    • उसने फैसला बरकरार रखते हुए कहा, “यदि उद्धृत मिसालें मौजूद न भी हों, तब भी यदि कानूनी सिद्धांत का अनुप्रयोग सही है, तो फैसला रद्द करने का कारण नहीं बनता”
  • हाई Court ने जज से रिपोर्ट मांगी, और जज ने कहा कि उन्होंने पहली बार AI टूल का उपयोग किया था और स्वचालित रूप से तैयार सामग्री पर भरोसा किया
    • उन्होंने समझाया, “गलत उद्धरण देने या उसे तोड़-मरोड़कर पेश करने का मेरा कोई इरादा नहीं था; यह गलती स्वचालित स्रोतों पर निर्भरता का परिणाम थी”
  • हाई Court ने यह भी जोड़ा कि “कृत्रिम बुद्धिमत्ता से अधिक वास्तविक बुद्धिमत्ता के उपयोग की आवश्यकता है

सुप्रीम Court की प्रतिक्रिया

  • सुप्रीम Court ने निचली अदालत के फैसले पर तुरंत stay लगा दी और AI के उपयोग को साधारण त्रुटि नहीं बल्कि ‘सेवा में दुराचार’ बताया
    • उसने जोर देकर कहा, “यह मामला फैसले की सामग्री से अधिक न्यायिक प्रक्रिया और निर्णय-निर्माण की प्रक्रिया पर सवाल उठाता है”
  • सुप्रीम Court ने अटॉर्नी जनरल, सॉलिसिटर, और Bar Council of India को सूचित किया और मामले की आगे सुनवाई करने का फैसला किया

AI और न्यायिक प्रक्रिया का टकराव

  • भारत के सुप्रीम Court ने हाल में वकीलों द्वारा AI टूल की मदद से याचिकाएं तैयार करने के मामलों पर भी चिंता जताई है
    • कानूनी मीडिया LiveLaw के अनुसार, सुप्रीम Court ने कहा कि “ऐसे आचरण को किसी भी तरह से उचित नहीं ठहराया जा सकता”
  • भारत ही नहीं, अमेरिका और ब्रिटेन में भी AI उपयोग के कारण न्यायिक त्रुटियों के मामले सामने आए हैं
    • अक्टूबर 2025 में, अमेरिका में 2 संघीय जजों द्वारा AI के कारण गलत निर्णय-पाठ तैयार किए जाने की बात सामने आई
    • जून 2025 में, ब्रिटेन के हाई Court ने वकीलों को AI-जनित मिसालों के उपयोग के खिलाफ चेतावनी जारी की

भारतीय न्यायपालिका की AI प्रतिक्रिया

  • भारत के सुप्रीम Court ने 2025 में न्यायपालिका के भीतर AI उपयोग पर एक white paper प्रकाशित किया
    • इस white paper में AI उपयोग के दिशानिर्देश और best practices शामिल हैं
  • सुप्रीम Court ने human oversight और संस्थागत सुरक्षा उपायों को बनाए रखने के महत्व पर जोर दिया
  • यह मामला दिखाता है कि भारत की न्यायिक व्यवस्था AI अपनाने और उसके नियंत्रण के बीच संतुलन खोजने की प्रक्रिया में है

1 टिप्पणियां

 
GN⁺ 2026-03-05
Hacker News की राय
  • यह कहना कि AI इंसानों की जगह ले लेगा, शायद बढ़ा-चढ़ाकर कहा गया है
    आखिरकार जवाबदेही लेने वाला इंसान अभी भी ज़रूरी है, और जब समस्या होती है तो किसी न किसी को नौकरी से निकाला जाता है या जेल जाना पड़ता है
    AI productivity बढ़ा सकता है, लेकिन ऐसा सिस्टम जिसमें इंसान पूरी तरह बाहर हो, उसके आपदा या मुकदमे में बदलने की संभावना बहुत ज़्यादा है
    इसी वजह से कंपनियों को वह ROI नहीं दिख रहा जिसकी उन्हें उम्मीद थी
    वास्तव में, जिन मामलों में “AI की वजह से productivity बढ़ी” कहकर लोगों को निकाला गया, उनमें ज़्यादातर बस खराब प्रदर्शन छिपाने का बहाना था

    • वकील या डॉक्टर जैसे पेशे, जहाँ कानूनी योग्यता ज़रूरी होती है, इसका और भी साफ उदाहरण हैं
      अगर AI को सिर्फ एक tool की तरह इस्तेमाल किया जाए तो ज़िम्मेदारी उपयोगकर्ता की है, और अगर AI को “किसी दूसरे व्यक्ति का काम” मानकर लिया जाए तो वह अयोग्य व्यक्ति को काम सौंपना होगा, इसलिए गलती अंततः उपयोगकर्ता की ही मानी जाएगी
    • बचपन में मैं अक्सर “कंप्यूटर क्रैश हो गया” जैसी बात सुनता था, लेकिन असल में वह किसी इंसान की coding गलती होती थी
      फिर भी उस व्यक्ति को ज़िम्मेदार ठहराते हुए मैंने शायद ही कभी देखा हो
    • AI के इस्तेमाल में भी hygiene की अवधारणा होनी चाहिए
      LLM द्वारा बनाए गए टेक्स्ट को Unicode के अलग ब्लॉक में दिखाना चाहिए ताकि यह साफ रहे कि वह AI-जनित है
      इसे छिपाना या बदलना वैसा ही है जैसे कोई डॉक्टर हाथ धोए बिना सर्जरी करे
    • सच तो यह है कि जज भी कई बार गलत फ़ैसलों के लिए जवाबदेह नहीं ठहराए जाते
      “checks and balances” की बात होती है, लेकिन न्यायपालिका मानो अपवाद है
    • कंपनियों को AI से ROI न मिलने की एक वजह यह भी हो सकती है कि कर्मचारी अपने personal account से AI इस्तेमाल कर रहे हैं, इसलिए efficiency का फायदा खुद रख लेते हैं
      MIT की एक रिपोर्ट के अनुसार भी ज़्यादातर कर्मचारी कंपनी अकाउंट के बजाय personal account से AI इस्तेमाल करते हैं
  • “automated source पर निर्भर रहने से हुई गलती” जैसा बहाना नहीं चलेगा
    किसी भी पेशे में LLM से automation करने पर ज़िम्मेदारी expert की ही होती है
    यह कहना कि tool की जानकारी नहीं थी, इसलिए tool की गलती है — कानूनी रूप से भी टिकता नहीं

    • LLM का उपयोग दरअसल सस्ते outsourcing का ही नया version है
      जैसे पहले certified engineer सिर्फ outsourced काम पर हस्ताक्षर कर देता था, वैसे ही अब सब कुछ और सस्ता और तेज़ करने के चक्कर में safeguards गायब होते जा रहे हैं
      LLM इस गिरावट की वजह नहीं, बल्कि उसका खुला हुआ रूप है
      मुझे भी AI पसंद है, लेकिन जिम्मेदार उपयोग ज़रूरी है
    • इरादा महत्वपूर्ण है
      गलती और जानबूझकर किए गए काम को कानून में अलग तरह से देखा जाना चाहिए
    • सिर्फ इंसानों को दोष देने से समाधान नहीं होगा
      अगर ऐसी घटनाएँ बार-बार हों, तो tool को ही समायोजित करना होगा
      हर बार उपयोगकर्ता को गलत कह देने से काम नहीं चलेगा; अगर वही समस्या बार-बार सिस्टम स्तर पर लौटती है, तो आखिरकार यह tool के design की समस्या है
    • LLM की hallucination समस्या पहले से ही व्यापक रूप से जानी-पहचानी है
      अगर कोई यह कहे कि उसे पता नहीं था, तो वह या तो आलसी है या अयोग्य
  • सोचता हूँ कि वकीलों को कब समझ आएगा कि LLM जो कहता है उसे खुद verify करना ज़रूरी है

    • ज़्यादातर लोग आखिरकार verify करना बंद कर देते हैं
      self-driving car की तरह “ज़रूरत पड़ने पर ही दखल दो” वाला ढाँचा इंसानी ध्यान की सीमाओं की वजह से विफल होना तय है
      “इंसानों को और सावधानी से जाँचना चाहिए” वाला तरीका व्यवहार में काम नहीं करता
    • लोग LLM पर उसकी आत्मविश्वास से भरी बोलने की शैली की वजह से अनजाने में भरोसा करने लगते हैं
      यही सबसे खतरनाक बात है
    • सच कहें तो LLM बस समाज कितना पतित हो चुका है उसका आईना लगता है
    • ऐसी घटनाएँ खबरों में बस कुछ ही दिखती हैं, लेकिन वास्तव में हर कोई ऐसी ही गलतियाँ कर रहा हो, इसकी संभावना काफ़ी है
    • इस हफ्ते मैंने academic paper citations को trace किया, और 25% पूरी तरह गढ़े हुए थे, जबकि बाकी आधे भी गलत निकले
      यह सिर्फ वकीलों की समस्या नहीं है
  • सुप्रीम कोर्ट का यह कहना प्रभावशाली लगा कि “artificial intelligence की जगह real intelligence का इस्तेमाल करो

  • अंततः लगता है कि fake citations से भरे papers और बढ़ेंगे
    अगर AI ऐसे material पर train हुआ, तो इंटरनेट पर असली जानकारी से ज़्यादा hallucinated जानकारी होने का खतरा है

  • अमेरिका और ब्रिटेन में भी यही समस्या है
    वकील तकनीक में कमज़ोर होते हैं, इसलिए chatbot द्वारा बनाए गए दस्तावेज़ों को खुद edit करते समय गलतियाँ होना लगभग तय है
    इस पर संबंधित उदाहरण Doughty Street रिपोर्ट में भी दिए गए हैं

  • कानूनी व्यवस्था खुद बहुत ज़्यादा अनावश्यक boilerplate पैदा करती है
    वकील भी सब कुछ पूरा नहीं पढ़ते, बस ज़रूरी हिस्सों पर नज़र डालते हैं
    AI का गैर-जिम्मेदाराना उपयोग समस्या है, लेकिन यह कानूनी दस्तावेज़ों की संरचना को सरल बनाने का मौका भी हो सकता है
    कानून code जैसा नहीं है, लेकिन बेहद जटिल संरचना में सुधार की गुंजाइश है

    • कानूनी भाषा में अस्पष्टता हटाने के लिए सटीक अभिव्यक्ति ज़रूरी होती है
      अगर इसे ज़्यादा सरल बनाया जाए, तो व्याख्या की गुंजाइश बढ़ सकती है और विवाद भी बढ़ेंगे
      legalese आखिरकार संदेह कम करने का एक साधन है
    • कानूनी दस्तावेज़ ऐसे लगते हैं जैसे बार-बार layer चढ़ाए गए code
      मूलभूत simplification के बिना बस सजावट जुड़ती गई है
  • यह समस्या हर industry में बढ़ेगी
    मैं fintech क्षेत्र में countermeasures पर काम कर रहा हूँ, और Resemble AI का approach सबसे practical लगता है
    सिर्फ टेक्स्ट ही नहीं, AI voice cloning detection और watermarking भी मुख्य हैं
    लगातार पीछा करते हुए जवाब देना पड़ रहा है, और यह आसान नहीं है

  • “automated source पर निर्भर रहने से हुई गलती” जैसा बहाना ऐसा है जैसे
    “बंदूक automatic थी, इसलिए किसी की मौत मेरी गलती नहीं”

  • next-token prediction और hallucination सिर्फ साधारण bug नहीं हैं
    जिन क्षेत्रों में reliability और integrity महत्वपूर्ण हैं, वहाँ ऐसी समस्याओं को यूँ ही छोड़ देना बेहद खतरनाक है