क्या हमें ऑटोमेटिड जस्टिस के विरुद्ध अधिकार की आवश्यकता है? कानूनी AI युग में मानवीय निगरानी का पक्षधर बनिए

LiveLaw News Network

30 July 2025 11:56 AM IST

  • क्या हमें ऑटोमेटिड जस्टिस के विरुद्ध अधिकार की आवश्यकता है? कानूनी AI युग में मानवीय निगरानी का पक्षधर बनिए

    जिस गति से कृत्रिम बुद्धिमत्ता हमारी न्यायिक प्रणालियों में प्रवेश कर रही है, वह आश्चर्यजनक और परिवर्तनकारी दोनों है। जिसे कभी काल्पनिक माना जाता था; कानूनी अनुसंधान करने, मसौदा आदेश तैयार करने, पूर्व केस डेटा के आधार पर परिणामों की भविष्यवाणी करने वाला एआई अब पायलट परियोजनाओं, अनुसंधान प्रोटोटाइप और यहां तक कि व्यावसायिक उपकरणों में भी आम होता जा रहा है। स्वचालित दस्तावेज़ समीक्षा और प्राथमिकता निर्धारण तंत्र से लेकर सज़ा की सिफ़ारिशों में सहायता करने या एल्गोरिदम के माध्यम से मुआवज़े की गणना करने में सक्षम अधिक उन्नत प्रणालियों तक, एआई अब भविष्य के विमर्श तक सीमित नहीं है, बल्कि आज कानूनी कार्यप्रवाह को आकार देने वाली एक वास्तविकता बन गई है।

    न्यायिक व्यवहार और उभरती कानूनी तकनीकों का वर्तमान प्रतिच्छेदन एक ऐसा क्षण प्रस्तुत करता है जो नवाचार के प्रति खुलेपन और कार्यान्वयन में सावधानी दोनों की मांग करता है। न्यायिक दक्षता बढ़ाने, लंबित मामलों को कम करने और कानूनी संसाधनों तक पहुंच का विस्तार करने में एआई की क्षमता निर्विवाद है। यह बोझ से दबे न्यायाधीशों को बार-बार के कार्यों से मुक्त कर सकता है, कानूनी सहायता उपकरणों के माध्यम से वादियों को सशक्त बना सकता है, और कम से कम सैद्धांतिक रूप से प्रणाली को अधिक समावेशी बना सकता है।

    फिर भी, इस तकनीकी आशावाद के बीच एक बढ़ती हुई बेचैनी छिपी है। वही विशेषताएं जो एआई को शक्तिशाली बनाती हैं - उसकी गति, निरंतरता और डेटा-आधारित भविष्यवाणियां - निष्पक्षता, पारदर्शिता और मानवीय विवेक के बारे में बुनियादी सवाल भी उठाती हैं। जब एल्गोरिदम कानूनी नतीजों को प्रभावित करने लगते हैं, या उससे भी बदतर, उन्हें निर्धारित करने लगते हैं, तो हमें रुककर पूछना चाहिए: क्या हम उस काम के लिए तैयार हैं जो हम सौंप रहे हैं?

    उससे भी ज़्यादा महत्वपूर्ण: क्या हमें पूरी तरह से स्वचालित न्याय के विरुद्ध एक संवैधानिक सुरक्षा, एक अधिकार की बात करनी शुरू करनी चाहिए?

    मैं स्पष्ट कर दूं कि यह एआई को अस्वीकार करने का आह्वान नहीं है। वास्तव में, जब एआई को ज़िम्मेदारी से एकीकृत किया जाता है, तो यह कानूनी पहुंच को बढ़ाने, नियमित कार्यों को सुव्यवस्थित करने और मसौदा तैयार करने व डेटा विश्लेषण में सहायता करने में एक परिवर्तनकारी भूमिका निभा सकता है। हालांकि, मुख्य शब्द सहायता करना है। जब हम मुख्य न्यायिक कार्यों में मानवीय तर्क को मशीन-जनित परिणामों से बदलने की बात करते हैं, तो वृद्धि और त्याग के बीच की रेखा खतरनाक रूप से धुंधली हो जाती है।

    "स्वचालित न्याय" क्या है?

    इस संदर्भ में, स्वचालित न्याय, कृत्रिम बुद्धिमत्ता प्रणालियों के उपयोग को संदर्भित करता है जो न्यूनतम या बिना किसी मानवीय हस्तक्षेप के कानूनी परिणामों को उत्पन्न या महत्वपूर्ण रूप से प्रभावित करती हैं। इन प्रणालियों को निर्णयों की अनुशंसा करने, संभावित परिणामों की भविष्यवाणी करने, या ऐतिहासिक कानूनी आंकड़ों के पैटर्न के आधार पर मसौदा या अंतिम आदेश तैयार करने के लिए डिज़ाइन किया जा सकता है। उदाहरण के लिए, एक एआई उपकरण पिछले मामलों की विशेषताओं के आधार पर ज़मानत दिए जाने की संभावना का अनुमान लगा सकता है, या न्यायिक विवेक या संदर्भ-संवेदनशील समायोजनों के लिए जगह छोड़े बिना दिव्यांगता प्रतिशत और निश्चित गुणकों से जुड़े पूर्वनिर्धारित सूत्रों का उपयोग करके चोट के मामलों में मुआवजे की गणना कर सकता है।

    हालांकि ऐसे उपकरणों को अक्सर कुशल और सुसंगत के रूप में प्रचारित किया जाता है, लेकिन वे निष्पक्षता और जवाबदेही के बारे में गंभीर चिंताएं पैदा करते हैं। जब कोई प्रणाली एक ब्लैक बॉक्स की तरह काम करती है और कोई सार्थक स्पष्टीकरण नहीं देती है जिसे वादी समझ सके, प्रश्न कर सके या चुनौती दे सके, तो यह उचित प्रक्रिया के मूल सिद्धांत को नष्ट करने का जोखिम उठाती है। केवल दक्षता ही उन निर्णयों को उचित नहीं ठहरा सकती जिनमें पारदर्शिता, तर्क या मानवीय निगरानी की संभावना का अभाव हो।

    कानून गणित नहीं है: संदर्भ, सूक्ष्मता और विवेक की आवश्यकता

    कानूनी प्रावधान शून्य में काम नहीं करते; उनका अनुप्रयोग अक्सर कई प्रासंगिक कारकों पर निर्भर करता है। 45% स्थायी दिव्यांगता जैसी परिमाणित हानि के परिणामस्वरूप व्यक्ति के व्यवसाय, कमाई की क्षमता, आयु और सामाजिक-आर्थिक पृष्ठभूमि के आधार पर बहुत भिन्न मुआवज़ा परिणाम हो सकते हैं। इसी प्रकार, एफआईआर दर्ज करने में देरी जैसे प्रक्रियात्मक तत्वों को आसपास की परिस्थितियों के आधार पर एक मामले में उचित और दूसरे में हानिकारक माना जा सकता है। ये एकसमान आंकड़े नहीं हैं। ये जीवित वास्तविकताओं को दर्शाते हैं जिनके लिए व्याख्यात्मक निर्णय, नैतिक तर्क और मानवीय जटिलता की समझ की आवश्यकता होती है। हालांकि एआई प्रणालियां आवर्ती पैटर्न की प्रभावी रूप से पहचान कर सकती हैं या कुछ प्रक्रियात्मक पहलुओं में एकरूपता सुनिश्चित कर सकती हैं, लेकिन वे न्याय के सूक्ष्म, परिस्थितिजन्य और अक्सर भावनात्मक रूप से आवेशित आयामों को समझने में सक्षम नहीं हैं। वे संरचनात्मक सहायता प्रदान कर सकते हैं, लेकिन वे कानूनी न्यायनिर्णयन की मांग वाले विचारशील, मानव-केंद्रित तर्क का अनुकरण नहीं कर सकते।

    संवैधानिक आधार: अनुच्छेद 14 और 21

    भारतीय संविधान व्यक्तिगत अधिकारों की रक्षा के लिए एक मजबूत ढांचा प्रदान करता है, विशेष रूप से अनुच्छेद 14 के माध्यम से, जो कानून के समक्ष समानता और मनमाने व्यवहार से सुरक्षा की गारंटी देता है, और अनुच्छेद 21, जो जीवन और व्यक्तिगत स्वतंत्रता के अधिकार को समाहित करता है। न्यायिक व्याख्याओं ने अनुच्छेद 21 का विस्तार करते हुए इसमें निष्पक्ष, न्यायसंगत और उचित प्रक्रिया का अधिकार भी शामिल कर दिया है, जो भारतीय उचित प्रक्रिया न्यायशास्त्र की आधारशिला है।

    मेनका गांधी बनाम भारत संघ 1978 SCC (1) 748 और सेल्वी बनाम कर्नाटक राज्य 2010 SCC (7) 263 जैसे ऐतिहासिक निर्णयों ने इस बात को पुष्ट किया है कि राज्य की कार्रवाइयां विशेष रूप से विशेष रूप से, स्वतंत्रता या न्याय तक पहुंच को प्रभावित करने वालों को न केवल प्रक्रियात्मक औपचारिकता का पालन करना होगा, बल्कि वास्तविक निष्पक्षता और पारदर्शिता का भी पालन करना होगा। ये निर्णय इस बात पर ज़ोर देते हैं कि न्याय तर्कसंगत, व्याख्या योग्य और प्रभावित लोगों के लिए सुलभ होना चाहिए।

    इस संदर्भ में, न्यायिक प्रक्रियाओं में एआई उपकरणों का प्रयोग महत्वपूर्ण संवैधानिक प्रश्न उठाता है। यदि स्वतंत्रता, संपत्ति या व्यक्तिगत अधिकारों से संबंधित निर्णय स्वचालित प्रणालियों के माध्यम से लिए जाते हैं जिनमें पारदर्शिता या सार्थक चुनौती के अवसर नहीं हैं, तो अनुच्छेद 14 और 21 के मूलभूत सिद्धांतों से समझौता हो सकता है। मानवीय स्पष्टीकरण या विवेक की संभावना के बिना, मशीन द्वारा उत्पन्न न्याय, अपारदर्शी और दुर्गम होने का जोखिम उठाता है।

    न्यायिक तर्क केवल एक निष्कर्ष नहीं है। यह एक ऐसी प्रक्रिया है जो जांच के लिए खुली होनी चाहिए, समझी जा सकने योग्य होनी चाहिए और संदर्भ में आधारित होनी चाहिए। एक एआई मॉडल की जिरह नहीं की जा सकती। एक एल्गोरिथम नैतिक बारीकियों का मूल्यांकन नहीं कर सकता। एक संवैधानिक लोकतंत्र में कानूनी परिणामों की वैधता को बनाए रखने के लिए ये कार्य आवश्यक हैं।

    एआई में निष्पक्षता का भ्रम

    कृत्रिम बुद्धिमत्ता के सबसे सम्मोहक, लेकिन संभावित रूप से भ्रामक वादों में से एक "निष्पक्षता" का दावा है। एआई प्रणालियों को अक्सर तटस्थ उपकरणों के रूप में चित्रित किया जाता है जो निर्णय लेने से मानवीय पूर्वाग्रहों को दूर करते हैं। हालांकि, व्यवहार में, ये प्रणालियां उतनी ही विश्वसनीय होती हैं जितना कि वे जिस डेटा पर प्रशिक्षित होती हैं। यदि अंतर्निहित डेटासेट जाति, लिंग, वर्ग या समुदाय पर आधारित ऐतिहासिक या प्रणालीगत पूर्वाग्रहों को दर्शाते हैं, तो निष्पक्षता के आवरण में एल्गोरिथम द्वारा उन्हीं पैटर्नों को पुन: प्रस्तुत किया जा सकता है, और यहां तक कि उन्हें मजबूत भी किया जा सकता है।

    इसके अलावा, एआई प्रणालियां स्थिर नहीं होतीं। प्रासंगिक और सामाजिक रूप से निष्पक्ष बने रहने के लिए उन्हें निरंतर अद्यतन, निगरानी और पुनर्सत्यापन की आवश्यकता होती है। नियमित ऑडिट और पुनर्संयोजन के बिना, एक बड़ा जोखिम है कि पुराना या विकृत डेटा अंतर्निहित सामाजिक वास्तविकताओं के बदलने के लंबे समय बाद भी कानूनी परिणामों को प्रभावित करता रहेगा।

    अंतर्राष्ट्रीय अनुभव ने इन चिंताओं की पुष्टि की है। संयुक्त राज्य अमेरिका में, पुनरावृत्ति की भविष्यवाणी करने और ज़मानत संबंधी निर्णयों की सूचना देने के लिए इस्तेमाल किए जाने वाले सीओएमपीएएस जैसे उपकरण, हाशिए पर पड़े समुदायों के व्यक्तियों को असमान रूप से चिह्नित करते पाए गए हैं, जिससे मौजूदा असमानताएं और बढ़ गई हैं। भारत जैसे देश में, जहां संरचनात्मक असमानताएं गहराई से समाहित हैं, ऐसी प्रणालियों को बिना किसी आलोचना के अपनाने के और भी गंभीर परिणाम हो सकते हैं।

    एआई क्या कर सकता है: सहायता प्राप्त न्याय का मामला

    कानूनी प्रणालियों में AI के एकीकरण को स्वाभाविक रूप से समस्याग्रस्त नहीं माना जाना चाहिए। बल्कि, इसके विकास और कार्यान्वयन को निर्देशित करने के लिए नैतिक, संवैधानिक और प्रक्रियात्मक सुरक्षा-व्यवस्था की स्थापना की आवश्यकता है। AI को न्यायिक विवेक के प्रतिस्थापन के रूप में नहीं, बल्कि न्यायिक कार्यप्रणाली को ज़िम्मेदारी से बढ़ाने की क्षमता वाले एक उपकरण के रूप में देखा जाना चाहिए।

    व्यवहार में, बड़े भाषा मॉडल जैसी AI प्रणालियां तथ्यात्मक मैट्रिक्स की संरचना करने, कानूनी दस्तावेज़ों के लिए मसौदा टेम्पलेट तैयार करने, या कानूनी तर्क की संभावित रेखाओं को रेखांकित करने में सार्थक सहायता प्रदान कर सकती हैं। पारदर्शिता, जवाबदेही और मानवीय निगरानी को ध्यान में रखकर डिज़ाइन किए जाने पर, ऐसे उपकरण देरी को कम करने, निरंतरता बढ़ाने और न्याय तक पहुंच का विस्तार करने में मदद कर सकते हैं।

    हालांकि, एक स्पष्ट अंतर बनाए रखा जाना चाहिए: इन तकनीकों को सहायक तंत्र के रूप में कार्य करना चाहिए, न कि मानवीय निर्णय लेने के विकल्प के रूप में। कानून की व्याख्या करने, साक्ष्यों का मूल्यांकन करने और विवेकाधिकार का प्रयोग करने की ज़िम्मेदारी मानव निर्णायक के पास ही रहनी चाहिए। न्यायिक परिणामों की अखंडता और वैधता बनाए रखने के लिए इस सीमा को बनाए रखना आवश्यक है।

    हमें कहां रेखा खींचनी चाहिए

    हालांकि कानूनी कार्यप्रवाहों को समर्थन देने में एआई के लाभ स्पष्ट हैं, न्याय प्रणाली के भीतर कुछ ऐसे क्षेत्र हैं जहां स्वचालन को अत्यंत सावधानी से अपनाया जाना चाहिए या पूरी तरह से टाला जाना चाहिए। जब कानूनी निर्णय व्यक्तिगत स्वतंत्रता, शारीरिक स्वायत्तता, परिवार कल्याण, या व्यक्ति की गरिमा जैसे मौलिक अधिकारों को प्रभावित करते हैं, तो कानूनी प्रक्रिया प्रक्रियात्मक औपचारिकता से आगे बढ़कर मानवीय क्षेत्र में गहराई से प्रवेश करती है।

    अग्रिम ज़मानत, पैरोल, गलत तरीके से हुई मृत्यु या दिव्यांगता के लिए मुआवज़ा, बाल कस्टडी विवाद, या आपराधिक मामलों के निष्कर्षों से जुड़े मामलों में अक्सर आघात, भेद्यता और नैतिक जटिलताएं शामिल होती हैं। ये केवल तकनीकी अभ्यास नहीं हैं; इनके लिए संवेदनशीलता, प्रासंगिक समझ और मानवीय पीड़ा का ऐसे तरीके से जवाब देने की क्षमता की आवश्यकता होती है जिसे कोई भी एल्गोरिदम, चाहे कितना भी उन्नत क्यों न हो, दोहरा नहीं सकता।

    ऐसे मामलों में, एक पूरी तरह से स्वचालित प्रक्रिया, जीवित अनुभवों को अमूर्त इनपुट और कानूनी प्रश्नों को कम्प्यूटेशनल तर्क में बदलने का जोखिम उठाती है। एआई सहसंबंधों की पहचान करने में सक्षम हो सकता है, लेकिन यह गवाह की आवाज़ में झिझक, देरी के भावनात्मक प्रभाव या मौन के अनकहे महत्व को नहीं समझ सकता। यह दर्द की विश्वसनीयता या कानूनी दावे के पीछे छिपी वास्तविकताओं का आकलन नहीं कर सकता।

    इन कारणों से, मानव गरिमा के मूल पहलुओं को प्रभावित करने वाली प्रणालियों को ह्युमन-इन-द-लूप के रूप में डिज़ाइन किया जाना चाहिए जहां एआई एक सहायक इनपुट के रूप में, लेकिन अंतिम निर्णायक के रूप में कभी नहीं। इन संदर्भों में मानवीय निगरानी बनाए रखना न केवल उचित है; बल्कि तर्कसंगत, सहानुभूतिपूर्ण और निष्पक्ष न्याय के संवैधानिक वादे को कायम रखने के लिए भी यह अपरिहार्य है।

    स्वचालित न्याय के विरुद्ध अधिकार का मामला

    न्यायिक संदर्भों में एआई के बढ़ते उपयोग के मद्देनजर, एक संवैधानिक सुरक्षा उपाय के निर्माण पर विचार करना अनिवार्य है, जिसे स्वचालित न्याय के विरुद्ध अधिकार कहा जा सकता है। ऐसा अधिकार न्यायिक प्रक्रियाओं में एआई के एकीकरण को प्रतिबंधित नहीं करेगा, बल्कि ऐसे अपरक्राम्य मानदंड स्थापित करेगा जो फैसले की अखंडता, निष्पक्षता और पारदर्शिता को बनाए रखें।

    मूल रूप से, यह सुरक्षा उपाय यह सुनिश्चित करेगा कि कोई भी कानूनी निर्णय, विशेष रूप से मौलिक अधिकारों को प्रभावित करने वाले निर्णय, पूरी तरह से एक स्वचालित प्रणाली द्वारा नहीं लिए जाएंगे। जहां भी एआई उपकरणों का उपयोग किया जाता है, चाहे मसौदा तैयार करने में सहायता के लिए, तथ्यात्मक पैटर्न का विश्लेषण करने के लिए, या प्रारंभिक आकलन प्रस्तुत करने के लिए, सभी संबंधित पक्षों को ऐसे उपयोग के बारे में स्पष्ट रूप से सूचित किया जाना चाहिए। इसके अलावा, किसी भी एआई-जनित सामग्री की सार्थक मानवीय समीक्षा की जानी चाहिए, जिसकी आवश्यकतानुसार जांच, व्याख्या और संशोधन किया जा सके। परिणाम की अंतिम ज़िम्मेदारी हमेशा मानव निर्णयकर्ता की ही होनी चाहिए।

    यह केवल एक प्रक्रियात्मक आवश्यकता नहीं है, बल्कि इस सिद्धांत का एक ठोस संरक्षण है कि न्याय तर्कसंगत, प्रासंगिक और जवाबदेह होना चाहिए। तकनीकी नवाचार में बाधा डालने के बजाय, ऐसा अधिकार उभरते उपकरणों को मूलभूत संवैधानिक मूल्यों के साथ संरेखित करने का काम करेगा। यह मानवीय निगरानी के क्रमिक क्षरण को रोकेगा और यह सुनिश्चित करेगा कि एआई को अपनाना पारदर्शी, नैतिक और संवैधानिक रूप से अनुपालनीय बना रहे।

    अंतर्राष्ट्रीय नियामक विकास इसी दिशा में संकेत दे रहे हैं। 2024 में अपनाया गया यूरोपीय संघ का एआई अधिनियम, न्यायिक संदर्भों में एआई अनुप्रयोगों को "उच्च-जोखिम" (अनुलग्नक III, धारा 5c) के रूप में वर्गीकृत करता है। कानून के अनुसार, कानूनी निर्णय लेने में सहायता के लिए उपयोग की जाने वाली एआई प्रणालियां कठोर सुरक्षा उपायों, विशेष रूप से मानवीय निगरानी और अंतिम नियंत्रण के अधीन होनी चाहिए। अधिनियम का अनुच्छेद 14 यह अनिवार्य करता है कि कानूनी परिणामों की ज़िम्मेदारी हमेशा एक व्यक्ति के पास रहे, जिससे पूरी तरह से स्वचालित न्यायिक निर्णयों पर रोक लग जाती है।

    चूंकि दुनिया भर की न्यायिक प्रणालियां समान चुनौतियों का सामना कर रही हैं, इसलिए भारत जैसे मज़बूत संवैधानिक आधार वाले न्यायक्षेत्रों के लिए यह एक उपयुक्त अवसर है कि वे अधिकार-आधारित ढांचे तैयार करने में अग्रणी भूमिका निभाएं जो तकनीकी प्रगति और लोकतांत्रिक जवाबदेही दोनों को बनाए रखें।

    मशीनों के साथ मानव भविष्य

    कानूनी तकनीक का प्रक्षेप पथ न्यायिक प्रणालियों में एआई के बढ़ते एकीकरण की ओर इशारा करता है। यह विकास अपने साथ दक्षता, निरंतरता और कानूनी संसाधनों तक विस्तारित पहुंच के महत्वपूर्ण अवसर लेकर आता है। बुद्धिमान मसौदा तैयार करने वाले सहायक, विचाराधीन मामलों के लिए स्वचालित ट्राइएज उपकरण और एआई-आधारित कानूनी सहायता डेस्क कुछ उदाहरण हैं कि कैसे तकनीक न्याय प्रदान करने की प्रक्रिया में सहायता कर सकती है।

    हालांकि, जैसे-जैसे एआई उपकरण अधिक परिष्कृत होते जा रहे हैं, यह आवश्यक है कि उनका डिज़ाइन और उपयोग एक स्पष्ट नैतिक और संवैधानिक ढांचे द्वारा निर्देशित हो। तकनीकी प्रगति पारदर्शिता, जवाबदेही, सहानुभूति और प्रक्रियात्मक निष्पक्षता जैसे मूल न्यायिक मूल्यों की कीमत पर नहीं आनी चाहिए। कानूनी न्यायनिर्णयन एक लेन-देन संबंधी कार्य नहीं है। यह एक सुविचारित प्रक्रिया है जिसमें कानून के अक्षर और न्याय की भावना, दोनों प्रतिबिंबित होने चाहिए।

    हमें यह सुनिश्चित करना होगा कि एआई न्याय प्रदान करे, न कि उसका स्थान ले ले।

    हमें याद रखना चाहिए: न्याय कोई उत्पाद नहीं है। यह एक प्रक्रिया है। और यह प्रक्रिया जवाबदेह, पारदर्शी और अंततः मानवीय होनी चाहिए।

    न्याय को डाउनलोड नहीं किया जा सकता। और स्वतंत्रता को आउटसोर्स नहीं किया जा सकता।

    शायद अब समय आ गया है कि हम एक नए संवैधानिक सुरक्षा उपाय को मान्यता दें: स्वचालित न्याय के विरुद्ध अधिकार।

    लेखिका- हर्षाली चौधरी एक न्यायिक अधिकारी और कृत्रिम बुद्धिमत्ता एवं मशीन लर्निंग में डॉक्टरेट शोधकर्ता हैं। विचार उनके निजी हैं।

    Next Story