AI से बने फर्जी फ़ैसलों का इस्तेमाल: सुप्रीम कोर्ट ने BCI से इस मुद्दे की जांच के लिए एक्सपर्ट पैनल बनाने को कहा
सुप्रीम कोर्ट ने बार काउंसिल ऑफ़ इंडिया (BCI) से कहा कि वह एक एक्सपर्ट कमेटी बनाए, जिसमें इस क्षेत्र के विशेषज्ञ भी शामिल हों, ताकि कोर्ट की कार्यवाही में आर्टिफिशियल इंटेलिजेंस (AI) के इस्तेमाल से पैदा होने वाले मुद्दों की जांच की जा सके। यह मामला तब सामने आया, जब ट्रायल कोर्ट ने एक मुक़दमेबाज़ द्वारा बताए गए ऐसे फ़ैसलों पर भरोसा कर लिया, जिनका असल में कोई वजूद ही नहीं था।
जस्टिस पी.एस. नरसिम्हा और जस्टिस आलोक अराधे की बेंच ने कहा कि कमेटी को अपनी रिपोर्ट सौंपनी चाहिए। साथ ही यह भी साफ़ किया कि इस चरण पर कोई औपचारिक आदेश जारी नहीं किया जा रहा है।
कोर्ट एक SLP (विशेष अनुमति याचिका) पर सुनवाई कर रहा था, जिसमें निषेधाज्ञा (Injunction) से जुड़े एक मुक़दमे में ट्रायल कोर्ट के आदेश को चुनौती दी गई। ट्रायल कोर्ट ने एडवोकेट कमिश्नर की रिपोर्ट पर उठाई गई आपत्तियों को ख़ारिज किया और चार ऐसे फ़ैसलों पर भरोसा किया, जिन्हें कथित तौर पर Subramani v. M. Natarajan (2013) 14 SCC 95, Ramasamy (1071) 2 SCC 68, Chidambaram Pillai v. SAL Lakshmi Devi v. K. Prabha (2006) 5 SCC 551 और Gajanan v. Ramdas (2015) 6 SCC 223 के रूप में रिपोर्ट किया गया।
याचिकाकर्ताओं ने इस आदेश को इस आधार पर चुनौती दी कि जिन फ़ैसलों का ज़िक्र किया गया, उनका कोई वजूद नहीं था और उन्हें आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करके बनाया गया। हाईकोर्ट ने यह देखने के बाद कि ये फ़ैसले AI द्वारा बनाए गए, मामले का फ़ैसला उसके गुण-दोष के आधार पर किया और एक चेतावनी जारी करते हुए सिविल रिवीज़न याचिका ख़ारिज की।
जब यह मामला सुप्रीम कोर्ट पहुंचा तो कोर्ट ने यह टिप्पणी की कि जिन फ़ैसलों का कोई वजूद नहीं है और जिन्हें AI ने बनाया, उन पर भरोसा करना सिर्फ़ फ़ैसला लेने में हुई कोई ग़लती नहीं है, बल्कि यह एक तरह का दुराचार (Misconduct) माना जाएगा और इसके क़ानूनी नतीजे भुगतने होंगे।
कोर्ट ने अटॉर्नी जनरल, सॉलिसिटर जनरल और बार काउंसिल ऑफ़ इंडिया को नोटिस जारी करते हुए और श्याम दीवान को एमिक्स क्यूरी (न्याय मित्र) नियुक्त करते हुए कहा,
"शुरुआत में ही हम यह साफ़ कर देना चाहते हैं कि ऐसे फ़ैसलों पर आधारित कोई भी निर्णय, जिनका कोई वजूद नहीं है और जो कथित तौर पर नकली हैं, फ़ैसला लेने में हुई कोई साधारण ग़लती नहीं है। इसे दुराचार माना जाएगा और इसके क़ानूनी नतीजे ज़रूर भुगतने होंगे।"
सुनवाई के दौरान, कोर्ट ने इस बात पर ज़ोर दिया कि न्यायिक कार्यवाही में जवाबदेही और ईमानदारी (Integrity) होनी चाहिए। कोर्ट ने टिप्पणी करते हुए कहा कि मुक़दमेबाज़ सिर्फ़ AI द्वारा तैयार की गई सामग्री पर भरोसा करके बाद में उसके लिए माफ़ी नहीं मांग सकते। इसमें यह भी कहा गया कि इसी तरह की चिंताएं तब भी पैदा होती हैं, जब जज की तरफ़ से की गई रिसर्च में ऐसे फ़ैसलों का हवाला दिया जाता है, जो असल में मौजूद ही नहीं हैं; और कोर्ट ने पूछा कि यह सुनिश्चित करने की ज़िम्मेदारी किसकी है।
कोर्ट ने सॉवरेन लार्ज लैंग्वेज मॉडल्स की कमी और 'हैलुसिनेशन' (गलत जानकारी) के जोखिम को लेकर चिंताएं ज़ाहिर कीं। कोर्ट ने साफ़ किया कि वह आर्टिफिशियल इंटेलिजेंस के इस्तेमाल पर रोक नहीं लगाना चाहता।
अटॉर्नी जनरल आर. वेंकटरमणी ने कोर्ट को बताया कि इस मुद्दे पर अपनी राय रखने से पहले वह इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय से बातचीत करेंगे।
एमिक्स क्यूरी (कोर्ट के सलाहकार) सीनियर एडवोकेट श्याम दीवान ने कोर्ट को बताया कि सुप्रीम कोर्ट के 'सेंटर फॉर रिसर्च एंड प्लानिंग' ने न्यायपालिका में आर्टिफिशियल इंटेलिजेंस पर 'व्हाइट पेपर' तैयार किया, जिसमें कई सिफ़ारिशें और दिशा-निर्देश शामिल हैं। उन्होंने कहा कि यह सामग्री कोर्ट की जांच-पड़ताल और ज़रूरी निर्देश जारी करने के लिए शुरुआती आधार का काम कर सकती है।
कोर्ट ने टिप्पणी की कि यह समस्या इसलिए पैदा होती है, क्योंकि अभी कोई सॉवरेन लार्ज लैंग्वेज मॉडल मौजूद नहीं है; और जो एल्गोरिदम इस्तेमाल किए जा रहे हैं, वे शायद 'ओपन-सोर्स' हैं—जिसकी वजह से 'हैलुसिनेशन' (गलत जानकारी) की गुंजाइश बनी रहती है। कोर्ट ने एक बार फिर साफ़ किया कि वह आर्टिफिशियल इंटेलिजेंस के इस्तेमाल को रोकना नहीं चाहता।
कोर्ट ने इस मामले पर आगे विचार-विमर्श के लिए 26 मई की तारीख़ तय की।
Case Title – Gummadi Usha Rani v. Sure Mallikarjuna Rao