'डीपफेक से महिलाओं को ज़्यादा निशाना बनाया जाता है, नुकसान होने के बाद ही उन्हें हटाया जाता है': जस्टिस पी.एस. नरसिम्हा
Shahadat
14 April 2026 10:04 PM IST

एक कार्यक्रम में बोलते हुए सुप्रीम कोर्ट जज जस्टिस पी.एस. नरसिम्हा ने डीपफेक का इस्तेमाल करके महिलाओं को ज़्यादा निशाना बनाए जाने पर चिंता जताई और दुख जताया कि जब तक उन्हें हटाने की कार्रवाई की जाती है, तब तक नुकसान हो चुका होता है।
जज ने कहा,
"आइए हम उस समस्या के बारे में बात करें, जिसका हम सभी सामना कर रहे हैं, जो डीपफेक से जुड़ी है... बिना सहमति के बनाई गई नकली तस्वीरें, जो महिलाओं को ज़्यादा निशाना बनाती हैं, जेंडर-बेस्ड हिंसा को बढ़ावा देती हैं और उन्हें गहरा मानसिक नुकसान पहुंचाती हैं। हमारा मौजूदा कानूनी ढांचा इस पर प्रतिक्रिया देने में देर करता है। उन्हें हटाने की कार्रवाई तब होती है, जब नुकसान हो चुका होता है।"
जस्टिस नरसिम्हा निवारण के सहयोग से कॉमनवेल्थ लॉयर्स एसोसिएशन द्वारा आयोजित 5वें सोली सोराबजी मेमोरियल लेक्चर में बोल रहे थे। इस लेक्चर का विषय था "आर्टिफिशियल इंटेलिजेंस के साम्राज्य में मानवाधिकार"।
जस्टिस नरसिम्हा के अलावा, इस कार्यक्रम में सुप्रीम कोर्ट जज जस्टिस पी.बी. वराले, ASG अनिल कौशिक, और सीनियर एडवोकेट विकास सिंह, जयदीप गुप्ता और राजीव दत्ता भी मौजूद थे।
अपने संबोधन की शुरुआत में जस्टिस नरसिम्हा ने अपने वकालत के दिनों और सोली सोराबजी के साथ अपनी मुलाकातों को याद किया।
उन्होंने कहा,
"सोराबजी के बारे में एक अनोखी बात यह थी कि जो भी उन्हें जानता था, उसे हमेशा लगता था कि सोराबजी उन्हें बहुत पसंद करते हैं। मैं भी उनमें से एक था। अटॉर्नी जनरल की भूमिका के बारे में उनकी मूल सोच, संस्थागत स्वतंत्रता और संवैधानिक नैतिकता पर आधारित थी... उन्होंने कानून को सिर्फ़ एक पेशे के तौर पर नहीं, बल्कि एक सामाजिक ज़िम्मेदारी के तौर पर देखा। उनकी वकालत में संतुलन और संयम साफ़ झलकता था। अपने 7 दशकों के करियर में, वे नागरिक स्वतंत्रता और मानवाधिकारों के एक मज़बूत रक्षक रहे।"
इसके बाद उन्होंने इस बात पर ज़ोर दिया कि कैसे आर्टिफिशियल इंटेलिजेंस एक कम दिखाई देने वाली शक्ति के रूप में काम करता है, जो लोगों के जीवन को प्रभावित करता है और "सोच-समझकर दी गई सहमति" (Informed Consent) के सिद्धांत का उल्लंघन करता है।
उन्होंने कहा,
"AI हमें एक ऐसी शक्ति से रूबरू कराता है, जो तकनीकी प्रणालियों में छिपी होती है। ज़्यादा फैली हुई और कम दिखाई देने वाली होती है... AI का साम्राज्य राष्ट्रीय सीमाओं को नहीं मानता। AI शक्ति को खत्म नहीं करता, बल्कि वह खुद को इस तरह से पुनर्गठित करता है कि वह कम दिखाई देता है, लेकिन उसका असर कम नहीं होता।"
जज ने AI की उस प्रवृत्ति पर भी चिंता जताई, जिसके कारण अगर सरकार कल्याणकारी योजनाओं के लाभ बांटने में इसका इस्तेमाल करती है तो कुछ लोगों के "बाहर रह जाने" (Exclusion) का खतरा बना रहता है।
जज ने आगे कहा,
"जैसे-जैसे राज्य सेवाओं की डिलीवरी में कुशलता लाने के लिए AI का सहारा ले रहा है, [...] तकनीकी सुधार और सभी तक पहुंच सुनिश्चित करने के मामले में कुछ चुनौतियां सामने आ रही हैं। संस्थाएं लाभार्थियों की पहचान करने, दावों को प्रोसेस करने और हकदारी वितरित करने के लिए AI-आधारित प्लेटफ़ॉर्म पर निर्भर हैं... इसका मानवाधिकारों पर सीधा असर पड़ता है, क्योंकि कल्याणकारी योजनाओं की डिलीवरी महज़ एक प्रशासनिक काम नहीं है। यह सामाजिक-आर्थिक अधिकारों को साकार करने का एक अहम हिस्सा है। AI के इस्तेमाल से कुछ लोग इन योजनाओं से वंचित भी रह सकते हैं।"
जज ने आगे कहा कि 'उचित प्रक्रिया' (due process) की गारंटी को एल्गोरिद्म-आधारित प्रक्रियाओं तक भी बढ़ाया जाना चाहिए। उन्होंने AI के इस्तेमाल से जुड़ी निजता की चिंताओं का भी ज़िक्र किया।
इस संबंध में उन्होंने कहा,
"अब निजता को महज़ गोपनीयता या जानकारी छिपाकर रखने तक ही सीमित नहीं समझा जा सकता। इसे व्यक्तिगत डेटा पर नियंत्रण और उस जटिल बुनियादी ढांचे के प्रबंधन के तौर पर समझा जाना चाहिए, जो बड़े पैमाने पर जानकारी को प्रोसेस करता है। DPDP Act 'अनुमान' (inference) जैसी गहरी समस्याओं से पूरी तरह से नहीं निपट पाता है।"
व्याख्यान का समापन करते हुए जस्टिस नरसिम्हा ने कहा कि संस्थाओं को यह सुनिश्चित करना चाहिए कि AI को अपनाने से अधिकारों की रक्षा करने की उनकी ज़िम्मेदारी कमज़ोर न पड़े; बल्कि इसके विपरीत यह समावेश, निष्पक्षता और जवाबदेही के उन सिद्धांतों को और मज़बूत करे, जो मानवाधिकारों के "मूल" में निहित हैं।

