'डीपफेक से महिलाओं को ज़्यादा निशाना बनाया जाता है, नुकसान होने के बाद ही उन्हें हटाया जाता है': जस्टिस पी.एस. नरसिम्हा

Update: 2026-04-14 16:34 GMT

एक कार्यक्रम में बोलते हुए सुप्रीम कोर्ट जज जस्टिस पी.एस. नरसिम्हा ने डीपफेक का इस्तेमाल करके महिलाओं को ज़्यादा निशाना बनाए जाने पर चिंता जताई और दुख जताया कि जब तक उन्हें हटाने की कार्रवाई की जाती है, तब तक नुकसान हो चुका होता है।

जज ने कहा,

"आइए हम उस समस्या के बारे में बात करें, जिसका हम सभी सामना कर रहे हैं, जो डीपफेक से जुड़ी है... बिना सहमति के बनाई गई नकली तस्वीरें, जो महिलाओं को ज़्यादा निशाना बनाती हैं, जेंडर-बेस्ड हिंसा को बढ़ावा देती हैं और उन्हें गहरा मानसिक नुकसान पहुंचाती हैं। हमारा मौजूदा कानूनी ढांचा इस पर प्रतिक्रिया देने में देर करता है। उन्हें हटाने की कार्रवाई तब होती है, जब नुकसान हो चुका होता है।"

जस्टिस नरसिम्हा निवारण के सहयोग से कॉमनवेल्थ लॉयर्स एसोसिएशन द्वारा आयोजित 5वें सोली सोराबजी मेमोरियल लेक्चर में बोल रहे थे। इस लेक्चर का विषय था "आर्टिफिशियल इंटेलिजेंस के साम्राज्य में मानवाधिकार"।

जस्टिस नरसिम्हा के अलावा, इस कार्यक्रम में सुप्रीम कोर्ट जज जस्टिस पी.बी. वराले, ASG अनिल कौशिक, और सीनियर एडवोकेट विकास सिंह, जयदीप गुप्ता और राजीव दत्ता भी मौजूद थे।

अपने संबोधन की शुरुआत में जस्टिस नरसिम्हा ने अपने वकालत के दिनों और सोली सोराबजी के साथ अपनी मुलाकातों को याद किया।

उन्होंने कहा,

"सोराबजी के बारे में एक अनोखी बात यह थी कि जो भी उन्हें जानता था, उसे हमेशा लगता था कि सोराबजी उन्हें बहुत पसंद करते हैं। मैं भी उनमें से एक था। अटॉर्नी जनरल की भूमिका के बारे में उनकी मूल सोच, संस्थागत स्वतंत्रता और संवैधानिक नैतिकता पर आधारित थी... उन्होंने कानून को सिर्फ़ एक पेशे के तौर पर नहीं, बल्कि एक सामाजिक ज़िम्मेदारी के तौर पर देखा। उनकी वकालत में संतुलन और संयम साफ़ झलकता था। अपने 7 दशकों के करियर में, वे नागरिक स्वतंत्रता और मानवाधिकारों के एक मज़बूत रक्षक रहे।"

इसके बाद उन्होंने इस बात पर ज़ोर दिया कि कैसे आर्टिफिशियल इंटेलिजेंस एक कम दिखाई देने वाली शक्ति के रूप में काम करता है, जो लोगों के जीवन को प्रभावित करता है और "सोच-समझकर दी गई सहमति" (Informed Consent) के सिद्धांत का उल्लंघन करता है।

उन्होंने कहा,

"AI हमें एक ऐसी शक्ति से रूबरू कराता है, जो तकनीकी प्रणालियों में छिपी होती है। ज़्यादा फैली हुई और कम दिखाई देने वाली होती है... AI का साम्राज्य राष्ट्रीय सीमाओं को नहीं मानता। AI शक्ति को खत्म नहीं करता, बल्कि वह खुद को इस तरह से पुनर्गठित करता है कि वह कम दिखाई देता है, लेकिन उसका असर कम नहीं होता।"

जज ने AI की उस प्रवृत्ति पर भी चिंता जताई, जिसके कारण अगर सरकार कल्याणकारी योजनाओं के लाभ बांटने में इसका इस्तेमाल करती है तो कुछ लोगों के "बाहर रह जाने" (Exclusion) का खतरा बना रहता है।

जज ने आगे कहा,

"जैसे-जैसे राज्य सेवाओं की डिलीवरी में कुशलता लाने के लिए AI का सहारा ले रहा है, [...] तकनीकी सुधार और सभी तक पहुंच सुनिश्चित करने के मामले में कुछ चुनौतियां सामने आ रही हैं। संस्थाएं लाभार्थियों की पहचान करने, दावों को प्रोसेस करने और हकदारी वितरित करने के लिए AI-आधारित प्लेटफ़ॉर्म पर निर्भर हैं... इसका मानवाधिकारों पर सीधा असर पड़ता है, क्योंकि कल्याणकारी योजनाओं की डिलीवरी महज़ एक प्रशासनिक काम नहीं है। यह सामाजिक-आर्थिक अधिकारों को साकार करने का एक अहम हिस्सा है। AI के इस्तेमाल से कुछ लोग इन योजनाओं से वंचित भी रह सकते हैं।"

जज ने आगे कहा कि 'उचित प्रक्रिया' (due process) की गारंटी को एल्गोरिद्म-आधारित प्रक्रियाओं तक भी बढ़ाया जाना चाहिए। उन्होंने AI के इस्तेमाल से जुड़ी निजता की चिंताओं का भी ज़िक्र किया।

इस संबंध में उन्होंने कहा,

"अब निजता को महज़ गोपनीयता या जानकारी छिपाकर रखने तक ही सीमित नहीं समझा जा सकता। इसे व्यक्तिगत डेटा पर नियंत्रण और उस जटिल बुनियादी ढांचे के प्रबंधन के तौर पर समझा जाना चाहिए, जो बड़े पैमाने पर जानकारी को प्रोसेस करता है। DPDP Act 'अनुमान' (inference) जैसी गहरी समस्याओं से पूरी तरह से नहीं निपट पाता है।"

व्याख्यान का समापन करते हुए जस्टिस नरसिम्हा ने कहा कि संस्थाओं को यह सुनिश्चित करना चाहिए कि AI को अपनाने से अधिकारों की रक्षा करने की उनकी ज़िम्मेदारी कमज़ोर न पड़े; बल्कि इसके विपरीत यह समावेश, निष्पक्षता और जवाबदेही के उन सिद्धांतों को और मज़बूत करे, जो मानवाधिकारों के "मूल" में निहित हैं।

Tags:    

Similar News