हाल ही में एक वायरल पोस्ट ने इंस्टाग्राम के विंटेज साड़ी ट्रेंड को हिलाकर रख दिया। एक उपयोगकर्ता ने जेमिनी के माध्यम से अपनी तस्वीर बनाई और अपनी बाईं बांह पर एक तिल देखकर चौंक गई; यह एक ऐसा विवरण था जो वास्तविक जीवन में सच था, लेकिन उसने जो मूल, पूरी बांह वाली तस्वीर अपलोड की थी, उसमें छिपा हुआ था। इस अनोखे जोड़ ने सवाल खड़े कर दिए: क्या एआई को किसी तरह "पता" था, या वह बस कुछ खास बातें गढ़ रहा था? और इससे भी महत्वपूर्ण बात यह है कि जब हम एआई टूल्स के साथ तस्वीरें साझा करते हैं, तो हमारी निजती के लिए इसका क्या मतलब है?
शुरुआत में, असली सवाल यह है: यहां आखिर हुआ क्या था? इसका स्पष्टीकरण रहस्य में नहीं, बल्कि एआई सिस्टम द्वारा तस्वीरें बनाने के तरीके में निहित है। तिल कोई रहस्योद्घाटन नहीं था, बल्कि गणित की उपज था।
इस तरह की तस्वीरें बनाने के पीछे सबसे प्रभावशाली तकनीकों में से एक है जनरेटिव एडवर्सेरियल नेटवर्क (जीएएन)। इसे सबसे पहले इयान गुडफेलो और उनकी टीम ने 2014 में पेश किया था, जिसने मशीनों द्वारा नए और यथार्थवादी डेटा बनाने के तरीके में क्रांति ला दी। पारंपरिक मॉडलों के विपरीत, जो केवल मौजूदा जानकारी को पहचानते या वर्गीकृत करते हैं, जीएएन एक रचनात्मक दृष्टिकोण अपनाते हैं और पूरी तरह से नई सामग्री, चाहे वह चित्र हों, वीडियो हों या संगीत, उत्पन्न करते हैं जो वास्तविक दुनिया के डेटा से काफ़ी मिलती-जुलती होती है।
जब किसी छवि के कुछ हिस्से ढके हुए हाथ की तरह अस्पष्ट होते हैं, तो मॉडल कपड़ों के आर-पार नहीं देख पाता। इसके बजाय, यह लाखों प्रशिक्षण उदाहरणों से सीखे गए पैटर्न का उपयोग करके लुप्त विवरणों का अनुमान लगाता है और उन्हें भरता है। कभी-कभी ये अनुमान हानिरहित होते हैं, जैसे कपड़े में तह लगाना, लेकिन कभी-कभी ये अजीब तरह से वास्तविकता से मेल खाते हैं, जैसा कि तिल के मामले में हुआ।
यह हमें एक महत्वपूर्ण अंतर पर लाता है: जब एआई कुछ ऐसा उत्पन्न करता है जो मूल छवि में कभी नहीं था, तो क्या यह एक साधारण भ्रम है या जानबूझकर किया गया डीपफेक? इन दोनों शब्दों का अक्सर लोकप्रिय बहस में एक-दूसरे के स्थान पर प्रयोग किया जाता है, लेकिन वास्तव में कृत्रिम बुद्धिमत्ता की दुनिया में इनके अर्थ बहुत अलग हैं। एआई भ्रम तब होता है जब सिस्टम ऐसे विवरणों का आविष्कार करता है जो मौजूद ही नहीं हैं, जैसे तिल या निशान जोड़ना, सिर्फ़ इसलिए क्योंकि उसने अपने प्रशिक्षण डेटा में समान पैटर्न देखे हैं।
इसके विपरीत, डीपफेक वास्तविक तस्वीरों या वीडियो को वास्तविक दिखाने के लिए जानबूझकर उनमें हेरफेर करना है, जैसे चेहरे बदलना या घटनाओं को गढ़ना। सरल शब्दों में, मतिभ्रम आकस्मिक रचनाए होती हैं, जबकि डीपफेक जानबूझकर किए गए धोखे होते हैं।
तो इस तिल के मामले में क्या हुआ? यह डीपफेक नहीं, बल्कि एक एआई मतिभ्रम था। सिस्टम को उपयोगकर्ता के छिपे हुए तिल या उसके कपड़ों के नीचे स्कैन का 'पता' नहीं था। इसके बजाय, साड़ियों में महिलाओं की अनगिनत तस्वीरों पर प्रशिक्षित, एआई ने सांख्यिकीय रूप से 'अनुमान' लगाया और वहां एक तिल जोड़ दिया जहां ऐसी विशेषताएं अक्सर दिखाई देती हैं। संयोग से, यह गढ़ा हुआ विवरण उपयोगकर्ता के असली तिल के साथ ओवरलैप हो गया, जिससे ऐसा लगा जैसे एआई ने कुछ निजी खोज निकाला हो।
वास्तव में, यह गणित था जो अंतर्दृष्टि का मुखौटा पहने हुए था। और यह कोई अकेली घटना नहीं है। आज, Booth.ai जैसे टूल से लेकर लोकप्रिय सोशल मीडिया फ़िल्टर तक, अनगिनत वेबसाइट और ऐप उपयोगकर्ताओं को एक ही संकेत पर एआई-संशोधित तस्वीरें बनाने की सुविधा देते हैं। हालांकि ये रचनात्मकता और सुविधा का वादा करते हैं, लेकिन ये निजता, सहमति और बायोमेट्रिक जैसी सुविधाओं के दुरुपयोग को लेकर गंभीर चिंताएं भी पैदा करते हैं।
यहीं पर कानूनी और नैतिक प्रश्न उठते हैं: यदि एआई वास्तविक बायोमेट्रिक लक्षणों से मिलते-जुलते फ़ीचर्स गढ़ सकता है, तो कानून को ऐसी छवियों को हानिरहित रचनात्मकता या निजता और साक्ष्य के संभावित उल्लंघन के रूप में कैसे देखना चाहिए?
भले ही वह तिल केवल एक भ्रम था, यह मायने रखता है क्योंकि यह बायोमेट्रिक मार्कर जैसा दिखता था - कुछ अनोखा और पहचानने योग्य, जैसे कोई निशान, टैटू या जन्मचिह्न। ख़तरा यह है कि ऐसे गढ़े हुए विवरण संवेदनशील संदर्भों में गुमराह कर सकते हैं: अदालतों में डिजिटल साक्ष्य से लेकर पहचान सत्यापन प्रणालियों या यहां तक कि निगरानी तकनीकों द्वारा प्रोफ़ाइलिंग तक।
वैश्विक स्तर पर, नियामकों ने अभी-अभी एआई-जनित मीडिया के जोखिमों पर प्रतिक्रिया देना शुरू किया है। 2018 से, यूरोपीय संघ के सामान्य डेटा संरक्षण विनियमन (जीडीपीआर) ने बायोमेट्रिक डेटा के प्रसंस्करण को व्यक्तिगत डेटा के रूप में और, जब व्यक्तियों की विशिष्ट पहचान के लिए उपयोग किया जाता है, तो इसे "विशेष श्रेणी डेटा" के रूप में नियंत्रित किया है। ऐसे डेटा का प्रसंस्करण आम तौर पर निषिद्ध है जब तक कि व्यक्ति अनुच्छेद 9(2) के तहत स्पष्ट सहमति या कोई अन्य कानूनी आधार प्रदान न करे।
इस आधार पर, यूरोपीय संघ का कृत्रिम बुद्धि अधिनियम विनियमन की एक नई परत प्रस्तुत करता है जो चार प्रकार के बायोमेट्रिक अनुप्रयोगों को लक्षित करता है और उनके उद्देश्य और उपयोग के संदर्भ के आधार पर, निषिद्ध, उच्च जोखिम और सीमित जोखिम जैसे जोखिमों के आधार पर उन्हें वर्गीकृत करता है।
चीन केवल दिशानिर्देशों से आगे बढ़ गया है: अब यह कानूनी रूप से अनिवार्य करता है कि किसी भी कृत्रिम बुद्धि-जनित मीडिया को स्पष्ट रूप से लेबल किया जाए, दृश्य वॉटरमार्किंग और मेटाडेटा टैग दोनों के माध्यम से। यह दोहरी आवश्यकता सुनिश्चित करती है कि दृश्य लेबल हटा दिए जाने पर भी, छवि के कृत्रिम मूल का एक "अदृश्य निशान" बना रहेगा।
जनवरी 2025 में, यूके ने एक नया अपराध बनाया जो बिना सहमति के यौन रूप से स्पष्ट डीपफेक बनाने को आपराधिक और दंडनीय बनाता है। यह कृत्रिम छवियों को कवर करता है जो किसी को नग्न या यौन क्रियाओं में लिप्त दिखाती हैं, चाहे वह अपमानित करने के लिए बनाई गई हों या अनुसमर्थन। अपराधियों को असीमित जुर्माने का सामना करना पड़ेगा। यह कानून ऑनलाइन सुरक्षा अधिनियम का पूरक है, जो पहले से ही बिना सहमति के अंतरंग तस्वीरें साझा करने पर दंड का प्रावधान करता है।
संयुक्त राज्य अमेरिका में कई राज्य अब चुनाव अभियानों में राजनीतिक डीपफेक के उपयोग को नियंत्रित करने के लिए कानून बना रहे हैं। उदाहरण के लिए, सोलह राज्यों ने 2024 में ऐसे अभियान विज्ञापनों या राजनीतिक संचार पर प्रतिबंध लगाने वाले कानून पारित किए जिनमें उचित लेबलिंग के बिना डीपफेक शामिल हैं। अन्य राज्यों में यदि किसी अभियान संदेश में हेरफेर किया गया मीडिया शामिल है तो प्रकटीकरण की आवश्यकता होती है। इन कानूनों का उद्देश्य चुनावों से पहले गलत सूचना, प्रतिरूपण और भ्रामक सामग्री को रोकना है, हालांकि प्रवर्तन और अभिव्यक्ति की स्वतंत्रता के बारे में सवाल बने हुए हैं।
इस बीच, भारत ने कुछ कदम उठाए हैं। भारतीय साक्ष्य अधिनियम, 2023, "कंप्यूटर आउटपुट" को कंप्यूटर या डिजिटल उपकरण द्वारा संग्रहीत या उत्पादित किसी भी डेटा के रूप में अदालत में स्वीकार्य मानकर भारतीय साक्ष्य कानून को आधुनिक बनाने का प्रयास करता है। धारा 63 स्पष्ट रूप से ऐसे आउटपुट को, जिनमें "किसी भी इलेक्ट्रॉनिक रूप में संग्रहीत, रिकॉर्ड या कॉपी किए गए" आउटपुट भी शामिल हैं, मूल दस्तावेज़ प्रस्तुत किए बिना भी दस्तावेज़ के रूप में माना जा सकता है। यह तकनीकी रूप से व्यापक कदम है, जिसका उद्देश्य डिजिटल युग में साक्ष्य प्रक्रिया को आसान बनाना है। हालांकि, धारा 63 कृत्रिम रूप से जागरूक नहीं है।
यह सभी इलेक्ट्रॉनिक रिकॉर्ड को तटस्थ और तथ्यात्मक मानता है, बिना प्रामाणिक डिजिटल रिकॉर्ड (जैसे सीसीटीवी फुटेज) और कृत्रिम रूप से उत्पन्न सामग्री, जैसे कि एआई-निर्मित चेहरे, भ्रामक बायोमेट्रिक विशेषताएं, या परिवर्तित छवियों के बीच अंतर किए। डीपफेक के युग में, यह अंतर महत्वपूर्ण हो जाता है। उदाहरण के लिए, एक विशिष्ट तिल वाले व्यक्ति की एआई-जनित छवि, पूरी तरह से वास्तविक लग सकती है, लेकिन वास्तविकता में इसका कोई आधार नहीं होता है। वर्तमान में, कानून यह आकलन करने के लिए कोई प्रक्रियात्मक सुरक्षा उपाय, प्रकटीकरण मानदंड, या प्रमाणिकता परीक्षण प्रदान नहीं करता है कि ऐसा साक्ष्य कृत्रिम है या हेरफेर किया गया है। यह एक ऐसी खामी पैदा करता है जहां गढ़े हुए दृश्य "कंप्यूटर आउटपुट" के व्यापक लेबल के तहत कानूनी कसौटी पर खरे उतर सकते हैं।
अन्य हालिया कानून केवल आंशिक कवरेज प्रदान करते हैं। डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023, धारा 2(टी) के अंतर्गत 'व्यक्तिगत डेटा' को व्यापक रूप से ऐसे किसी भी डेटा के रूप में परिभाषित करता है जिससे किसी व्यक्ति की पहचान हो सके। हालांकि, यह विशेष रूप से बायोमेट्रिक डेटा को संबोधित नहीं करता है, और निश्चित रूप से सिंथेटिक बायोमेट्रिक्स (डिजिटल रूप से आविष्कृत पहचानकर्ता जो वास्तविक पहचानकर्ताओं की नकल करते हैं, जैसे चेहरे, आंखों की पुतलियों या उंगलियों के निशान) को भी नहीं। इसी प्रकार, दंड प्रक्रिया (पहचान) अधिनियम, 2022 कैदियों और संदिग्धों से बायोमेट्रिक और व्यवहार संबंधी डेटा के संग्रह और दीर्घकालिक भंडारण के दायरे का विस्तार करता है।
यह इस बात पर मौन है कि ऐसे डेटा की नकल करने वाले एआई-जनित विशेषताओं में कैसे अंतर किया जाए या उनका कैसे इलाज किया जाए। यहां तक कि सूचना प्रौद्योगिकी अधिनियम, 2000, धारा 66डी (जो कंप्यूटर संसाधनों के माध्यम से छद्मवेशी होने को दंडित करता है) के माध्यम से कुछ सहायता प्रदान करते हुए, एआई-छेड़छाड़ या एआई-जनित मीडिया की साक्ष्य स्थिति से नहीं जूझता है। भविष्य की किसी अदालत में, क्या किसी को फंसाने के लिए इस्तेमाल किया गया डीपफेक धारा 63 के तहत वैध "कंप्यूटर आउटपुट" माना जाएगा? या इसे अप्रमाणित हेरफेर मानकर खारिज कर दिया जाएगा? अभी तक, इसका कोई निश्चित उत्तर नहीं है।
हम कॉपीराइट के अनसुलझे प्रश्न का उल्लेख करना नहीं भूल सकते। भारतीय कानून लेखकत्व को मानव रचनाकार से जोड़ता है, जिससे एआई द्वारा उत्पन्न आउटपुट अस्पष्ट रहते हैं। यदि कोई जीएएन परिवर्तित छवि उत्पन्न करता है, तो मूल और उसके व्युत्पन्न, दोनों पर व्यक्ति का नियंत्रण अस्पष्ट रहता है। इससे निजता का जोखिम बढ़ जाता है, खासकर जब कॉपीराइट किए गए कार्यों को बिना सहमति के प्रशिक्षण डेटासेट में भी डाला जाता है।
संक्षेप में, एआई द्वारा उत्पन्न उन विशेषताओं से निपटने के लिए व्यापक ढांचा बनाने के मामले में कानून अभी भी प्रारंभिक अवस्था में है जो वास्तविक दुनिया के पहचानकर्ताओं की नकल करती हैं, चाहे वह डिजिटल रूप से भ्रमित तिल हो, उत्पन्न ध्वनि क्लिप हो, या नकली आईरिस स्कैन हो। ये विशेषताएं कृत्रिम हो सकती हैं, लेकिन वे दृश्य या श्रव्य रूप से वास्तविक से अप्रभेद्य हैं। स्पष्ट नियमों का अभाव निष्पक्ष फैसला और साक्ष्य की अखंडता के लिए, साथ ही व्यक्तित्व और निजता के लिए भी एक गंभीर खतरा पैदा करता है।
कानून निर्माताओं को शायद ही दोष दिया जा सकता है, तकनीकी विकास की गति, विशेष रूप से जनरेटिव एआई में, कानून की क्षमता से कहीं आगे निकल रही है। लेकिन तिल का मामला एक जिज्ञासा से कहीं अधिक है। यह एक चेतावनी है। विभिन्न न्यायालयों में, कानूनी ढांचे अभी तक सिंथेटिक बायोमेट्रिक्स, एआई-संशोधित छवियों के लिए साक्ष्य मानकों, या जनरेटिव सामग्री के प्रकटीकरण मानदंडों के अनुरूप नहीं हो पाए हैं। इन सुधारों को कैसे और कैसे लागू किया जाना चाहिए, यह एक ऐसा प्रश्न है जिसका सामना कानून निर्माताओं, नियामकों और अदालतों को जल्द ही करना होगा।
फिर भी, कानूनी शून्यता के परे एक सामाजिक अनुस्मारक छिपा है: हम वायरल ट्रेंड के नाम पर अपनी छवियों को एआई सिस्टम को बहुत ही लापरवाही से सौंप देते हैं। चाहे वह विंटेज साड़ी लुक हो या घिबली-शैली का आर्ट फ़िल्टर, हर उत्पन्न छवि विशाल पूर्व-प्रशिक्षित डेटासेट पर आधारित होती है और बदले में, भविष्य के प्रशिक्षण में योगदान दे सकती है। आज हम जो तस्वीर साझा कर रहे हैं वह कल किसी समयरेखा से गायब हो सकती है, लेकिन उसके पीछे का डेटा नहीं। यहां एआई मॉडल को दोष देने के लिए बहुत कम है। वे वे ठीक वही कर रहे हैं जिसके लिए उन्हें प्रशिक्षित किया गया है: पूर्व-प्रशिक्षित डेटा के आधार पर आउटपुट उत्पन्न करना।
वास्तव में जो मायने रखता है वह है मानवीय जागरूकता: हम क्या साझा करते हैं, कहां साझा करते हैं, और इसके निहितार्थों को ध्यान से चुनना। हर चलन हानिरहित नहीं होता, और हर एआई-जनित आउटपुट वास्तविकता को प्रतिबिंबित नहीं करता। फिर भी आशावाद की गुंजाइश भी है: लोग ध्यान देने लगे हैं, सवाल पूछने लगे हैं, और इस बारे में बातचीत करने लगे हैं कि उनके डेटा का उपयोग कैसे किया जा रहा है। ये शुरुआती चर्चाएं, चाहे अदालतों में हों, कक्षाओं में हों, या सोशल मीडिया पर, एआई के साथ एक अधिक जागरूक रिश्ते की दिशा में पहला कदम हैं। अंततः, हम क्या साझा करते हैं और क्या नहीं, यह चुनाव हमारे हाथों में नियंत्रण का सबसे मजबूत रूप है।
लेखिका- हर्षाली चौधरी, हरियाणा की अतिरिक्त जिला एवं सत्र न्यायाधीश हैं। विचार निजी हैं।