डिजिटल स्कार्स: चैट हिस्ट्री डिलीट करने से आपका डेटा डिलीट क्यों नहीं होता
LiveLaw Network
14 Feb 2026 9:44 AM IST

2025 में चैट जीपीटी ने खुलासा किया कि, हर हफ्ते 1 मिलियन लोग चैट जीपीटी के साथ मानसिक स्वास्थ्य के मुद्दों के बारे में बात करते हैं। तो, आइए इस लेख को शुरू करने के लिए उस उदाहरण को लें। मान लीजिए कि आपने चैट जीपीटी का ठीक उसी तरह उपयोग किया था। चैट हिस्ट्री एंड ट्रेनिंग ऑन के साथ, आप अपना दिल एआई पर डालते हैं जबकि यह महीनों तक चुपचाप सुनता है। व्यक्तिगत चिंताओं, पारिवारिक नाम और निजी विवरण सभी को चैट में बताया जाता है ताकि एआई भी संदर्भ को याद रखे और जानता हो।
अब यह सारी जानकारी जैसे आपके भाषाई पैटर्न और यहां तक कि आपकी कहानियों के अनाम टुकड़े भी तंत्रिका नेटवर्क में "भार" बन जाते हैं जो ओपनएआई कानूनी रूप से एआई को बेहतर बनाने के लिए इन सब का उपयोग करता है। अब सवाल उठता है कि आप इस सभी संवेदनशील डेटा को कैसे हटाएंगे? क्या केवल चैट को हटाना ही पर्याप्त है?
एआई बनाम डीपीडीपी एक्ट
डीपीडीपी अधिनियम आधुनिक युग के नए "तेल" की रक्षा के लिए बचाव के लिए आता है। "अधिनियम की धारा 12 व्यक्तिगत डेटा को मिटाने का अधिकार पेश करती है. "यह प्रावधान एक डेटा प्रत्ययी द्वारा डेटा को हटाने का प्रावधान करता है, भले ही उपयोग और प्रक्रिया के लिए सहमति प्रमुख द्वारा पहले दी गई हो।" यह अधिनियम का एक महत्वपूर्ण प्रावधान है, जिसमें भूल जाने के अधिकार की कल्पना की गई है। लेकिन मुद्दा एआई के साथ उठता है। डेटाबेस, क्लाउड सूचना आदि जैसे डेटा को संसाधित करने और संग्रहीत करने के पुराने तरीके को संबोधित करते समय यह प्रावधान एकदम सही है, लेकिन मशीन लर्निंग नहीं। "डेटाबेस से डेटा हटाना या चैट को हटाना बगीचे से स्ट्रॉबेरी चुनने जैसा है, लेकिन एक तंत्रिका नेटवर्क से डेटा को हटाना एक स्मूदी से स्ट्रॉबेरी को हटाने जैसा है, इस स्तर के उन्मूलन को प्राप्त करना तकनीकी रूप से भरा हुआ है।"
इसके अलावा, यह बड़ी एआई कंपनियों को एक खामी भी देता है जहां वे प्रशिक्षण के लिए डेटासेट को हटा सकते हैं लेकिन मॉडल को ही संबोधित नहीं कर सकते हैं। निजता की इन चिंताओं के कारण, एक नया प्रतिमान बदलाव है जिसे "मशीन अनलर्निंग" कहा जाता है लेकिन व्यावहारिक रूप से अव्यवहार्य रहता है। आम तौर पर, जब एक तंत्रिका नेटवर्क या एक एआई मॉडल से केवल एक विशिष्ट डेटा बिंदु को हटाने की कोशिश की जाती है तो नया मॉडल पिछले मॉडल की तुलना में खराब प्रदर्शन करता है जिसमें जानकारी बरकरार है। लेकिन अधिक डेटा को हटाने का प्रयास करते समय यह मुद्दा तेजी से बढ़ सकता है। इस मुद्दे को विशेषज्ञों द्वारा "विनाशकारी अनलर्निंग" के रूप में कहा जाता है।
समाधानः
डिजाइन द्वारा निजता
मॉडल को विकसित करते समय निजता के सिद्धांतों को शामिल करना गुमनाम किया जा सकता है। गुमनामीकरण डेटा को गुमनाम जानकारी में परिवर्तित करने की प्रक्रिया है जैसे कि डेटा प्रमुख की पहचान नहीं की जा सकती है। लेकिन अगर कोई ऐसा साधन है जिससे पुनः पहचान हो सकती है तो इसे व्यक्तिगत डेटा माना जाना चाहिए। आईसीओ के "एआई और डेटा संरक्षण पर मार्गदर्शन" का यह भी तर्क है कि यदि किसी मॉडल का उपयोग किसी व्यक्ति को "पुन: पहचान" करने के लिए किया जा सकता है, तो मॉडल व्यक्तिगत डेटा है। यूरोपीय संघ के न्यायालय की भी यही राय थी।
यह मामला आईएसपी के माध्यम से गतिशील आईपी पते की पुन: पहचान से संबंधित था। अदालत का मानना था कि चूंकि पुन: पहचान का एक कानूनी मार्ग मौजूद है इसलिए यह व्यक्तिगत डेटा है और गुमनाम नहीं है। यह मामला भी महत्वपूर्ण है क्योंकि यह सवाल उठाता है कि क्या तंत्रिका नेटवर्क में "वजन" का उपयोग किसी व्यक्ति को फिर से पहचानने के लिए भी किया जा सकता है। ये "वजन" निजता के लिए एक कमजोर बिंदु हो सकते हैं क्योंकि मॉडल व्युत्क्रम हमलों (जहां मूल प्रशिक्षण डेटा रिवर्स इंजीनियर है) जैसी तकनीकों का उपयोग किसी का पता लगाने के लिए किया जा सकता है, कभी-कभी ये मॉडल प्रशिक्षण पाठ को ही फिर से संगठित कर सकते हैं।
एल्गोरिदमिक विघटन
यह समाधान एक अंतिम किल स्विच हो सकता है जहां डिज़ाइन स्वयं त्रुटिपूर्ण या अवैध है। एवरलबम के मामले में मामला एक फोटो-स्टोरेज ऐप से संबंधित था जिसने ऐसा नहीं करने के आश्वासन के बावजूद चेहरे की पहचान विकसित करने के लिए उपयोगकर्ताओं की निजी छवियों का उपयोग किया। इस मामले में अमेरिका के संघीय व्यापार आयोग ने न केवल गैरकानूनी रूप से एकत्र की गई तस्वीरों और वीडियो को हटाने का आदेश दिया, बल्कि उस डेटा द्वारा बनाए गए मॉडल या एल्गोरिदम को हटाने का भी आदेश दिया। कुछ हद तक मेस्ने लाभ के समान।
इस प्रमुख का जर्मनी के हैम्बर्ग डेटा प्रोटेक्शन अथॉरिटी (एचएमबीएफडीआई) बनाम एमबीएफडीआई ) बनाम जर्मनी के हैम्बर्ग डेटा प्रोटेक्शन अथॉरिटी (एचएमबीएफडीआई) बनाम एमबीएफडीआई बनाम एचएमबीएफडीआई बनाम एचएमबीएफडीआई.) बनाम एमबीएफडीआई बनाम एचएम क्लियरव्यू एआई (2021)। मैथियास मार्क्स ने डेटा संरक्षण प्राधिकरण से संपर्क किया जब उन्हें पता चला कि क्लियरव्यू एआई, एक ऐसी कंपनी जिसने वेब से टन छवियों को स्क्रैप करने और बायोमेट्रिक प्रोफाइल का एक खोज योग्य डेटाबेस बनाने के लिए एआई का उपयोग किया है। इस मामले में डीपीए ने कंपनी को बायोमेट्रिक हैश को हटाने का निर्देश दिया जो तस्वीरों का विश्लेषण करने के बाद बनाया गया था, लेकिन केवल शिकायतकर्ता का और जर्मनी के हर व्यक्ति का नहीं।
उपयोगकर्ता की जागरूकता
चिकित्सक के रूप में एल्गोरिदम का उपयोग करना, एक प्रमुख डेटा निजता मुद्दे को प्रकट करता है। उपयोगकर्ता इसके प्रभावों को जाने बिना इन एल्गोरिदम के लिए अपने बारे में कमजोर जानकारी साझा कर रहे हैं। इससे पता चलता है कि इन एल्गोरिदम के उपयोगकर्ताओं को भी डेटा निजता के बारे में जागरूक करने की आवश्यकता है। भले ही डीपीडीपी अधिनियम उपयोगकर्ताओं को नोटिस के बारे में बात करता है, इन मॉडलों का एक औसत उपयोगकर्ता इस बात से अनजान रह सकता है कि भविष्य के एआई को प्रशिक्षित करने के लिए उनकी संवेदनशील जानकारी को "वजन" में कैसे परिवर्तित किया जाता है। इसलिए, जनता के बारे में जागरूकता और अच्छी निजता की आदतों का पालन करना भी महत्वपूर्ण है।
डीपीडीपी अधिनियम की शुरुआत एक बहुप्रतीक्षित क्षण था जो अनुच्छेद 21 के तहत निहित निजता के अधिकार को मजबूत करने के लिए लंबी न्यायिक लड़ाई के बाद आया था। इसने अंततः निजता के अधिकार की अवधारणा को मूर्त क़ानून में ला दिया है। हालांकि, एआई की तेजी से प्रगति के साथ इस अधिनियम को अनावश्यक छोड़ सकता है। कानून की वर्तमान स्थिति डेटाबेस के लिए अधिक उपयुक्त है लेकिन एआई के लिए नहीं।
इसलिए निजता कानूनों का तुलनात्मक विश्लेषण महत्वपूर्ण हो जाता है। यूरोपीय संघ और अमेरिका जैसे देशों को देखना महत्वपूर्ण हो जाता है ताकि यह देखा जा सके कि तेजी से बढ़ते समय में उनका कानून कैसे पकड़ रहा है। कंपनियों को डिजाइन द्वारा निजता को शामिल करने की आवश्यकता है अन्यथा वे एल्गोरिदम के पूरी तरह से बंद होने का जोखिम उठाते हैं जैसा कि इन द मैटर ऑफ एवरलबम मामले के साथ लेख में चित्रित किया गया है। निजता आपके द्वारा उपयोग किए जाने वाले प्रत्येक उपकरण के डीएनए में होनी चाहिए।
लेखक- प्रजनय व्यास एलएलएम के छात्र हैं। विचार व्यक्तिगत हैं।

