16 साल से कम उम्र के बच्चों के लिए सोशल मीडिया पर ऑस्ट्रेलिया के हालिया प्रतिबंध के आलोक में, भारत को भी अपने नियामक परिदृश्य पर पुनर्विचार करना चाहिए और अपने नाबालिगों की रक्षा के लिए एक न्यूनतम आयु कानून पेश करना चाहिए। क्षेत्राधिकारों और कानूनी परंपराओं के पार, एक सिद्धांत स्थिर रहता है: बच्चों को निकटवर्ती नुकसान से बचाने के लिए राज्य का एक सकारात्मक कर्तव्य है। यह दायित्व केवल सजावटी बयानबाजी नहीं है, बल्कि घरेलू कानूनों, संवैधानिक सिद्धांतों और अंतर्राष्ट्रीय सम्मेलनों में आधारित एक बाध्यकारी कानूनी जिम्मेदारी है। फिर भी लंबे समय तक और अनियमित सोशल मीडिया एक्सपोजर से जुड़े मनोवैज्ञानिक, विकासात्मक और सुरक्षा से संबंधित जोखिमों के बढ़ते सबूतों के बावजूद, सरकारें कार्य करने में धीमी रही हैं।
कई देशों में, यह निर्धारित करने की जिम्मेदारी कि इन विशाल डिजिटल पारिस्थितिक तंत्रों में कौन प्रवेश कर सकता है, लगभग पूरी तरह से निजी निगमों पर छोड़ दी जाती है जिनकी प्राथमिक प्रेरणाएं सुरक्षात्मक के बजाय वाणिज्यिक हैं। परिणाम एक नियामक शून्य है जो बच्चों को महत्वपूर्ण जोखिमों के संपर्क में छोड़ देता है और राज्यों को अपनी कानूनी प्रतिबद्धताओं का उल्लंघन करता है। यदि कानून पहले से ही मानता है कि नाबालिगों को बढ़ी हुई सुरक्षा की आवश्यकता है, तो प्लेटफार्मों को आत्म-पुलिस की अनुमति देना न केवल अपर्याप्त है, बल्कि युवा उपयोगकर्ताओं की देखभाल के स्थापित कर्तव्य के साथ भी असंगत है। इसलिए तत्काल, व्यापक कानून की आवश्यकता तत्काल और अपरिहार्य दोनों है।
दुनिया भर में बाल-सुरक्षा ढांचे पहले से ही नाबालिगों को नुकसान से बचाने के लिए राज्य पर दायित्व लगाते हैं। बाल अधिकारों पर संयुक्त राष्ट्र सम्मेलन (यूएनसीआरसी) में हस्ताक्षरकर्ता सरकारों को बच्चों को शोषण, हानिकारक प्रभावों और असुरक्षित वातावरण से बचाने के लिए विधायी, प्रशासनिक और शैक्षिक उपाय करने की आवश्यकता है। डिजिटल क्षेत्र, आधुनिक बचपन का एक केंद्रीय क्षेत्र होने के नाते, स्पष्ट रूप से इस जनादेश के भीतर आता है। घरेलू कानूनी प्रणालियां इस नींव को मजबूत करती हैं।
संयुक्त राज्य अमेरिका में, बाल ऑनलाइन निजता संरक्षण अधिनियम (सीओपीपीए) ऑनलाइन प्लेटफार्मों के लिए कठोर आवश्यकताओं को स्थापित करता है जो 13 वर्ष से कम उम्र के बच्चों से डेटा एकत्र करते हैं, सत्यापन योग्य माता-पिता की सहमति को अनिवार्य करते हैं और डेटा उपयोग को प्रतिबंधित करते हैं। "सीओपीपीए के बारे में जो महत्वपूर्ण है वह केवल इसके सुरक्षात्मक प्रावधान नहीं हैं, बल्कि यह तथ्य है कि यह डिजिटल प्लेटफार्मों को स्वैच्छिक कोड के बजाय वैधानिक कर्तव्यों के अधीन संस्थाओं के रूप में मानता है।" संघीय व्यापार आयोग द्वारा प्रवर्तन इस बात को रेखांकित करता है कि नाबालिगों की ऑनलाइन सुरक्षा एक कानूनी दायित्व है, न कि कॉर्पोरेट आत्म-संयम का मामला।
यूरोप एक और भी व्यापक लेंस को अपनाता है। सामान्य डेटा संरक्षण विनियमन (जीडीपीआर) का अनुच्छेद 8 सहमति की एक डिफ़ॉल्ट डिजिटल आयु स्थापित करता है - आमतौर पर 16, हालांकि राज्य 13 और 16 के बीच की आयु का चयन कर सकते हैं - जिसमें बच्चों के डेटा के प्रसंस्करण के लिए माता-पिता के प्राधिकरण की आवश्यकता होती है। यह प्रावधान मानता है कि डिजिटल स्पेस में बच्चों की बातचीत स्वाभाविक रूप से बढ़ी हुई कानूनी सुरक्षा की मांग करती है। यूरोपीय संघ का डिजिटल सेवा अधिनियम नाबालिगों को लक्षित विज्ञापन पर प्रतिबंध लगाकर एक और परत जोड़ता है और हानिकारक या जोड़-तोड़ सामग्री के संपर्क को रोकने के उद्देश्य से विस्तृत जोखिम मूल्यांकन करने के लिए प्लेटफार्मों को मजबूर करता है।
2023 में अधिनियमित यूनाइटेड किंगडम का ऑनलाइन सुरक्षा अधिनियम, इसी तरह देखभाल का एक वैधानिक कर्तव्य लागू करता है, जिसमें आयु-उपयुक्त अनुभवों को सुनिश्चित करने, आयु-आश्वासन प्रौद्योगिकियों को लागू करने और इस संभावना को कम करने के लिए प्लेटफार्मों की आवश्यकता होती है कि युवा उपयोगकर्ताओं को खतरनाक सामग्री का सामना करना पड़ेगा। इन न्यायालयों में, कानूनी प्रवृत्ति अचूक है: जहां प्रणालीगत डिजिटल जोखिम मंडराते हैं, कानून - कॉरपोरेट परोपकार नहीं - उपयुक्त सुरक्षा तंत्र है।
केस कानून आगे इस बात को मजबूत करता है कि राज्यों को बाल सुरक्षा के हितों में विनियमित करने की अनुमति है - और वास्तव में अपेक्षित है, बशर्ते इस तरह के विनियमन को सावधानीपूर्वक तैयार किया गया हो। संयुक्त राज्य अमेरिका बनाम अमेरिकन लाइब्रेरी एसोसिएशन (2003) में, अमेरिकी सुप्रीम कोर्ट ने संघीय आवश्यकताओं को बरकरार रखा कि सार्वजनिक पुस्तकालय नाबालिगों को हानिकारक ऑनलाइन सामग्री देखने से रोकने के लिए फिल्टर स्थापित करते हैं। अदालत ने बच्चों को खतरनाक डिजिटल सामग्री के संपर्क में आने से बचाने के सरकारी प्रयासों की वैधता को मान्यता दी।
विनियमन के विरोधी अक्सर ब्राउन बनाम एंटरटेनमेंट मर्चेंट्स एसोसिएशन (2011) का आह्वान करते हैं, जहां अदालत ने कैलिफोर्निया के एक कानून को रद्द कर दिया, जिसमें प्रथम संशोधन के आधार पर नाबालिगों को हिंसक वीडियो गेम की बिक्री को प्रतिबंधित कर दिया गया था। हालांकि, ब्राउन बाल-सुरक्षात्मक डिजिटल कानून के खिलाफ एक पूर्ण निषेध नहीं बनाता है। इसके बजाय, यह ओवरब्रॉड या खराब प्रमाणित कानूनों को अस्वीकार करता है, जबकि स्पष्ट रूप से स्वीकार करता है कि नाबालिगों को प्रदर्शन योग्य नुकसान से बचाने के उद्देश्य से संकीर्ण रूप से अनुरूप, साक्ष्य-आधारित उपाय स्वीकार्य हो सकते हैं।
संक्षेप में, न्यायपालिका ने लगातार संकेत दिया है कि डिजिटल सुरक्षा से संबंधित ठीक से डिज़ाइन किया गया कानून न केवल वैध है बल्कि संवैधानिक सुरक्षा के साथ संगत है। इसलिए, कानूनी बाधा स्वयं विनियमन का सिद्धांत नहीं है, बल्कि इसके कार्यान्वयन में सटीकता और आनुपातिकता की आवश्यकता है।
कहीं और इन कानूनी उदाहरणों और वैधानिक ढांचे के बावजूद, कई देश सोशल मीडिया निगमों द्वारा स्व-विनियमन पर भरोसा करना जारी रखते हैं। यह दृष्टिकोण मौलिक रूप से त्रुटिपूर्ण है। प्लेटफ़ॉर्म वर्तमान में अपनी आयु सीमा, आयु-सत्यापन प्रथाओं, सामग्री नीतियों और प्रवर्तन तंत्रों को तय करते हैं। अधिकांश जन्म की स्व-घोषित तिथियों पर भरोसा करते हैं, जो बच्चों के लिए गलत साबित करना कुख्यात रूप से आसान है। प्रवर्तन असंगत और अपारदर्शी है। इन कंपनियों के वाणिज्यिक प्रोत्साहन, जो जुड़ाव मैट्रिक्स और लक्षित विज्ञापन राजस्व द्वारा संचालित होते हैं, अक्सर युवा उपयोगकर्ताओं के कल्याण के साथ संघर्ष करते हैं।
स्क्रीन समय और भावनात्मक जुड़ाव को अधिकतम करने के लिए डिज़ाइन किए गए एल्गोरिदम कमजोर व्यक्तियों की सुरक्षा के लिए अनुपयुक्त हैं। एक प्रणाली जो स्वैच्छिक कॉर्पोरेट अनुपालन पर निर्भर करती है, स्वाभाविक रूप से अविश्वसनीय है, खासकर जब बच्चों के हित लाभ के उद्देश्यों से अलग हो जाते हैं। इसके अलावा, बाध्यकारी दायित्वों के बिना, जब नुकसान होता है तो जवाबदेही के लिए कोई स्पष्ट तंत्र नहीं होता है।
यदि कोई बच्चा ढीले मंच निरीक्षण के परिणामस्वरूप शिकारी व्यवहार, हानिकारक चुनौतियों, या मनोवैज्ञानिक रूप से अस्थिर करने वाली सामग्री के संपर्क में आता है, तो परिवारों के पास बहुत कम सहारा होता है। लागू करने योग्य कर्तव्यों की अनुपस्थिति जिम्मेदारी को फैलाती है और परिणामों को बिना संबोधित किए छोड़ देती है।
"तुलनात्मक अंतर्राष्ट्रीय विकास से पता चलता है कि प्रभावी विनियमन न केवल व्यवहार्य है, बल्कि आवश्यक के रूप में तेजी से पहचाना जाता है।" 16 वर्ष से कम उम्र के व्यक्तियों के लिए सोशल मीडिया पहुंच को कानूनी रूप से प्रतिबंधित करने और सख्त आयु-सत्यापन मानकों को अनिवार्य करने का ऑस्ट्रेलिया का हालिया कदम इस मुद्दे को संबोधित करने के लिए एक मजबूत राष्ट्रीय प्रतिबद्धता को दर्शाता है। संयुक्त राज्य अमेरिका में, किड्स ऑनलाइन सेफ्टी एक्ट (केओएसए) जैसे प्रस्तावित कानून प्लेटफार्मों की देखभाल का एक वैधानिक कर्तव्य बनाने का प्रयास करता है, जो विशुद्ध रूप से बाजार-संचालित निरीक्षण से दूर एक बदलाव का संकेत देता है।
यूरोपीय संघ का डिजिटल सेवा अधिनियम और यूनाइटेड किंगडम का ऑनलाइन सुरक्षा अधिनियम विस्तृत नियामक ढांचे प्रदान करते हैं जो बाल संरक्षण को मौलिक अधिकारों के साथ संतुलित करते हैं। साथ में, वे मजबूत निरीक्षण तंत्र स्थापित करते हैं, पारदर्शिता को अनिवार्य करते हैं, और उन प्लेटफार्मों पर सार्थक दंड लगाते हैं जो अनुपालन करने में विफल रहते हैं। ये अंतर्राष्ट्रीय उदाहरण उस दिशा को दर्शाते हैं जिसमें वैश्विक शासन आगे बढ़ रहा है: यह पहचानने की दिशा में कि डिजिटल वातावरण में नाबालिगों की रक्षा के लिए वैधानिक अधिकार, संस्थागत निरीक्षण और लागू करने योग्य मानकों की आवश्यकता होती है।
अनियमित सोशल मीडिया एक्सपोजर से जुड़े नुकसान की प्रकृति पर विचार करते समय तत्काल कानून के लिए तर्क और भी अधिक सम्मोहक हो जाता है। अनुसंधान लगातार नाबालिगों के बीच अत्यधिक या अनियंत्रित सोशल मीडिया के उपयोग को बढ़ती चिंता, अवसाद, बाधित नींद, शरीर-छवि के मुद्दों, ऑनलाइन ग्रूमिंग और कट्टरपंथी सामग्री के संपर्क में आने से जोड़ता है। जबकि कोई भी क़ानून इन जोखिमों को पूरी तरह से समाप्त नहीं कर सकता है।
कानूनी ढांचे पहुंच में देरी करके नुकसान की संभावना को काफी कम कर सकते हैं जब तक कि बच्चों में अधिक मनोवैज्ञानिक लचीलापन न हो, प्लेटफार्मों को सुरक्षा-दर-डिजाइन सिद्धांतों को अपनाने की आवश्यकता होती है, और यह सुनिश्चित करना कि युवा उपयोगकर्ता आक्रामक डेटा संग्रह या जोड़तोड़ विज्ञापन के अधीन नहीं हैं। एक कानूनी जनादेश जो प्लेटफार्मों को प्रभावी आयु-आश्वासन प्रौद्योगिकियों को लागू करने के लिए मजबूर करता है, नाबालिगों की प्रोफाइलिंग को सीमित करता है, और सुरक्षा जोखिमों की पारदर्शी रिपोर्टिंग की आवश्यकता होती है, यह नवाचार के लिए बाधा नहीं है, बल्कि जिम्मेदार तकनीकी विकास के लिए एक आवश्यक शर्त है।
अंततः, सोशल मीडिया तक नाबालिगों की पहुंच के बारे में नियामक शून्य कानून की विफलता का गठन करता है, न कि केवल नीति में एक अंतर। "सरकारें जो बच्चों को शक्तिशाली, अनियमित डिजिटल वातावरण को नेविगेट करने की अनुमति देती हैं, वे एक मुख्य सुरक्षात्मक जिम्मेदारी का त्याग करती हैं। कानून स्वतंत्रता पर प्रतिबंध नहीं है, बल्कि उन लोगों की सुरक्षा के लिए समाज की प्रतिबद्धता की पुष्टि है जो पर्याप्त रूप से अपनी रक्षा नहीं कर सकते हैं।" इस तरह के हस्तक्षेप के लिए कानूनी नींव पहले से ही मौजूद है; जिस चीज की कमी है वह विधायी संकल्प है। जैसे-जैसे प्रौद्योगिकी तेजी से विकसित हो रही है, युवा उपयोगकर्ताओं के लिए जोखिम केवल तेज हो जाएंगे।
इसलिए राज्यों को स्पष्ट आयु सीमा, मजबूत सत्यापन प्रक्रियाओं, पारदर्शी निरीक्षण संरचनाओं और सार्थक जवाबदेही तंत्र स्थापित करने के लिए तात्कालिकता के साथ कार्य करना चाहिए। नाबालिगों के कल्याण को वैश्विक निगमों के विवेक पर छोड़ना विनियमन नहीं है - यह उपेक्षा है। "एक आधुनिक समाज जो अपने बच्चों को महत्व देता है, उसे यह सुनिश्चित करना चाहिए कि कानून, न कि कॉरपोरेट नीति, उनकी रक्षा की पहली पंक्ति के रूप में खड़ा हो।"
लेखक- डॉ. एस. ए. थमीमुल अंसारी ब्रेनवेयर यूनिवर्सिटी, कोलकाता में प्रोफेसर हैं। विचार व्यक्तिगत होते हैं।