भारत के सोशल मीडिया विनियमन संरचना में परिवर्तन | 14 Feb 2026

यह एडिटोरियल 11/02/2026 को द हिंदू के बिज़नेस लाइन में प्रकाशित ‘Freedom from toxicity’ शीर्षक वाले लेख पर आधारित है। यह एडिटोरियल ऑनलाइन टॉक्सिसिटी तथा AI-प्रेरित दुरुपयोग को लेकर बढ़ती चिंताओं की पृष्ठभूमि में भारत द्वारा सोशल मीडिया विनियमों को सख़्त किये जाने की समीक्षा करता है। इसमें त्वरित कंटेंट रिमूवल की कार्रवाइयों और अभिव्यक्ति की स्वतंत्रता तथा विधि द्वारा स्थापित प्रक्रिया के संरक्षण के बीच उत्पन्न संवैधानिक तनाव को रेखांकित किया गया है।

प्रिलिम्स के लिये: IT अधिनियम 2000, DPDP अधिनियम 2023, BNS अधिनियम 2023, IT नियम 2021, OTT का विनियमन: प्रसारण विनियमन विधेयक का मसौदा, 2023 

मेन्स के लिये: सोशल मीडिया से संबंधित विनियामक प्रावधान, प्रमुख मुद्दे और आवश्यक उपाय।

ऐसे युग में जब डिजिटल मंच तीव्र गति से फेक इंफॉर्मेशन को प्रसारित कर रहे हैं, भारत द्वारा सोशल मीडिया पर टेकडाउन्स (पोस्ट हटाने) की समय सीमा को मात्र तीन घंटे तक सीमित करना ऑनलाइन टॉक्सिसिटी को नियंत्रित करने की बढ़ती तात्कालिकता को प्रतिबिंबित करता है। हालाँकि वही गति जो दुरुपयोग का प्रसार करती है, यदि शक्ति का प्रयोग संयम के बिना किया जाये तो यह सेंसरशिप को भी तीव्र कर सकती है। चुनौती यह है कि अभिव्यक्ति की स्वतंत्रता की संवैधानिक गारंटी को कमज़ोर किये बिना डिजिटल नुकसान पर किस प्रकार अंकुश लगाया जाए। यह तनाव भारत को एक बार पुनः तकनीकी शासन तथा नागरिक स्वतंत्रताओं के द्वार-चौराहे पर ला खड़ा करता है।

भारत में सोशल मीडिया की निगरानी को सुदृढ़ करने के लिये सरकार द्वारा हाल ही में उठाए गए प्रमुख कदम क्या हैं?

  • एल्गोरिदम आधारित जवाबदेही और त्वरित प्रतिक्रिया: नियामक रुख निष्क्रिय 'सेफ हार्बर' से हटकर अति-सक्रिय जवाबदेही की ओर स्थानांतरित हो गया है, जहाँ प्लेटफॉर्म अब तटस्थ माध्यम नहीं बल्कि ‘एक्टिव गेटकीपर’ हैं जिन्हें विधिक प्रतिरक्षा बनाए रखने के लिये रियल टाइम सेंसरशिप टूल्स लागू करने के लिये विवश किया जाता है।  
    • नवीनतम संशोधन ने 'नोटिस और टेकडाउन' की समयसीमा को मौलिक रूप से बदलकर लगभग असंभव गति तक पहुँचा दिया है।  नवीनतम संशोधन ने ‘नोटिस और टेकडाउन’ की समय-सीमा को मूलतः अत्यंत संक्षिप्त और व्यवहार में लगभग असंभव स्तर तक सीमित कर दिया है। 
    • हालिया सरकारी निर्देशों के अनुसार अवैध कंटेंट टेकडाउन की समय-सीमा 36 घंटे से घटाकर 3 घंटे कर दी गयी है तथा डीपफेक अश्लील कंटेंट को अब 2 घंटे के भीतर हटाना अनिवार्य है, अन्यथा आपराधिक दायित्व उत्पन्न होगा।
  • कृत्रिम मीडिया और AI गवर्नेंस: वर्ष 2026 के IT संशोधन नियमों के अंतर्गत ‘सिंथेटिक रूप से जेनरेटेड कंटेंट’ को ऐसी ऑडियो या विज़ुअल कंटेंट के रूप में परिभाषित किया गया है, जिसे कंप्यूटर एल्गोरिदम के माध्यम से इस प्रकार निर्मित या परिवर्तित किया गया हो कि वह वास्तविक व्यक्ति या घटना के समान तथा उससे अप्रभेद्य प्रतीत हो।
    • ‘लायर्स डिविडेंड’ अर्थात वह लाभ, जिसमें वास्तविक साक्ष्यों को भी फर्ज़ी बताकर खारिज़ कर दिया जाता है, से निपटने के लिये सरकार ने अब यह अनिवार्य कर दिया है कि ‘सिंथेटिकली जेनरेटेड इन्फॉर्मेशन (SGI)’ पर स्पष्ट वॉटरमार्क और लेबल लगाया जाये। इसके परिणामस्वरूप प्लेटफॉर्म को उपभोक्ता अनुभव की सहजता के बजाय कंटेंट के जेनरेशन और प्रामाणिकता को प्राथमिकता देने हेतु अपने यूज़र इंटरफेस को रिडिज़ाइन करना पड़ रहा है, अन्यथा IT अधिनियम की धारा 69A के अंतर्गत प्रतिबंध का जोखिम रहेगा।
      • इसके अलावा, नियमों का पालन न करने पर प्लेटफॉर्म को ब्लॉक करने और IT अधिनियम के तहत अधिकारियों को संभावित कारावास की सजा भी हो सकती है।
  • डेटा संप्रभुता और बाल सुरक्षा: डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम (DPDPA) 2023, प्लेटफॉर्मों पर नाबालिगों की उम्र सत्यापित करने और 'सत्यापन योग्य माता-पिता की सहमति' प्राप्त करने का एक न्यासी कर्त्तव्य लागू करके अनियंत्रित डेटा मोनेटाइजेशन (Monetisation) के युग को समाप्त करता है, एक ऐसा कदम जो यूज़र्स ऑनबोर्डिंग में बाधा उत्पन्न करके 18 वर्ष से कम आयु वर्ग को लक्षित करने वाले विज्ञापन-राजस्व मॉडल को खतरे में डालता है।
    • उदाहरण के लिये, एक हालिया सर्वेक्षण से पता चलता है कि 9-17 वर्ष की आयु के शहरी भारतीय बच्चों में से 49% बच्चे प्रतिदिन तीन घंटे से अधिक समय सोशल मीडिया, OTT प्लेटफॉर्म और गेमिंग पर बिताते हैं, जिनमें से 22% छह घंटे से अधिक समय बिताते हैं।
      • इस व्यापक स्तर पर भागीदारी को देखते हुए, DPDPA, 2023 की आयु सत्यापन और सत्यापन योग्य माता-पिता की सहमति संबंधी आवश्यकताएँ प्रवेश प्रक्रिया में बाधा उत्पन्न करती हैं तथा नाबालिगों के डेटा-आधारित मोनेटाइजेशन (Monetisation) को सीमित करती हैं।
  • शिकायत अपील समितियों (GAC) के माध्यम से संस्थागत निगरानी: सरकार ने बिग टेक के मनमाने मॉडरेशन निर्णयों के खिलाफ 'डिजिटल नागरिकों' को सशक्त बनाने के लिये अपील प्रक्रिया का विकेंद्रीकरण किया है।
    • इसके परिणामस्वरूप एक ऐसा ‘संप्रभु स्तर’ निर्मित हुआ है, जो प्लेटफॉर्म की आंतरिक नीतियों के ऊपर स्थित है।
    • लगभग 97 प्रतिशत मामलों के निस्तारण की रिपोर्टेड दर उच्च प्रक्रियात्मक दक्षता को दर्शाती है, हालाँकि यह भारत में डिजिटल प्लेटफॉर्म शासन संरचना में एक मौलिक परिवर्तन का भी संकेतक है।
  • दुष्प्रचार के लिये आपराधिक दायित्व: सूचना प्रौद्योगिकी अधिनियम के अंतर्गत नागरिक दंडों से आगे बढ़ते हुए, नवीनतम आपराधिक कानून (BNS) ने ऐसी ‘झूठी या भ्रामक सूचना’ के सृजन या प्रकाशन को अपराध घोषित किया है, जो भारत की संप्रभुता को खतरे में डालती हो। इसके माध्यम से दायित्व को प्लेटफॉर्म (मध्यस्थ) से हटाकर प्रत्यक्ष रूप से व्यक्तिगत यूज़र्स पर स्थानांतरित कर दिया गया है। अब अप्रमाणित कथनों के प्रसार पर यूज़र्स को गैर-जमानती वारंट का सामना करना पड़ सकता है।
    • यह डिजिटल पारिस्थितिकी तंत्र में प्लेटफॉर्म-केंद्रित विनियमन से उपयोगकर्त्ता-केंद्रित आपराधिक उत्तरदायित्व की ओर एक महत्त्वपूर्ण परिवर्तन को रेखांकित करता है।  

भारत में सोशल मीडिया विनियमन से संबंधित प्रमुख विधियाँ

  • सूचना प्रौद्योगिकी अधिनियम, 2000: इलेक्ट्रॉनिक संचार, मध्यस्थों और साइबर अपराधों को विनियमित करने वाला मूल कानून।
  • डिजिटल व्यक्तिगत डेटा संरक्षण अधिनियम, 2023: डिजिटल प्लेटफॉर्मों पर व्यक्तिगत डेटा के प्रसंस्करण के लिये सहमति-आधारित ढाँचा स्थापित करता है।
    • प्रवर्तन और दंड के लिये डेटा संरक्षण बोर्ड का गठन किया गया है।
  • भारतीय न्याय संहिता, 2023: ऑनलाइन अश्लीलता, मानहानि, यौन उत्पीड़न और घृणास्पद भाषण जैसे अपराधों को दंडित करती है।
    • कंटेंट हटाने के आदेशों के लिये ठोस आपराधिक कानूनी आधार प्रदान करता है।
    • इसका प्रयोग सूचना प्रौद्योगिकी अधिनियम के प्रावधानों के साथ किया जाता है।
  • लैंगिक अपराधों से बालकों का संरक्षण (POCSO) अधिनियम, 2012: इस अधिनियम की धारा 13 किसी भी माध्यम— इलेक्ट्रॉनिक, मुद्रित या प्रसारण में बच्चे का यौन तृप्ति के उद्देश्य से उपयोग किये जाने को अपराध घोषित करती है।

भारत में सोशल मीडिया के नियमन से जुड़े प्रमुख मुद्दे क्या हैं?

  • त्वरित कार्रवाई और प्रक्रियात्मक सुरक्षा उपायों का संभावित क्षरण: कानूनी कार्रवाई की समय सीमा को घटाकर केवल 3 घंटे कर देने से प्लेटफॉर्म 'डिलीट फर्स्ट, वेरीफाई लेटर (पहले हटाएँ, बाद में सत्यापित करें)' की परिचालन प्रक्रिया में फँस जाते हैं, जिससे वैध राजनीतिक असहमति एवं वास्तविक गैर-कानूनी कंटेंट के बीच अंतर करने के लिये आवश्यक उचित प्रक्रिया प्रभावी रूप से समाप्त हो जाती है। 
    • यह श्रेया सिंघल मामले में सर्वोच्च न्यायालय द्वारा समर्थित प्रक्रियात्मक सुरक्षा उपायों के विपरीत है।
    • मादक पदार्थों के सेवन की तुलना में गति को प्राथमिकता देने वाला यह आदेश आपराधिक अभियोजन से 'सेफ हार्बर' प्रतिरक्षा की रक्षा के लिये अत्यधिक सेंसरशिप के लिये एक व्यवस्थित प्रोत्साहन उत्पन्न करता है।
  • व्यंग्य और संदर्भ का संभावित एल्गोरिदम द्वारा विलोपन: कृत्रिम बुद्धिमत्ता से उत्पन्न कंटेंट (SGI) की 'सक्रिय निगरानी' के लिये सरकार के जनादेश के कारण स्वचालित फिल्टरों का उपयोग आवश्यक हो जाता है जिनमें व्यंग्य, पैरोडी या अकादमिक अनुसंधान का पता लगाने की संज्ञानात्मक क्षमता का अभाव होता है, जिसके परिणामस्वरूप कलाकारों और व्यंग्यकारों का ‘एल्गोरिथ्मिक मौन’ उत्पन्न होता है।
    • हाल ही में हुए एक सर्वेक्षण के अनुसार, कंटेंट मॉडरेटर AI-संचालित मॉडरेशन सिस्टम में 80% तक त्रुटि दर की रिपोर्ट कर रहे हैं और कुछ कर्मचारी उच्च स्तर की अशुद्धियों के कारण AI सुझावों को पूरी तरह से नज़रअंदाज़ कर रहे हैं।
    • प्लेटफॉर्मों को कंटेंट को केवल 'हटाने' के बजाय 'रोकने' के लिये बाध्य करके, राज्य प्रभावी रूप से प्रत्येक यूज़र्स के अपलोड बटन पर एक स्थायी, स्वचालित डिजिटल सीमा रक्षक स्थापित कर रहा है।
  • केंद्रीकृत तथ्य-सत्यापन प्राधिकरण को लेकर चिंताएँ: सरकार द्वारा संचालित तथ्य जाँच इकाइयों (FCU) की स्थापना से एक खतरनाक संवैधानिक संघर्ष उत्पन्न होता है जहाँ राज्य 'अपने ही मामले में न्यायाधीश' के रूप में कार्य करता है और सरकारी कामकाज़ की किसी भी आलोचना को 'फर्ज़ी या भ्रामक' करार देता है।
    • वर्ष 2024 में, सर्वोच्च न्यायालय ने केंद्र सरकार की उस अधिसूचना पर रोक लगा दी थी जिसमें तथ्य जाँच इकाई की स्थापना की गई थी। 
      • मुख्य न्यायाधीश डी वाई चंद्रचूड़ और न्यायमूर्ति जे.बी. परदीवाला और मनोज मिश्रा की अध्यक्षता वाली पीठ ने टिप्पणी की कि यह नियम 'वाक् एवं अभिव्यक्ति की स्वतंत्रता पर संभावित प्रभाव' के कारण एक 'गंभीर संवैधानिक प्रश्न' उठाता है।
  • 'निजता बनाम ट्रेसबिलिटी की क्षमता' की गतिरोध: वायरल दुष्प्रचार पर अंकुश लगाने के लिये ‘फर्स्ट ओरिजिनेटर ट्रेसबिलिटी’ की मांग एंड-टू-एंड एन्क्रिप्शन (E2EE) को प्रत्यक्ष रूप से कमज़ोर करती है तथा एक ऐसा ‘बैकडोर’ जोखिम उत्पन्न करती है जिसका दुरुपयोग राज्य निगरानी हेतु तथा साइबर-अपराधी डेटा उल्लंघन हेतु कर सकते हैं।
    • इस नियामकीय अड़चन ने वैश्विक प्लेटफॉर्मों को एक असंभव स्थिति में डाल दिया है: या तो वे भारतीय कानून का पालन करें और वैश्विक सुरक्षा संरचना से समझौता करें, या कानून की अवहेलना करें तथा बाज़ार से पूरी तरह बाहर होने का सामना करें।
    • उदाहरण के लिये, WhatsApp ने दिल्ली उच्च न्यायालय में तर्क दिया है कि ट्रेसबिलिटी लागू करने का अर्थ भारत के 50 करोड़ से अधिक यूज़र्स के लिये एन्क्रिप्शन तोड़ना होगा।
  • स्टार्टअप्स के लिये उच्च अनुपालन 'प्रवेश बाधा': जहाँ 'बिग टेक' 24/7 लीगल टीम और उन्नत AI फिल्टर की भारी लागत वहन कर सकती है, वहीं वर्तमान नियामक 'वन-साइज़-फिट्स-ऑल' दृष्टिकोण स्वदेशी भारतीय सोशल मीडिया स्टार्टअप्स के लिये प्रवेश में बाधा के रूप में कार्य करता है। 
    • यह 'नियामक कब्ज़ा' अनजाने में मौजूदा दिग्गजों के एकाधिकार को सुदृढ़ करता है, जो वर्ष 2026 के नियमों द्वारा आवश्यक विशेष तकनीकी और विधिक बुनियादी ढाँचे का प्रबंधन करने में सक्षम एकमात्र कंपनियाँ हैं।
      • इसके अलावा, मौजूदा नियमों के तहत रेजिडेंट ग्रीवेंस ऑफिसर और 24/7 नोडल संपर्क की आवश्यकता होती है, जिससे छोटे भागीदारों के लिये लागत बढ़ जाती है।
  • क्रिएटर इकोनॉमी का ब्रॉडकास्ट-करण: हाल ही में 'महत्त्वपूर्ण प्रभावशाली व्यक्तियों' को ‘डिजिटल न्यूज़ ब्रॉडकास्टर’ के रूप में पुनर्वर्गीकृत करना व्यक्तिगत रचनाकारों को टीवी नेटवर्कों जैसे ही ‘प्रोग्राम कोड’ के अधीन ले आता है तथा कंटेंट को आंतरिक समितियों से पूर्व-स्वीकृति की आवश्यकता पड़ती है।
    • क्रिएटर इकोनॉमी का यह 'प्रसारणीकरण' सोशल मीडिया की सहजता और गति को दबा देता है, जिससे भारत की रचनात्मक प्रतिभा के विदेशी या विकेंद्रीकृत प्लेटफॉर्मों की ओर पलायन की संभावना बढ़ जाती है।
    • ड्राफ्ट ब्रॉडकास्टिंग सर्विसेज़ (रेगुलेशन) बिल, 2023 तीन-स्तरीय स्व-नियामक ढाँचा प्रस्तावित करता है जिसमें स्व-नियमन, स्व-नियामक संगठन और ब्रॉडकास्ट एडवाइज़री काउंसिल (BAC) शामिल हैं। 
      • हालाँकि BAC अपीलों की सुनवाई कर सकता है और सिफारिशें दे सकता है, लेकिन अंतिम निर्णय केंद्र सरकार के पास होता है। 
      • इस विधेयक में न तो यह स्पष्ट किया गया है कि BAC की सिफारिशें बाध्यकारी हैं या नहीं और न ही सरकार के निर्णयों के खिलाफ अपील करने का कोई तंत्र प्रदान किया गया है।
  • विधिक निवारण और राजनीतिक अभिव्यक्ति का सिमटता क्षेत्र: त्वरित टेकेडाउन, AI-लेबलिंग और नए दंड संहिता (BNS) का संयुक्त प्रभाव एक मनोवैज्ञानिक ‘चिलिंग इफेक्ट’ उत्पन्न करता है जिसमें नागरिक गैर-जमानती वारंट या स्वचालित अकाउंट प्रतिबंध के भय से स्वयं-सेंसरशिप अपनाते हैं। 
    • इस समस्या का व्यापक महत्त्व इस संक्रमण में निहित है जहाँ सोशल मीडिया जीवंत बहस के ‘टाउन स्क्वेयर’ से बदलकर एक ‘रेगुलेटेड गैलरी’ बनता जा रहा है जिसमें केवल राज्य-स्वीकृत नैरेटिव को ही निर्बाध वायरल मार्ग उपलब्ध होता है।

भारत में सोशल मीडिया के लिये नियामक ढाँचे को मज़बूत करने के लिये किन उपायों की आवश्यकता है?  

  • एल्गोरिदम ऑडिट और पारदर्शिता को संस्थागत रूप देना: कंटेंट डिलीवरी के 'ब्लैक बॉक्स' स्वरूप का मुकाबला करने के लिये, डिजिटल इंडिया फ्रेमवर्क के तहत एक समर्पित 'एल्गोरिदम अकाउंटेबिलिटी ब्यूरो' की स्थापना की जानी चाहिये, जो अनुशंसा इंजनों का आवधिक, स्वतंत्र ऑडिट करे। 
    • इस उपाय के अंतर्गत प्लेटफॉर्मों को कंटेंट को बढ़ावा देने में प्रयुक्त मानकों का प्रकटीकरण करना अनिवार्य होगा, ताकि यह सुनिश्चित किया जा सके कि एल्गोरिदम संलग्नता मेट्रिक्स के लिये सनसनीखेज़ ध्रुवीकरणकारी अथवा डीपफेक कंटेंट को असंगत रूप से प्राथमिकता न दें।
    • ‘डिज़ाइन के स्तर पर सुरक्षा’ के सिद्धांत को लागू कर नियामक यह बाध्य कर सकते हैं कि किसी भी नई सुविधा के लागू होने से पहले मध्यस्थ यह प्रदर्शित करें कि उनका कोड संवैधानिक नैतिकता या उपयोगकर्त्ता सुरक्षा का अनजाने में उल्लंघन नहीं करता। इससे प्रतिक्रियात्मक कंटेंट रिमूवल के बजाय सक्रिय, प्रणालीगत जोखिम न्यूनीकरण पर ज़ोर स्थानांतरित होता है।
  • मध्यस्थों का जोखिम-आधारित वर्गीकरण लागू करना: ‘महत्त्वपूर्ण’ और ‘गैर-महत्त्वपूर्ण’ के द्विआधारी विभेद से आगे बढ़ते हुए नियामक ढाँचे को एक सूक्ष्म, बहु-स्तरीय दृष्टिकोण अपनाना चाहिये, जिसमें प्लेटफॉर्मों को उनके उपयोगकर्त्ता आधार, संभावित क्षति एवं कार्य-प्रकृति (जैसे: ई-कॉमर्स बनाम सार्वजनिक विमर्श) के आधार पर वर्गीकृत किया जाना चाहिये।
    • इससे 'असममित विनियमन' की अनुमति मिलती है, जहाँ समाचार और जनमत से निपटने वाले उच्च जोखिम वाले प्लेटफॉर्मों को अनिवार्य तथ्य-जाँच साझेदारी एवं त्वरित प्रतिक्रिया टीमों जैसे सख्त अनुपालन बोझ का सामना करना पड़ता है, जबकि छोटे स्टार्टअप को कम दायित्वों का सामना करना पड़ता है। 
    • यह सुनिश्चित करता है कि विनियमन नवोन्मेष को बाधित किये बिना गलत सूचनाओं पर अंकुश लगा दे, जिससे प्रत्येक डिजिटल इकाई के विशिष्ट जोखिम-प्रोफाइल के अनुरूप एक लचीला पारितंत्र विकसित होता है।
  • विकेंद्रीकृत सह-नियामक शिकायत निवारण मॉडल: यद्यपि शिकायत अपीलीय समिति (GAC) एक सकारात्मक पहल है, तथापि नागरिक समाज, उद्योग विशेषज्ञों और न्यायिक प्रतिनिधियों को सम्मिलित करते हुए एक अधिक मज़बूत ‘सह-विनियामक स्व-अनुशासनात्मक तंत्र’ को प्रारंभिक स्तर पर कंटेंट विवादों के निपटारे हेतु सशक्त किया जाना चाहिये।
    • इससे राज्य के नियंत्रण एवं प्लेटफॉर्म की स्वायत्तता के बीच एक संतुलन बनता है, जिससे यह सुनिश्चित होता है कि कंटेंट नियंत्रण संबंधी निर्णय पूरी तरह से सरकार द्वारा संचालित न हों और न ही पूरी तरह से कंपनियों के विवेक पर निर्भर हों। 
    • ऐसा निकाय 'सामुदायिक दिशानिर्देशों' के लिये बाध्यकारी उद्योग मानक निर्धारित कर सकता है जो भारतीय संवैधानिक मूल्यों के अनुरूप हों, यह सुनिश्चित करते हुए कि 'अभिव्यक्ति की स्वतंत्रता' और 'उचित प्रतिबंधों' की व्याख्या सुसंगत, पारदर्शी एवं कानूनी रूप से सही हो।
  • अत्यधिक संवेदनशील कंटेंट के लिये ‘त्वरित प्रतिक्रिया’ हटाने की प्रक्रिया: यह स्वीकार करते हुए कि दुष्प्रचार का वायरल स्वभाव पारंपरिक विधिक उपायों से कहीं अधिक तीव्र है, नियामक ढाँचे को राष्ट्रीय सुरक्षा, बाल यौन शोषण कंटेंट (CSAM) और हिंसा के उकसावे से संबंधित कंटेंट के लिये एक ‘ग्रीन चैनल’ की व्यवस्था संस्थागत रूप से स्थापित करनी चाहिये।
    • इसमें स्वचालित हैश-मैचिंग तकनीकों का उपयोग शामिल होगा, जो व्यापक रूप से प्रसारित अवैध कंटेंट को सभी प्लेटफॉर्मों पर एक साथ चिह्नित कर प्रसार को तत्काल नियंत्रित कर सकें और ‘व्हैक-ए-मोल’ समस्या को कम करें।
    • हाल के संशोधनों के अनुरूप, इस प्रकार की विशिष्ट श्रेणियों के लिये अनुपालन की समय सीमा को कानूनी रूप से तीन घंटे से कम करके, राज्य संकट की स्थितियों के दौरान प्लेटफॉर्मों के दुरुपयोग के खिलाफ एक ठोस निवारक उपाय बनाता है।
  • डिजिटल लिटरेसी और 'संज्ञानात्मक सुरक्षा' का एकीकरण: विनियमन को प्लेटफॉर्मों से आगे बढ़कर यूज़र्स तक विस्तारित होना चाहिये, जिसमें यूज़र्स ऑनबोर्डिंग प्रक्रिया के हिस्से के रूप में 'संज्ञानात्मक सुरक्षा' मॉड्यूल को अनिवार्य बनाना तथा उच्च पहुँच वाले खातों के लिये डिजिटल साक्षरता सत्यापन की आवश्यकता शामिल है। 
    • प्लेटफॉर्मों को कानूनी रूप से 'पूर्व-जाँच' अभियान चलाने के लिये बाध्य किया जाना चाहिये, जो यूज़र्स को ज्ञात गलत सूचनाओं के प्रसार से पहले ही उनसे अवगत कराएँ, न कि केवल बाद में उनका खंडन करें। 
    • यह उपाय यूज़र्स के मस्तिष्क को अंतिम रक्षा-पंक्ति मानते हुए प्लेटफॉर्मों पर यह दायित्व डालता है कि वे अपने स्थानीय राजस्व का एक निश्चित प्रतिशत सत्यापित, तटस्थ डिजिटल साक्षरता पहलों में निवेश करें, जिससे नागरिक सूचनाओं का समालोचनात्मक मूल्यांकन कर सकें।
  • एक स्वतंत्र वैधानिक 'डिजिटल सुरक्षा प्राधिकरण' की स्थापना: प्रवर्तन को पेशेवर बनाने और राजनीतिक पूर्वाग्रह के आरोपों को कम करने के लिये, नियामक शक्ति को मंत्रालय से एक स्वतंत्र, अर्द्ध-न्यायिक 'डिजिटल सुरक्षा प्राधिकरण' को अंतरित किया जाना चाहिये, जो SEBI जैसे निकायों के मॉडल पर आधारित हो। 
    • इस विशेष नियामक के पास जटिल एल्गोरिदम का ऑडिट करने की तकनीकी क्षमता होगी और प्लेटफॉर्म के स्थानीय राजस्व के बजाय वैश्विक कारोबार के आधार पर श्रेणीबद्ध दंड लगाने की विधिक स्वायत्तता होगी।
    • 'नीति निर्माता' को 'प्रवर्तनकर्त्ता' से अलग करके, राज्य यह सुनिश्चित करता है कि अनुपालन आदेश एक पारदर्शी, नियमबद्ध प्रक्रिया के माध्यम से जारी किये जाएं, जिससे कार्यकारी अतिचार से ढाँचे की रक्षा हो सके, साथ ही तकनीकी दिग्गजों के लिये कड़ी जवाबदेही सुनिश्चित हो सके।
  • 'ट्रेसेबल एनोनिमिटी' मानकों को अनिवार्य बनाना: यूज़र्स की निजता और कानून प्रवर्तन आवश्यकताओं के बीच संघर्ष को हल करने के लिये, फ्रेमवर्क को एक 'ट्रेसेबल एनोनिमिटी' प्रोटोकॉल लागू करना चाहिये, जहाँ यूज़र्स जनता के लिये गुमनाम रहते हैं, लेकिन न्यायिक वारंट के माध्यम से ही सुलभ ‘एन्क्रिप्टेड हैश की’ के माध्यम से उनका पता लगाया जा सकता है। 
    • यह तंत्र विशिष्ट गैरकानूनी कृत्यों के लिये ही गुमनामी के 'कॉर्पोरेट पर्दे को भेदने' की अनुमति देता है, जिसके लिये प्रत्येक सामान्य यूज़र्स के लिये दखल देने वाली विशिष्ट पहचान (जैसे आधार लिंकिंग) की आवश्यकता नहीं होती है। 
    • यह ‘मध्य-मार्ग’ आर्किटेक्चर मुक्त, गुमनाम अभिव्यक्ति की लोकतांत्रिक भावना की रक्षा करते हुए समन्वित बॉट नेटवर्कों और दुर्भावनापूर्ण तत्वों को प्राप्त दण्डमुक्ति को समाप्त करती है।

निष्कर्ष: 

भारत का विकसित होता सोशल मीडिया विनियमन प्लेटफॉर्म-न्यूट्रैलिटी से हटकर राज्य-केंद्रित डिजिटल नियंत्रण की ओर एक निर्णायक परिवर्तन को दर्शाता है जो हानि, दुष्प्रचार (गलत सूचना) एवं राष्ट्रीय सुरक्षा से जुड़ी वैध चिंताओं से प्रेरित है। हालाँकि अत्यधिक तीव्र गति से की जाने वाली टेकडाउन की कार्रवाइयाँ, कार्यपालिका-नेतृत्व सत्य-निर्णय तथा आपराधिक दायित्व के विस्तार से अभिव्यक्ति की स्वतंत्रता, निजता एवं समुचित प्रक्रिया से जुड़ी संवैधानिक गारंटियों के क्षरण का जोखिम उत्पन्न होता है। मूल चुनौती एक तीव्रगामी डिजिटल पारितंत्र में त्वरित हानि-न्यूनीकरण और अधिकार-संरक्षणकारी सुरक्षा-प्रावधानों के बीच संतुलन स्थापित करने की है। अतः एक विश्वसनीय और भविष्य-उन्मुख ढाँचे के केंद्र में आनुपातिकता, पारदर्शिता और संस्थागत स्वतंत्रता का अंतर्निहित होना अनिवार्य है।

दृष्टि मेन्स प्रश्न

भारत में सोशल मीडिया विनियमन राष्ट्रीय सुरक्षा की रक्षा और लोकतांत्रिक स्वतंत्रता को संरक्षित करने के बीच तनाव को दर्शाता है। परीक्षण कीजिये।

अक्सर पूछे जाने वाले प्रश्न

प्रश्न 1. टेकडाउन (कंटेंट रिमूवल) की समयसीमा को घटाकर 3 घंटे क्यों कर दिया गया है ?  
हानिकारक, अवैध और कृत्रिम बुद्धिमत्ता से उत्पन्न कंटेंट के तीव्र वायरल प्रसार पर अंकुश लगाने के लिये।

प्रश्न 2. नए नियमों को लेकर सबसे बड़ी चिंता क्या है? 
प्रक्रियात्मक सुरक्षा उपायों के अभाव में अत्यधिक सेंसरशिप का जोखिम।

प्रश्न 3. सिंथेटिक जनरेटेड इन्फॉर्मेशन (SGI) क्या है?
 AI द्वारा निर्मित या मैनीपुलेटेड (परिवर्तित) किये गए कंटेंट जैसे कि डीपफेक और कृत्रिम मीडिया।

प्रश्न 4. DPDPA सोशल मीडिया प्लेटफॉर्म को किस प्रकार प्रभावित करता है?
 यह सहमति, आयु-सत्यापन तथा डेटा-फिड्यूशियरी से संबंधित दायित्वों को अनिवार्य करता है।

प्रश्न 5. सेफ-हार्बर पर दबाव क्यों पड़ रहा है?
क्योंकि ‘रचनात्मक ज्ञान’ (Constructive Knowledge) और त्वरित दायित्व निर्धारण मध्यस्थों की प्रतिरक्षा को कमज़ोर कर देते हैं।

UPSC सिविल सेवा परीक्षा, विगत वर्ष के प्रश्न (PYQ) 

मेन्स 

प्रश्न 1. सोशल मीडिया एवं 'को गोपित' (एन्क्रिप्टिंग) संदेश सेवाएँ गंभीर चुनौती हैं। सोशल मीडिया के सुरक्षा निहितार्थों को संबोधित करते हुए विभिन्न स्तरों पर क्या उपाय अपनाए गए हैं? इस समस्या को संबोधित करते हुए अन्य किन्हीं उपायों का भी सुझाव दीजिये। (2024)