जिम्मेदार AI गवर्नेंस: भारत का विकासशील नियामक कार्यढाँचा | 31 Dec 2025
यह एडिटोरियल 30/12/2025 को द हिंदू में प्रकाशित “Model conduct: On India, AI use” पर आधारित है। यह लेख कृत्रिम बुद्धिमत्ता के संचालन के प्रति भारत के बदलते दृष्टिकोण का विश्लेषण करता है, जिसमें प्रमुख नियामक कमियों, नैतिक चुनौतियों एवं संस्थागत बाधाओं पर प्रकाश डाला गया है।
प्रिलिम्स के लिये: सूचना प्रौद्योगिकी अधिनियम, 2000, डीपफेक, सूचना प्रौद्योगिकी नियम, 2021, डिजिटल व्यक्तिगत डेटा संरक्षण (DPDP) अधिनियम, 2023
मेन्स के लिये: भारत में AI गवर्नेंस और इससे संबद्ध मुद्दे, AI गवर्नेंस को सुदृढ़ करने के उपाय।
कृत्रिम बुद्धिमत्ता अर्थव्यवस्थाओं और शासन व्यवस्था को नया आकार दे रही है, ऐसे में भारत एक महत्त्वपूर्ण नीतिगत मोड़ पर खड़ा है। हालाँकि इसने सूचना प्रौद्योगिकी नियमों, डेटा सुरक्षा मानदंडों और क्षेत्रीय विनियमों के माध्यम से सार्थक कदम उठाए हैं, लेकिन AI के सामाजिक एवं मनोवैज्ञानिक प्रभावों को नियंत्रित करने वाला एक व्यापक कार्यढाँचा अभी भी विकसित हो रहा है। चीन के दखलकारी मॉडल के विपरीत, भारत ने अधिकार-सम्मत और नवाचार-अनुकूल मार्ग अपनाया है, हालाँकि उपभोक्ता संरक्षण एवं संस्थागत क्षमता के क्षेत्र में अभी भी कमियाँ बनी हुई हैं। यह लेख भारत में AI गवर्नेंस की प्रमुख चुनौतियों, मौजूदा नियामक कार्यढाँचों और वैश्विक सर्वोत्तम प्रथाओं का विश्लेषण करता है, ताकि एक उत्तरदायी, प्रतिस्पर्द्धी एवं समावेशी AI पारिस्थितिकी तंत्र का निर्माण किया जा सके।
भारत में कृत्रिम बुद्धिमत्ता से संबंधित मौजूदा नियम क्या हैं?
- सूचना प्रौद्योगिकी (IT) अधिनियम, 2000: IT अधिनियम भारत में डिजिटल गतिविधियों को नियंत्रित करने वाला मूलभूत विधिक कार्यढाँचा है तथा अप्रत्यक्ष रूप से कृत्रिम बुद्धिमत्ता को भी नियंत्रित करता है। धारा 66C व 66D जैसे प्रावधान पहचान की चोरी एवं ऑनलाइन प्रतिरूपण से संबंधित हैं, जो डीपफेक और AI-आधारित धोखाधड़ी से जुड़े मामलों में तीव्रता से प्रासंगिक होते जा रहे हैं।
- धारा 79 मध्यस्थों को सुरक्षित आश्रय संरक्षण प्रदान करती है यदि वे उचित सावधानी बरतते हैं और सरकारी निर्देशों का अनुपालन करते हैं।
- IT (मध्यस्थ दिशानिर्देश एवं डिजिटल मीडिया आचार संहिता) नियम, 2021 (सूचना प्रौद्योगिकी नियम (IT), 2021): ये नियम मध्यस्थों को गैर-विधिक और भ्रामक कंटेंट, जिसमें कृत्रिम बुद्धिमत्ता से निर्मित एवं हेरफेर की गई मीडिया कंटेंट भी शामिल है, को हटाने के लिये बाध्य करके प्लेटफॉर्म की जवाबदेही को कार्यान्वित करते हैं। प्लेटफॉर्म को कृत्रिम कंटेंट को लेबल करना, शिकायत निवारण तंत्र स्थापित करना और सरकारी निर्देशों पर त्वरित कार्रवाई करना आवश्यक है।
- हाल ही में जारी सलाहों के माध्यम से सरकार ने स्पष्ट किया है कि जनरेटिव AI प्लेटफॉर्म इन नियमों के नियामक दायरे में आते हैं, जिससे अप्रत्यक्ष रूप से AI की तैनाती को नियंत्रित किया जा रहा है।
- डिजिटल व्यक्तिगत डेटा संरक्षण (DPDP) अधिनियम, 2023: DPDP अधिनियम भारत में व्यक्तिगत डेटा संरक्षण के लिये पहला व्यापक कार्यढाँचा प्रदान करता है, जो बिग डेटासेट पर निर्भर AI सिस्टम को सीधे प्रभावित करता है। यह वैध और उद्देश्य-सीमित डेटा प्रसंस्करण, सूचित सहमति, डेटा न्यूनीकरण एवं दुरुपयोग से सुरक्षा उपायों को अनिवार्य बनाता है।
- AI डेवलपर्स को व्यक्तिगत डेटा के प्रबंधन में निष्पक्षता, पारदर्शिता और सुरक्षा सुनिश्चित करनी होती है, जिससे यह अधिनियम भारत में उत्तरदायी AI परिनियोजन का केंद्रीय आधार बन जाता है।
- क्षेत्र-विशिष्ट AI विनियमन (RBI, SEBI और अन्य): भारत ने AI गवर्नेंस के लिये एक क्षेत्रीय दृष्टिकोण अपनाया है। RBI ने AI-आधारित वित्तीय निर्णयों में स्पष्टता, लेखापरीक्षा योग्यता और निष्पक्षता सुनिश्चित करने के लिये मॉडल जोखिम प्रबंधन दिशानिर्देश एवं फ्री-AI कार्यढाँचा जारी किया है।
- SEBI ने एल्गोरिदम ट्रेडिंग सिस्टम में पारदर्शिता और जवाबदेही अनिवार्य कर दी है।
- इसी प्रकार स्वास्थ्य क्षेत्र में (AI-आधारित चिकित्सा उपकरणों के लिये CDSCO की निगरानी), दूरसंचार क्षेत्र में (AI-संचालित नेटवर्क प्रबंधन से संबंधित DoT के लाइसेंसिंग मानदंड) और साइबर सुरक्षा में (घटनाओं की रिपोर्टिंग से संबंधित CERT-In के निर्देश) क्षेत्र-विशिष्ट निगरानी मौजूद है, जो यह सुनिश्चित करती है कि AI का उपयोग जनहित और क्षेत्रीय सुरक्षा मानदंडों के अनुरूप हो।
- IndiaAI मिशन: IndiaAI मिशन के तहत, सरकार क्षमता निर्माण, सार्वजनिक कंप्यूटर अवसंरचना और स्वदेशी मॉडल विकास के माध्यम से जिम्मेदार AI को बढ़ावा दे रही है।
- यह कार्यढाँचा नैतिक और मानव-केंद्रित AI पर ज़ोर देता है, व्यापक प्रतिबंधों के बजाय जोखिम-आधारित शासन को प्राथमिकता देता है, जिससे जवाबदेही सुनिश्चित करते हुए नवाचार को सक्षम बनाया जा सके।
- भारत के AI गवर्नेंस को प्रभावित करने वाले वैश्विक मानदंड: भारत का दृष्टिकोण विकसित हो रहे वैश्विक मानकों के अनुरूप है।
- OECD के AI सिद्धांत मानव-केंद्रित, पारदर्शी एवं जवाबदेह AI प्रणालियों की वकालत करते हैं।
- यूरोपीय संघ का AI अधिनियम जोखिम-आधारित नियामक मॉडल प्रस्तुत करता है, जबकि यूनेस्को की AI नैतिकता संबंधी अनुशंसा समावेशन, मानवाधिकारों और संधारणीयता पर बल देती हैं।
- भारत G20 और GPAI जैसे मंचों में सक्रिय रूप से भागीदारी करता है, जहाँ वह वैश्विक मानकों के निर्माण में योगदान देने के साथ-साथ उन्हें घरेलू वास्तविकताओं के अनुरूप ढालता है।
AI गवर्नेंस में कौन-कौन से मुद्दे बाधा डाल रहे हैं?
- विशिष्ट AI कानून का अभाव: भारत में AI को विनियमित करने के लिये कोई विशिष्ट कानून नहीं है। IT अधिनियम और डिजिटल व्यक्तिगत डेटा संरक्षण (DPDP) अधिनियम, 2023 जैसे मौजूदा ढाँचे स्वायत्त एवं आत्म-अधिगम प्रणालियों को ध्यान में रखकर नहीं बनाये गये थे। इससे AI-जनित क्षति के मामलों में उत्तरदायित्व, जवाबदेही और प्रवर्तन को लेकर अस्पष्टता बनी रहती है।
- इसके विपरीत, अमेरिका में प्रस्तावित एल्गोरिदमिक एकाउंटेबिलिटी एक्ट और डिफेंस प्रोटेक्शन एक्ट के तहत अनिवार्य सुरक्षा खुलासे जैसे स्पष्ट निगरानी उपाय मौजूद हैं।
- भारत में, AI विनियमन MeitY, RBI व SEBI जैसे निकायों में विखंडित बना हुआ है, जिससे समन्वय में अंतराल उत्पन्न होता है, जबकि AI की स्पष्ट कानूनी परिभाषा का अभाव सुसंगत विनियमन एवं अनुपालन को और अधिक जटिल बना देता है।
- डेटा की उपलब्धता और गुणवत्ता संबंधी बाधाएँ: AI सिस्टम को बड़े, विविध और उच्च गुणवत्ता वाले डेटासेट की आवश्यकता होती है, लेकिन भारत को खंडित डेटा, कमज़ोर डिजिटलीकरण (जैसे शहरी-ग्रामीण विभाजन, कम डिजिटल साक्षरता) और निजता संबंधी चिंताओं से जुड़ी चुनौतियों का सामना करना पड़ता है।
- हालाँकि DPDP अधिनियम व्यक्तिगत डेटा की सुरक्षा सही ढंग से करता है, लेकिन उच्च गुणवत्ता वाले, गुमनाम और गैर-व्यक्तिगत डेटासेट तक एक्सेस के लिये कार्यढाँचे में मौजूद कमियाँ AI नवाचार को सीमित कर सकती हैं, विशेष रूप से स्वास्थ्य सेवा एवं कृषि जैसे सार्वजनिक हित के क्षेत्रों में।
- अत्यधिक अनुपालन संबंधी बोझ स्टार्टअप्स को हतोत्साहित कर सकता है तथा घरेलू मॉडल के विकास में विलंब कर सकता है, जिससे भारत विदेशी प्रौद्योगिकियों पर निर्भर हो जाएगा। साथ ही, अपर्याप्त विनियमन से दुरुपयोग, भेदभाव एवं नैतिक उल्लंघन का खतरा भी बढ़ जाता है।
- एल्गोरिदम संबंधी पूर्वाग्रह और सामाजिक चिंताएँ: कई कृत्रिम बुद्धिमत्ता मॉडल ब्लैक बॉक्स की तरह काम करते हैं, जिससे उनकी निर्णय लेने की प्रक्रिया अपारदर्शी हो जाती है। इससे पूर्वाग्रह, भेदभाव और अनुचित परिणामों के बारे में गंभीर चिंताएँ उत्पन्न होती हैं, विशेष रूप से क्रेडिट स्कोरिंग, भर्ती एवं कल्याणकारी योजनाओं के वितरण जैसे क्षेत्रों में।
- यदि AI प्रणालियों को सावधानीपूर्वक नियंत्रित नहीं किया जाता है, तो वे सामाजिक पूर्वाग्रहों को बढ़ा सकती हैं, निगरानी को सक्षम बना सकती हैं तथा व्यक्तिगत स्वायत्तता के लिये खतरा उत्पन्न कर सकती हैं।
- तकनीकी जटिलता और लागू करने योग्य मानकों की कमी के कारण स्पष्टीकरण एवं निष्पक्षता सुनिश्चित करना अभी भी मुश्किल बना हुआ है।
- सीमित संस्थागत विशेषज्ञता: प्रभावी AI गवर्नेंस के लिये सरकारी संस्थानों के भीतर कुशल नियामकों, लेखा परीक्षकों और प्रौद्योगिकीविदों की आवश्यकता होती है।
- वर्तमान में, नियामक निकायों में क्षमता संबंधी बाधाएँ मौजूद हैं, जिससे जटिल AI प्रणालियों का प्रवर्तन और निगरानी चुनौतीपूर्ण हो जाती है, जो भारत की एल्गोरिदम ऑडिट और जोखिम मूल्यांकन करने की क्षमता को सीमित करती है।
- प्रमुख प्रौद्योगिकियों पर वैश्विक निर्भरता: भारत विदेशी AI मॉडल, क्लाउड इन्फ्रास्ट्रक्चर और सेमीकंडक्टर आपूर्ति श्रृंखलाओं पर निर्भर बना हुआ है।
- यह तकनीकी निर्भरता डेटा सॉवरेनिटी, रणनीतिक स्वायत्तता और राष्ट्रीय सुरक्षा को लेकर चिंताएँ बढ़ाती है, विशेषकर रक्षा, वित्त और सार्वजनिक सेवाओं जैसे महत्त्वपूर्ण क्षेत्रों में।
भारत में AI गवर्नेंस को मज़बूत करने के लिये किन उपायों की आवश्यकता है?
- एक व्यापक AI कानून लागू करना: भारत को एक स्वतंत्र, सिद्धांत-आधारित AI कानून की आवश्यकता है, जो कृत्रिम बुद्धिमत्ता को स्पष्ट रूप से परिभाषित करे, जिम्मेदारियाँ सौंपे और AI जीवनचक्र में कानूनी जवाबदेही एवं दायित्व स्थापित करे।
- डेवलपर्स, परिनियोजकों और उपयोगकर्त्ताओं के बीच दायित्वों को स्पष्ट विधिक मानकों एवं शिकायत-निवारण तंत्र के माध्यम से परिभाषित किया जाना चाहिये ताकि पीड़ितों को प्रभावी संरक्षण मिल सके।
- भारत यूरोपीय संघ के AI दायित्व निर्देश से सीख ले सकता है, जो दायित्व को नियंत्रण और जोखिम के साथ जोड़ता है, जिससे प्रभावित व्यक्तियों के लिये प्रभावी उपचार सुनिश्चित होते हैं।
- जोखिम-आधारित विनियमन का अंगीकरण: नवाचार और सुरक्षा के बीच संतुलन बनाए रखने के लिये, भारत को व्यापक विनियमन से बचना चाहिये और इसके बजाय यूरोपीय संघ एवं OECD द्वारा अपनाए गए स्तरित जोखिम-आधारित दृष्टिकोण का अंगीकरण करना चाहिये।
- कम जोखिम वाले अनुप्रयोगों के लिये हल्के अनुपालन की आवश्यकता होनी चाहिये, जबकि उच्च जोखिम वाले उपयोगों (जैसे: बायोमेट्रिक निगरानी या स्वचालित क्रेडिट स्कोरिंग) की कड़ी जाँच होनी चाहिये।
- RBI और SEBI द्वारा पहले से अपनाये गये विनियामक सैंडबॉक्स को विस्तारित करके सुरक्षित प्रयोग की अनुमति दी जा सकती है ताकि नवाचार बाधित न हो।
- डेटा पारिस्थितिकी तंत्र को सुदृढ़ करना: डेटा पारिस्थितिकी तंत्र को मज़बूत बनाने के लिये सुरक्षित डेटा-साझाकरण कार्यढाँचे, मज़बूत गुमनामीकरण मानक और विश्वसनीय मध्यस्थों की आवश्यकता होती है, ताकि जिम्मेदार AI नवाचार को सक्षम बनाया जा सके।
- भारत डेटा प्रबंधन कार्यालय और IndiaAI डेटासेट प्लेटफॉर्म जैसी पहलों को बड़े पैमाने पर लागू करने के साथ-साथ यूरोपीय संघ के डेटा गवर्नेंस अधिनियम से प्रेरित डेटा ट्रस्ट एवं परोपकारिता मॉडल को अपनाने से उच्च गुणवत्ता वाले सार्वजनिक डेटासेट तक पहुँच में सुधार हो सकता है।
- एल्गोरिदम की जवाबदेही सुनिश्चित करना: ब्लैक-बॉक्स निर्णय लेने की समस्या से निपटने के लिये, भारत को वित्त, पुलिसिंग, स्वास्थ्य सेवा और कल्याणकारी वितरण जैसे उच्च प्रभाव वाले क्षेत्रों में उपयोग किये जाने वाले AI सिस्टम के लिये व्याख्यात्मकता एवं लेखापरीक्षा योग्यता को अनिवार्य बनाना चाहिये।
- कनाडा और यूरोपीय संघ की तरह एल्गोरिदम प्रभाव आकलन, तैनाती से पहले जोखिमों की पहचान करने में सहायक हो सकते हैं। निष्पक्षता और गैर-भेदभाव सुनिश्चित करने के लिये स्वतंत्र तृतीय-पक्ष ऑडिट को प्रोत्साहित किया जाना चाहिये।
- संस्थागत क्षमता को सुदृढ़ करना और केंद्रीकृत AI गवर्नेंस: भारत को राष्ट्रीय ई-गवर्नेंस प्रभाग, IIT और तृतीय स्तर के संस्थानों (IIT) जैसे निकायों से लक्षित AI प्रशिक्षण एवं संस्थागत समर्थन के माध्यम से नियामकों तथा न्यायपालिका के भीतर तकनीकी विशेषज्ञता का निर्माण करना चाहिये।
- साथ ही, यूरोपीय संघ के AI कार्यालय या UK के AI सुरक्षा संस्थान की तर्ज पर एक केंद्रीय नोडल AI प्राधिकरण की स्थापना से विभिन्न क्षेत्रों में समन्वित निगरानी, मानक निर्धारण एवं प्रभावी जोखिम प्रबंधन सुनिश्चित किया जा सकता है।
- नैतिकता और सामाजिक प्रभाव सुरक्षा उपायों को समाहित करना: AI गवर्नेंस में निष्पक्षता, गैर-भेदभाव, पारदर्शिता और मानवीय निगरानी जैसे नैतिक सिद्धांतों को एकीकृत किया जाना चाहिये।
- यूनेस्को की AI नैतिकता संबंधी सिफारिश से प्रेरणा लेते हुए, भारत को नैतिक प्रभाव आकलन, निगरानी के दुरुपयोग के खिलाफ सुरक्षा उपाय और कमज़ोर समुदायों के लिये सुरक्षा उपायों को अनिवार्य बनाना चाहिये, विशेष रूप से बायोमेट्रिक एवं भविष्यसूचक प्रौद्योगिकियों के क्षेत्र में।
- रणनीतिक निर्भरता कम करना: विदेशी AI मॉडल और अधोसंरचना पर निर्भरता कम करने के लिये, भारत को घरेलू कंप्यूटिंग क्षमता, सेमीकंडक्टर विनिर्माण और बुनियादी AI अनुसंधान में निवेश करना चाहिये।
- IndiaAI मिशन और नेशनल सेमीकंडक्टर मिशन जैसी पहलों को डिजिटल सॉवरेनिटी के दीर्घकालिक रणनीतिक स्वायत्तता लक्ष्यों के साथ संरेखित किया जाना चाहिये।
निष्कर्ष:
भारत अपनी AI गवर्नेंस व्यवस्था को आकार देने के एक निर्णायक मोड़ पर खड़ा है। हालाँकि क्षेत्र-विशिष्ट विनियमों, डेटा संरक्षण कानूनों और वैश्विक सहभागिता के माध्यम से महत्त्वपूर्ण कदम उठाये गये हैं, फिर भी एक सुसंगत एवं भविष्य-उन्मुख निगरानी व्यवस्था सुनिश्चित करने में अभी भी अंतर बने हुए हैं। नियामक विखंडन, सीमित संस्थागत क्षमता और नैतिक जोखिम जैसी चुनौतियों का समाधान करना जनविश्वास कायम करने के लिये आवश्यक है। घरेलू क्षमताओं को सुदृढ़ करके, वैश्विक सर्वोत्तम प्रथाओं को अपनाकर तथा मानव-केंद्रित दृष्टिकोण को बढ़ावा देकर, भारत प्रौद्योगिकी को अपनाने वाले देश मात्र से आगे बढ़कर उत्तरदायी एवं समावेशी AI गवर्नेंस में वैश्विक अग्रणी बन सकता है।
|
दृष्टि मेन्स प्रश्न प्रश्न. वैश्विक सर्वोत्तम प्रथाओं के संदर्भ में AI गवर्नेंस के प्रति भारत के दृष्टिकोण का मूल्यांकन कीजिये। वैश्विक AI पारिस्थितिकी तंत्र में एक उत्तरदायी अग्रणी के रूप में उभरने के लिये भारत को किन सुधारों की आवश्यकता है? |
प्रायः पूछे जाने वाले प्रश्न
प्रश्न 1. AI गवर्नेंस क्या है?
सुरक्षा, निष्पक्षता एवं जवाबदेही सुनिश्चित करने के लिये कृत्रिम बुद्धिमत्ता के विकास और उपयोग को विनियमित करना।
प्रश्न 2. भारत को AI विनियमन की आवश्यकता क्यों है?
दुरुपयोग को रोकने, अधिकारों की रक्षा करने और जिम्मेदार नवाचार सुनिश्चित करने के लिये।
प्रश्न 3. क्या भारत में AI से संबंधित कोई विशिष्ट कानून है?
नहीं, भारत वर्तमान में क्षेत्रीय कानूनों और नीतिगत कार्यढाँचों पर निर्भर है।
प्रश्न 4. कृत्रिम बुद्धिमत्ता में DPDP अधिनियम की क्या भूमिका है?
यह नियंत्रित करता है कि AI सिस्टम द्वारा उपयोग किये जाने वाले व्यक्तिगत डेटा को किस प्रकार एकत्र और संसाधित किया जाता है।
प्रश्न 5. AI गवर्नेंस में भारत का लक्ष्य क्या है?
नवाचार को नैतिकता, विश्वास और वैश्विक प्रतिस्पर्द्धा के साथ संतुलित करना।
UPSC सिविल सेवा परीक्षा, विगत वर्ष के प्रश्न (PYQ)
प्रिलिम्स
प्रश्न 1. विकास की वर्तमान स्थिति में, कृत्रिम बुद्धिमत्ता (Artificial Intelligence), निम्नलिखित में से किस कार्य को प्रभावी रूप से कर सकती है? (2020)
- औद्योगिक इकाइयों में विद्युत् की खपत कम करना
- सार्थक लघु कहानियों और गीतों की रचना
- रोगों का निदान
- टेक्स्ट से स्पीच (Text- to- Speech) में परिवर्तन
- विद्युत् ऊर्जा का बेतार संचरण
नीचे दिये गए कूट का प्रयोग कर सही उत्तर चुनिये-
(a) केवल 1, 2, 3 और 5
(b) केवल 1, 3 और 4
(c) केवल 2, 4 और 5
(d) 1, 2, 3, 4 और 5
उत्तर: (b)
मेन्स
प्रश्न 1. साइबर अपराध के विभिन्न प्रकारों और इस खतरे से लड़ने के आवश्यक उपायों की विवेचना कीजिये। (2020)
