• प्रश्न :

    एक महानगर में पुलिस उपायुक्त (DCP) के रूप में, आप अपराधियों पर नज़र रखने और अपराधों को रोकने के लिये तैयार किये गए AI-आधारित फेशियल रिकॉग्निशन सिस्टम (FRS) के कार्यान्वयन की देखरेख करते हैं। सार्वजनिक स्थानों पर स्थापित यह सिस्टम चोरी को कम करने, संदिग्धों की पहचान करने और लंबित मामलों को सुलझाने में सहायक रहा है। हालाँकि, AI के एल्गोरिदम में गलत सकारात्मकता, गोपनीयता के उल्लंघन और संभावित पूर्वाग्रहों के संदर्भ में चिंताएँ सामने आई हैं।

    हाल ही में, सिस्टम ने 22 वर्षीय कॉलेज छात्र रवि को कथित तौर पर हिंसक हो चुके एक विरोध प्रदर्शन में मौजूद होने के लिये चिह्नित किया। AI द्वारा उत्पन्न रिपोर्ट के आधार पर, रवि को पूछताछ के लिये कुछ समय के लिये हिरासत में लिया गया, जबकि उसने बल देते हुए कहा था कि वह इसमें शामिल नहीं था। उसके परिवार और नागरिक समाज समूहों का तर्क है कि AI सिस्टम में तकनीकी त्रुटि के कारण उसकी गलत पहचान की गई थी। जाँच से पता चलता है कि सीमांत पृष्ठभूमि के कई व्यक्तियों को असंगत रूप से चिह्नित किया गया है, जिससे AI-संचालित पुलिसिंग में पूर्वाग्रह के बारे में चिंताएँ बढ़ रही हैं।

    शहर का प्रशासन अब विभाजित है। कुछ अधिकारी गोपनीयता संबंधी चिंताओं और अनुचित गिरफ्तारियों का हवाला देते हुए स्वतंत्र समीक्षा के लिये AI परियोजना को रोकने का समर्थन करते हैं। अन्य लोग तर्क देते हैं कि लाभ जोखिमों से अधिक हैं और AI त्रुटियों को समय के साथ सुधारा जा सकता है। इस बीच, रवि के मामले पर जनता का आक्रोश बढ़ रहा है और पुलिस विभाग की विश्वसनीयता दाँव पर है।

    1. कानून प्रवर्तन एजेंसियाँ AI-संचालित फेशियल रिकॉग्निशन के लाभों को झूठी सकारात्मकता, गोपनीयता के उल्लंघन और एल्गोरिदम संबंधी पूर्वाग्रह की चिंताओं के साथ किस प्रकार संतुलित कर सकती हैं?

    2. AI उपकरणों को तैनात करने में कानून प्रवर्तन को किन नैतिक सिद्धांतों का मार्गदर्शन करना चाहिये, विशेष रूप से गैर-भेदभाव सुनिश्चित करने और सीमांत समुदायों की सुरक्षा करने में?

    3. यह सुनिश्चित करने के लिये कि AI-संचालित पुलिसिंग पारदर्शी, निष्पक्ष और जवाबदेह बनी रहे, कौन-से कानूनी, प्रक्रियात्मक और तकनीकी सुरक्षा उपाय लागू किये जाने चाहिये?

    21 Feb, 2025 सामान्य अध्ययन पेपर 4 केस स्टडीज़

    उत्तर :

    परिचय:

    कानून प्रवर्तन में AI-संचालित फेशियल रिकॉग्निशन सिस्टम (FRS) का उपयोग अपराध की रोकथाम में दक्षता प्रदान करता है, लेकिन साथ ही झूठी सकारात्मकता, गोपनीयता के उल्लंघन और पूर्वाग्रह के बारे में चिंताएँ भी बढ़ाता है। रवि की गलत पहचान प्रवर्तन में AI के नैतिक जोखिमों तथा जवाबदेही, निष्पक्षता एवं पारदर्शिता की आवश्यकता को उजागर करती है। कानून प्रवर्तन को यह सुनिश्चित करते हुए मानव अधिकारों के साथ सार्वजनिक सुरक्षा को संतुलित करना चाहिये कि AI बिना किसी भेदभाव के न्याय प्रदान करे।

    मुख्य भाग:

    1. कानून प्रवर्तन एजेंसियाँ AI-संचालित फेशियल रिकॉग्निशन के लाभों को झूठी सकारात्मकता, गोपनीयता के उल्लंघन और एल्गोरिदम संबंधी पूर्वाग्रह की चिंताओं के साथ किस प्रकार संतुलित कर सकती हैं?

    • सटीकता और मानवीय निरीक्षण सुनिश्चित करना: AI को मानवीय निर्णय में सहायता करनी चाहिये, लेकिन उसका स्थान नहीं लेना चाहिये; अधिकारियों को कार्य करने से पहले AI अलर्ट को सत्यापित (उदाहरण के लिये, चिह्नित मामलों की मैन्युअल समीक्षा) करना चाहिये।
    • AI का आनुपातिक उपयोग: AI का उपयोग केवल वहाँ किया जाना चाहिये जहाँ आवश्यक हो, बड़े पैमाने पर निगरानी से बचना चाहिये जो नागरिक स्वतंत्रता को प्रतिबंधित कर सकता है।
    • नियमित प्रणालीगत ऑडिट: झूठी सकारात्मकता को कम करने और निर्दोष व्यक्तियों की गलत पहचान को रोकने के लिये प्रणाली को लगातार सटीकता परीक्षण से गुजरना चाहिये।
    • पारदर्शिता और सार्वजनिक जागरूकता: कानून प्रवर्तन को विश्वास को बढ़ावा देने के लिये AI निगरानी नीतियों (उदाहरण के लिये, AI प्रदर्शन पर खुली रिपोर्ट) के बारे में जनता को सूचित करना चाहिये।
    • पूर्वाग्रह का पता लगाना और सुधार: AI का नस्लीय, लैंगिक और सामाजिक-आर्थिक पूर्वाग्रहों के लिये परीक्षण किया जाना चाहिये तथा सुधारात्मक उपायों (जैसे, विविध प्रशिक्षण डेटासेट) को लागू किया जाना चाहिये।
    • स्वतंत्र समीक्षा समितियाँ: निष्पक्ष और न्यायपूर्ण कार्यान्वयन सुनिश्चित करने के लिये AI प्रणाली की निगरानी नैतिकता बोर्डों और मानवाधिकार आयोगों द्वारा की जानी चाहिये।
    • शिकायत निवारण तंत्र - नागरिकों के पास गलत AI-बेस्ड हिरासत को चुनौती देने के लिये एक मंच होना चाहिये।

    2. AI उपकरणों को तैनात करने में कानून प्रवर्तन को किन नैतिक सिद्धांतों का मार्गदर्शन करना चाहिये, विशेष रूप से गैर-भेदभाव सुनिश्चित करने और सीमांत समुदायों की सुरक्षा करने में?

    • न्याय और निष्पक्षता: AI-आधारित शासन निष्पक्ष और न्यायपूर्ण होना चाहिये, जिससे यह सुनिश्चित हो सके कि किसी भी समुदाय को असंगत लक्ष्यीकरण या गलत तरीके से हिरासत में न लिया जाए।
    • जवाबदेही और उत्तरदायित्व: कानून प्रवर्तन एजेंसियों को AI त्रुटियों को स्वीकार करना चाहिये और गलत कार्यों को सुधारने के लिये जवाबदेही तंत्र स्थापित करना चाहिये।
    • गोपनीयता का अधिकार: AI का उपयोग ऐसे तरीके से किया जाना चाहिये जिसमें व्यक्तिगत अधिकारों का सम्मान हो, तथा दुरुपयोग को रोकने के लिये सुदृढ़ डेटा सुरक्षा उपाय किये जाएं।
    • मानवीय गरिमा और स्वायत्तता: किसी भी व्यक्ति को केवल AI पूर्वानुमानों के आधार पर अपराधी नहीं ठहराया जाना चाहिये। नैतिक प्रवर्तन को कानून प्रवर्तन में गरिमा और निष्पक्षता सुनिश्चित करनी चाहिये।
    • सार्वजनिक विश्वास और सहमति: AI उपकरण पारदर्शी और सार्वजनिक रूप से जवाबदेह होने चाहिये, जिससे उनके कार्यान्वयन से संबंधित निर्णयों में नागरिकों की भागीदारी हो सके।
    • पूर्वाग्रह-मुक्त कार्यान्वयन: यह सुनिश्चित करने के लिये कि AI मौजूदा सामाजिक असमानताओं को बढ़ावा न दे, नियमित इक्विटी ऑडिट और पूर्वाग्रह परीक्षण आयोजित किया जाना चाहिये।

    3. यह सुनिश्चित करने के लिये कि AI-संचालित पुलिसिंग पारदर्शी, निष्पक्ष और जवाबदेह बनी रहे, कौन-से कानूनी, प्रक्रियात्मक और तकनीकी सुरक्षा उपाय लागू किये जाने चाहिये?

    • कानूनी सुरक्षा:
      • विधि-व्यवस्था में AI को नियंत्रित करने वाले सख्त कानून स्थापित किये जाने चाहिये, जिसमें डेटा उपयोग, अवधारण और विलोपन पर स्पष्ट विनियमन शामिल हों।
      • सत्ता के दुरुपयोग को रोकने के लिये AI-आधारित गिरफ्तारियों और हिरासतों के लिये न्यायिक निगरानी की आवश्यकता है।
      • डेटा गोपनीयता कानून लागू किये जाने चाहिये जो फेशियल रिकॉग्निशन से जुड़े डेटा के स्टोरेज और उपयोग को आवश्यक सीमाओं से परे प्रतिबंधित करें।
    • प्रक्रियात्मक सुरक्षा उपाय:
      • एथिकल AI उपयोग सुनिश्चित करने के लिये अधिकारियों को AI नैतिकता, पूर्वाग्रह का पता लगाने और मानवाधिकारों में प्रशिक्षण प्राप्त करना चाहिये।
      • किसी भी गिरफ्तारी या हिरासत से पहले AI अलर्ट का मैन्युअल सत्यापन अनिवार्य होना चाहिये।
      • एक सार्वजनिक शिकायत निवारण प्रणाली बनाए जाने चाहिये जिससे नागरिक गलत AI-संचालित प्रवर्तन निर्णयों को चुनौती दे सकें।
    • तकनीकी सुरक्षा:
      • एल्गोरिदम में पूर्वाग्रह की पहचान करने और उसे समाप्त करने के लिये नियमित रूप से AI सिस्टम ऑडिट आयोजित किये जाने चाहिये।
      • व्याख्यात्मक AI (XAI) को लागू किया जाना चाहिये ताकि कानून प्रवर्तन एजेंसियाँ ​​ब्लैक-बॉक्स पूर्वानुमान पर निर्भर रहने के बजाय AI निर्णयों को समझ सकें और उन्हें उचित ठहरा सकें।
      • वैकल्पिक AI मॉडल का उपयोग किया जाना चाहिये जो व्यक्तियों को संदिग्ध के रूप में टैग करने से पहले कई सत्यापन चरणों को शामिल करते हैं।

    निष्कर्ष

    AI-संचालित प्रवर्तन को न्याय, निष्पक्षता और जवाबदेही सुनिश्चित करनी चाहिये, जबकि सार्वजनिक सुरक्षा को व्यक्तिगत अधिकारों के साथ संतुलित करना चाहिये। सिस्टम को कानून प्रवर्तन में मदद करनी चाहिये, लेकिन नैतिक निर्णय लेने की जगह कभी नहीं लेनी चाहिये। कानूनी सुरक्षा, पारदर्शिता उपायों और पूर्वाग्रह नियंत्रण तंत्रों को लागू करके, AI उत्पीड़न के बजाय न्याय के लिये एक उपकरण के रूप में काम कर सकता है। एक अच्छी तरह से विनियमित AI प्रणाली सार्वजनिक विश्वास को बढ़ाती है, जबकि यह सुनिश्चित करती है कि कानून प्रवर्तन नैतिक, निष्पक्ष और जिम्मेदार बना रहे।