• प्रश्न :

    शासन में AI प्रौद्योगिकी के नैतिक निहितार्थों पर चर्चा करते हुए इसकी पूर्वाग्रही और भेदभावकारी क्षमता पर प्रकाश डालिये। AI के नैतिक कार्यान्वयन हेतु समाधान बताइये। (250 शब्द)

    21 Mar, 2024 सामान्य अध्ययन पेपर 4 सैद्धांतिक प्रश्न

    उत्तर :

    हल करने का दृष्टिकोण:

    • उत्तर की शुरुआत AI तकनीक के परिचय के साथ कीजिये।
    • शासन में AI प्रौद्योगिकी के नैतिक निहितार्थ बताइये।
    • नैतिक AI कार्यान्वयन के समाधानों पर प्रकाश डालिये।
    • तद्नुसार निष्कर्ष लिखिये।

    परिचय:

    AI या आर्टिफिशियल इंटेलिजेंस, मशीनों, विशेषकर कंप्यूटर सिस्टम द्वारा मानव खुफिया प्रक्रियाओं के अनुकरण को संदर्भित करता है। इन प्रक्रियाओं में सीखना (सूचना का अधिग्रहण एवं जानकारी का उपयोग करने के नियम), तर्क करना (अनुमानित या निश्चित निष्कर्ष तक पहुँचने के लिये नियमों का उपयोग करना) और आत्म-सुधार शामिल हैं।

    मुख्य भाग:

    शासन में AI के नैतिक निहितार्थ:

    • डेटा में पूर्वाग्रह:
      • AI सिस्टम प्रशिक्षण के लिये बड़ी मात्रा में डेटा पर निर्भर करते हैं। हालाँकि यदि उपयोग किया गया डेटा पक्षपातपूर्ण है, तो AI एल्गोरिदम समाज में मौजूद वर्तमान पूर्वाग्रहों को कायम रख सकता है और बढ़ा भी सकता है।
      • उदाहरण के लिये चेहरे की पहचान एल्गोरिदम को असंतुलित प्रशिक्षण डेटा के कारण नस्लीय और लैंगिक पूर्वाग्रह प्रदर्शित करते पाया गया है।
    • अमेज़न की भर्ती एआई: अमेज़न ने वर्ष 2018 में AI भर्ती उपकरण को यह पता लगाने के बाद रद्द कर दिया कि यह महिला उम्मीदवारों को व्यवस्थित रूप से डाउनग्रेड करके लैंगिक पूर्वाग्रह प्रदर्शित करता है। एल्गोरिदम को मुख्य रूप से पुरुष बायोडाटा पर प्रशिक्षित किया गया था, जिससे पक्षपातपूर्ण परिणाम सामने आए।
    • भेदभावपूर्ण परिणाम:
      • AI-संचालित निर्णय लेने की प्रक्रियाएँ भेदभावपूर्ण परिणामों को जन्म दे सकती हैं, जैसे कि आपराधिक न्याय प्रणाली में जहाँ अल्पसंख्यक समुदायों को असमान रूप से लक्षित करने के लिये पूर्वानुमानित एल्गोरिदम की आलोचना की गई है।
    • प्रोपब्लिका का कंपास का विश्लेषण: अमेरिकी आपराधिक न्याय प्रणाली में उपयोग किये जाने वाले कंपास एल्गोरिदम में प्रोपब्लिका की जाँच से महत्त्वपूर्ण नस्लीय पूर्वाग्रहों का पता चला, अफ्रीकी अमेरिकी प्रतिवादियों को उनके समकक्षों की तुलना में उच्च जोखिम के रूप में वर्गीकृत किये जाने की अधिक संभावना है।
    • पारदर्शिता की कमी:
      • AI एल्गोरिदम की जटिलता के परिणामस्वरूप प्रायः पारदर्शिता की कमी होती है, जिससे यह समझना मुश्किल हो जाता है कि निर्णय कैसे लिये जाते हैं।
      • पारदर्शिता की कमी जवाबदेहिता में बाधा डाल सकती है और निष्पक्षता तथा न्याय के बारे में चिंताओं को बढ़ा सकती है।
    • सुरक्षा चिंता:
      • AI प्रौद्योगिकियों को प्रायः बड़ी मात्रा में व्यक्तिगत डेटा तक पहुँच की आवश्यकता होती है, जिससे महत्त्वपूर्ण गोपनीयता संबंधी चिंताएँ बढ़ जाती हैं।
      • इस डेटा की अनधिकृत पहुँच या दुरुपयोग व्यक्तियों के अधिकारों और स्वतंत्रता का उल्लंघन कर सकता है।
    • कैलिफोर्निया में चेहरे की पहचान पर प्रतिबंध: वर्ष 2020 में कैलिफोर्निया पुलिस बॉडी कैमरों में चेहरे की पहचान तकनीक के उपयोग पर तीन वर्ष के लिये प्रतिबंध लगाने वाला पहला अमेरिकी राज्य बन गया। यह निर्णय गोपनीयता के उल्लंघन और चेहरे की पहचान एल्गोरिदम में संभावित पूर्वाग्रहों के बारे में चिंताओं को दूर करने के लिये किया गया था।

    नैतिक AI कार्यान्वयन के लिये संभावित समाधान:

    • पूर्वाग्रह शमन तकनीक:
      • डेटा प्रीप्रोसेसिंग, एल्गोरिदम ऑडिटिंग और प्रशिक्षण डेटासेट में विविधता लाने जैसी तकनीकों को लागू करने से AI सिस्टम में पूर्वाग्रह को कम करने में मदद मिल सकती है।
      • उदाहरण के लिये आईबीएम जैसी कंपनियों ने एआई मॉडल में पूर्वाग्रह का पता लगाने और उसे कम करने के लिये उपकरण विकसित किये हैं।
    • पारदर्शिता और व्याख्यात्मकता:
      • AI एल्गोरिदम में पारदर्शिता एवं व्याख्या सुनिश्चित करने से जवाबदेहिता और विश्वास बढ़ सकता है।
      • सरकारें AI निर्णय लेने की प्रक्रियाओं के प्रकटीकरण को अनिवार्य कर सकती हैं और व्यक्तियों को एल्गोरिदम निर्णयों को समझने एवं उनका सामना करने के लिये अवसर प्रदान कर सकती हैं।
    • नैतिक दिशानिर्देश और मानक:
      • AI कार्यान्वयन के लिये नैतिक दिशा-निर्देश एवं मानक विकसित करना तथा लागू करना महत्त्वपूर्ण है।
      • IEEE और EU जैसे संगठनों ने आर्टिफिशियल इंटेलिजेंस एवं स्वायत्त प्रणालियों में नैतिक विचारों के लिये IEEE ग्लोबल इनिशिएटिव तथा भरोसेमंद AI के लिये EU के नैतिक दिशा-निर्देशों जैसे ढाँचे का प्रस्ताव दिया है।
    • विविध हितधारक जुड़ाव:
      • AI सिस्टम के डिज़ाइन, विकास एवं तैनाती में नैतिकतावादियों, नीति निर्माताओं, प्रौद्योगिकीविदों और प्रभावित समुदायों सहित विविध हितधारकों को शामिल करने से कई दृष्टिकोणों से नैतिक चिंताओं को पहचानने तथा संबोधित करने में मदद मिल सकती है।
    • नियामक निरीक्षण:
      • सरकारों को शासन में AI के उपयोग को नियंत्रित करने के लिये मज़बूत नियामक ढाँचे स्थापित करने की आवश्यकता है।
      • इसमें AI सिस्टम की निष्पक्षता, पारदर्शिता और जवाबदेहिता के मूल्यांकन के लिये तंत्र के साथ-साथ गैर-अनुपालन हेतु दंड का प्रावधान भी है।

    निष्कर्ष:

    निष्पक्षता, पारदर्शिता और जवाबदेहिता सुनिश्चित करने के लिये शासन में AI प्रौद्योगिकी की तैनाती में नैतिक विचार सर्वोपरि हैं। पूर्वाग्रह शमन तकनीकों को लागू करके, पारदर्शिता और व्याख्या को बढ़ावा देकर, नैतिक दिशा-निर्देश स्थापित करके, विविध हितधारकों को शामिल करके तथा नियामक निरीक्षण को लागू करके, सरकारें सकारात्मक सामाजिक प्रभाव के लिये इसकी क्षमता का उपयोग करते हुए AI की नैतिक जटिलताओं को दूर कर सकती हैं।