इंदौर शाखा: IAS और MPPSC फाउंडेशन बैच-शुरुआत क्रमशः 6 मई और 13 मई   अभी कॉल करें
ध्यान दें:

मेन्स प्रैक्टिस प्रश्न

  • प्रश्न :

    सैन्य सुरक्षा में कृत्रिम बुद्धिमत्ता के उपयोग में कौन-से नैतिक मुद्दे शामिल हैं? (150 शब्द)

    12 May, 2022 सामान्य अध्ययन पेपर 4 सैद्धांतिक प्रश्न

    उत्तर :

    हल करने का दृष्टिकोण:

    • सैन्य सुरक्षा में कृत्रिम बुद्धिमत्ता (ए.आई.) की उपयोगिता से चर्चा प्रारंभ कीजिये तथा इसमें नैतिक आयामों की आवश्यकता को रेखांकित कीजिये।
    • पारंपरिक सैन्य बलों को कृत्रिम बुद्धिमत्ता से एकीकृत करने से उत्पन्न होने वाले विभिन्न नैतिक मुद्दों का विवरण दीजिये।
    • मानवीय सिद्धांतों को प्राथमिकता देने में विज्ञान एवं प्रौद्योगिकी की आवश्यकता के साथ निष्कर्ष दीजिये।

    कृत्रिम बुद्धिमत्ता एक ऐसी तकनीक है जो कि कंप्यूटर को मानव की भाँति सोचने तथा कार्य करने में सक्षम बनाती है। यह अपने चारों ओर के वातावरण से सूचनाएँ एकत्रित कर उनसे सीखकर उनके अनुरूप प्रतिक्रिया देती है। वैज्ञानिक प्रौद्योगिकी की इस क्रांतिकारी प्रगति से सैन्य सुरक्षा में अभूतपूर्व परिवर्तन लाया जा सकता है। ध्यातव्य है कि वर्तमान समय में कृत्रिम बुद्धिमत्ता की भूमिका तीव्रता से बढ़ रही है। ऐसे में वे नैतिक सिद्धांत जो मानवीय आचरण को संचालित करते थे, वे कृत्रिम बुद्धिमत्ता का सेना में उपयोग करने पर चिंता का विषय बन सकते हैं। जो कि निम्नवत देखे जा सकते हैं-

    • निजता का अधिकार व अन्य मानवाधिकारों का हनन: उन्नत ए.आई. उपकरणों के प्रयोग से सैन्य बलों की निगरानी एवं गश्ती गतिविधियों में कई गुना तक वृद्धि हुई है। ऐसी स्थिति में सीमा से लगे हुए क्षेत्रों और उग्रवाद प्रभावित क्षेत्रों में निजता एवं अन्य मौलिक अधिकारों के हनन संबंधी चिंताएँ उत्पन्न हो सकती हैं।
    • मानवीय व्यवहार एवं मान्यताओं में परिवर्तन: निरंकुश देशों में जहाँ जनता पर किसी पार्टी या व्यक्ति विशेष के प्रति निष्ठावान होने की अनिवार्यता होती है वहाँ किसी भी प्रकार की जातीय, सांस्कृतिक तथा धार्मिक मतभिन्नताओं को सत्तारूढ़ सरकार की निरंकुशता झेलनी पड़ सकती है। उदाहरणस्वरूप चीन के झिंजियांग प्रांत में चीनी सेना चेहरे पहचानने की तकनीक का उपयोग करके तथा जासूसी करने तथा के लिये ए.आई. उपकरणों का प्रयोग कर उईगर मुसलमानों के व्यवहारों एवं मान्यताओं में परिवर्तन कर रही है। इसके अलावा सरकार जनता के व्यवहार का आकलन करने के लिये सामाजिक क्रेडिट स्कोर प्रणाली का भी विकास कर रही है।
    • मानवीय बुद्धिमत्ता एवं क्षमताओं की भूमिकाओं में कमी: परंपरागत रूप से युद्ध संबंधी निर्णय उन सैन्य जनरलों (अधिकारियों) द्वारा लिया जाता था जिन्हें कई युद्धों का अनुभव हो, किंतु वर्तमान समय में ए.आई. प्रणाली अधिक तर्कसंगत एवं विवेकपूर्ण निर्णय लेने में सक्षम है जिसकी आँकड़ा विश्लेषण क्षमता एवं गणनाएँ मानवीय बुद्धि एवं क्षमता से कई गुना अधिक है।
    • भावनात्मक बुद्धिमत्ता और सहानुभूति: सैन्य बलों में शामिल सैनिक मैत्री और बंधुत्व के भाव से संचालित होते हैं जिससे वे कठिन परिस्थितियों में एक-दूसरे का भावनात्मक रूप से साथ देते हैं किंतु किसी ड्रोन, स्वचालित हथियार या रोबोटिक कुत्ते के साथ युद्धरत एक सैनिक मशीन से ऐसी सहानुभूति की उम्मीद नहीं की जा सकती। महत्त्वपूर्ण निर्णयों के मामले में भी ए.आई. में भावनात्मक बुद्धिमत्ता का अभाव होता है तथा उसके द्वारा लिये गए मशीनी निर्णय अत्यंत भयावह भी हो सकते हैं। जॉन एफ. कैनेडी ने ई.आई. का उपयोग करके यू.एस.एस.आर. के नेताओं को फोन करके अपनी चिंताओं से अवगत कराते हुए क्यूबा मिसाइल संकट को टाल दिया था। हालाँकि, ए.आई. के उपयोग से खतरे को भाँपते हुए ऐसे त्वरित निर्णय लिये जाने की क्षमता कम हो जाती है।
    • युद्ध में सामंजस्य की कमी: सैन्य सुरक्षा ए.आई. के उपयोग से हिंसा और विनाश में अप्रत्याशित वृद्धि हो सकती है, यदि किन्हीं दो देशों के बीच युद्ध होता है तो कोई एक देश स्वचालित हथियारों के उपयोग से इसे एकतरफा बनाने की कोशिश करेगा जिससे व्यापक क्षति हो सकती है।
    • जवाबदेहिता और ज़िम्मेदारी: किसी भी युद्ध में कुछ मानक सिद्धांतों के तहत उचित आचरण का ध्यान रखा जाना चाहिये। आज यदि सैन्यकर्मी युद्ध के नैतिक सिद्धांतों का उल्लंघन करते हैं तो उन पर युद्ध अपराधों के तहत मुकदमा चलाया जा सकता है, किंतु जैसे ही हमने स्वचालित मशीनों को युद्ध में शामिल किया तो उनकी जवाबदेही न्यून हो जाएगी, साथ ही मशीनों को क्रूर कृत्यों के लिये ज़िम्मेदार नहीं ठहराया जा सकता है।

    आंतरिक और बाह्य सुरक्षा को सुदृढ़ करने के लिये ए.आई. का तर्कसंगत उपयोग प्रगतिशील साबित हो सकता है, हालाँकि इसके लि

    To get PDF version, Please click on "Print PDF" button.

    Print
close
एसएमएस अलर्ट
Share Page
images-2
images-2