इंदौर शाखा: IAS और MPPSC फाउंडेशन बैच-शुरुआत क्रमशः 6 मई और 13 मई   अभी कॉल करें
ध्यान दें:

डेली अपडेट्स


शासन व्यवस्था

ICMR ने स्वास्थ्य क्षेत्र में AI के उपयोग के लिये दिशा-निर्देश जारी किये

  • 23 Mar 2023
  • 6 min read

प्रिलिम्स के लिये:

ICMR, कृत्रिम बुद्धिमता (AI)

मेन्स के लिये:

स्वास्थ्य देखभाल क्षेत्र में AI के उपयोग के लिये नैतिक दिशा-निर्देश, स्वास्थ्य देखभाल क्षेत्र में AI के उपयोग से संबंधित चुनौतियाँ

चर्चा में क्यों? 

हाल ही में भारतीय आयुर्विज्ञान अनुसंधान परिषद (Indian Council of Medical Research- ICMR) ने "जैव चिकित्सा अनुसंधान और स्वास्थ्य देखभाल में AI के क्रियान्वयन के लिये नैतिक दिशा-निर्देश" शीर्षक से एक मार्गदर्शक दस्तावेज़ जारी किया है जो स्वास्थ्य क्षेत्र में कृत्रिम बुद्धिमता के क्रियान्वयन के लिये 10 प्रमुख रोगी-केंद्रित नैतिक सिद्धांतों की रूपरेखा निर्दिष्ट करता है।

  • निदान और स्क्रीनिंग, चिकित्सीय, निवारक उपचार, नैदानिक निर्णय लेने, सार्वजनिक स्वास्थ्य निगरानी, ​​जटिल डेटा विश्लेषण, बीमारी के परिणामों की संभावनाओं का विश्लेषण, व्यावहारिक और मानसिक स्वास्थ्य देखभाल तथा स्वास्थ्य प्रबंधन प्रणाली स्वास्थ्य देखभाल के AI के मान्यता प्राप्त अनुप्रयोगों के अंतर्गत आते हैं।

10 मार्गदर्शक सिद्धांत: 

  • जवाबदेही और दायित्त्व सिद्धांत: यह AI प्रणाली के इष्टतम कामकाज़ को सुनिश्चित करने के लिये नियमित आंतरिक और बाह्य ऑडिट के महत्त्व को रेखांकित करता है जिसे जनता के लिये उपलब्ध कराया जाना चाहिये।
  • स्वायत्तता सिद्धांत: यह कृत्रिम बुद्धिमत्ता (AI) प्रणाली के कामकाज़ और प्रदर्शन की मानवीय निगरानी सुनिश्चित करता है। किसी भी प्रक्रिया को शुरू करने से पहले रोगी की सहमति प्राप्त करना भी महत्त्वपूर्ण है, जिसमें रोगी को शारीरिक, मनोवैज्ञानिक एवं सामाजिक जोखिमों के बारे में भी सूचित किया जाना चाहिये।  
  • डेटा गोपनीयता सिद्धांत: यह कृत्रिम बुद्धिमत्ता-आधारित प्रौद्योगिकी के विकास और परिनियोजन के सभी चरणों में गोपनीयता तथा व्यक्तिगत डेटा की सुरक्षा सुनिश्चित करता है। 
  • सहयोग सिद्धांत: यह सिद्धांत अंतःविषयक, अंतर्राष्ट्रीय सहयोग और विभिन्न हितधारकों को शामिल करने वाली सहायता को प्रोत्साहित करता है। 
  • सुरक्षा और जोखिम न्यूनीकरण सिद्धांत: यह सिद्धांत "अनपेक्षित या जान-बूझकर दुरुपयोग" को रोकने के उद्देश्य से वैश्विक प्रौद्योगिकी से गुमनाम डेटा को साइबर हमले से बचाने और अन्य क्षेत्रों के किसी मेज़बान के बीच एक नैतिक समिति द्वारा अनुकूल लाभ-जोखिम मूल्यांकन को रोकने के लिये है। 
  • अभिगम्यता, समानता और समावेशिता सिद्धांत: यह सिद्धांत स्वीकार करता है कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकी का परिनियोजन उपयुक्त अवसंरचनात्मक ढाँचे की व्यापक उपलब्धता को मानती है। इस प्रकार इसका लक्ष्य डिजिटल विभेद को पाटना है। 
  • डेटा ऑप्टिमाइज़ेशन: खराब डेटा गुणवत्ता, अनुचित और अपर्याप्त डेटा प्रस्तुतियों से AI तकनीक की कार्यप्रणाली पूर्वाग्रह, भेदभाव, त्रुटियों और उप-इष्टतम परिणामों से युक्त हो सकती है।
  • गैर-भेदभाव और निष्पक्षता सिद्धांत: एल्गोरिदम में पूर्वाग्रहों और अशुद्धियों से बचने तथा गुणवत्तापूर्ण AI प्रौद्योगिकियों को सार्वभौमिक उपयोग के लिये डिज़ाइन किया जाना चाहिये। 
  • विश्वसनीयता: AI का प्रभावी ढंग से उपयोग करने के लिये चिकित्सकों और स्वास्थ्य सेवा प्रदाताओं को AI प्रौद्योगिकियों की वैधता तथा विश्वसनीयता का परीक्षण करने के लिये एक सरल, व्यवस्थित तथा भरोसेमंद तरीका होना चाहिये। स्वास्थ्य डेटा का सटीक विश्लेषण प्रदान करने के अलावा एक भरोसेमंद AI-आधारित समाधान भी वैध, नैतिक, विश्वसनीय और मान्य होना चाहिये। 

नोट: भारत में कई ढाँचे हैं जो स्वास्थ्य सेवा के साथ तकनीकी प्रगति से मेल खाते हैं। इनमें राष्ट्रीय स्वास्थ्य नीति (2017), स्वास्थ्य देखभाल अधिनियम (दिशा), 2018 में डिज़िटल सूचना सुरक्षा और चिकित्सा उपकरण नियम, 2017 के तहत डिजिटल स्वास्थ्य प्रौद्योगिकियों का लाभ उठाने के लिये डिजिटल स्वास्थ्य प्राधिकरण शामिल हैं। 

निष्कर्ष: 

कृत्रिम बुद्धिमत्ता द्वारा लिये गए निर्णयों हेतु जवाबदेह नहीं ठहराया जा सकता है, इसलिये कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के विकास और स्वास्थ्य सेवा में इसके अनुप्रयोग को निर्देशित करने के लिये नैतिक प्रभावी नीति ढाँचा आवश्यक है। इसके अलावा जैसा कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकियाँ आगे विकसित होती हैं, साथ ही नैदानिक निर्णय लेने में उपयोग की जाती हैं, तो रक्षा एवं सुरक्षा हेतु त्रुटियों की स्थिति में जवाबदेही पर विचार करने वाले प्रोटोकॉल का होना महत्त्वपूर्ण है।

स्रोत: डाउन टू अर्थ

close
एसएमएस अलर्ट
Share Page
images-2
images-2