ICMR ने स्वास्थ्य क्षेत्र में AI के उपयोग के लिये दिशा-निर्देश जारी किये | 23 Mar 2023

प्रिलिम्स के लिये:

ICMR, कृत्रिम बुद्धिमता (AI)

मेन्स के लिये:

स्वास्थ्य देखभाल क्षेत्र में AI के उपयोग के लिये नैतिक दिशा-निर्देश, स्वास्थ्य देखभाल क्षेत्र में AI के उपयोग से संबंधित चुनौतियाँ

चर्चा में क्यों? 

हाल ही में भारतीय आयुर्विज्ञान अनुसंधान परिषद (Indian Council of Medical Research- ICMR) ने "जैव चिकित्सा अनुसंधान और स्वास्थ्य देखभाल में AI के क्रियान्वयन के लिये नैतिक दिशा-निर्देश" शीर्षक से एक मार्गदर्शक दस्तावेज़ जारी किया है जो स्वास्थ्य क्षेत्र में कृत्रिम बुद्धिमता के क्रियान्वयन के लिये 10 प्रमुख रोगी-केंद्रित नैतिक सिद्धांतों की रूपरेखा निर्दिष्ट करता है।

  • निदान और स्क्रीनिंग, चिकित्सीय, निवारक उपचार, नैदानिक निर्णय लेने, सार्वजनिक स्वास्थ्य निगरानी, ​​जटिल डेटा विश्लेषण, बीमारी के परिणामों की संभावनाओं का विश्लेषण, व्यावहारिक और मानसिक स्वास्थ्य देखभाल तथा स्वास्थ्य प्रबंधन प्रणाली स्वास्थ्य देखभाल के AI के मान्यता प्राप्त अनुप्रयोगों के अंतर्गत आते हैं।

10 मार्गदर्शक सिद्धांत: 

  • जवाबदेही और दायित्त्व सिद्धांत: यह AI प्रणाली के इष्टतम कामकाज़ को सुनिश्चित करने के लिये नियमित आंतरिक और बाह्य ऑडिट के महत्त्व को रेखांकित करता है जिसे जनता के लिये उपलब्ध कराया जाना चाहिये।
  • स्वायत्तता सिद्धांत: यह कृत्रिम बुद्धिमत्ता (AI) प्रणाली के कामकाज़ और प्रदर्शन की मानवीय निगरानी सुनिश्चित करता है। किसी भी प्रक्रिया को शुरू करने से पहले रोगी की सहमति प्राप्त करना भी महत्त्वपूर्ण है, जिसमें रोगी को शारीरिक, मनोवैज्ञानिक एवं सामाजिक जोखिमों के बारे में भी सूचित किया जाना चाहिये।  
  • डेटा गोपनीयता सिद्धांत: यह कृत्रिम बुद्धिमत्ता-आधारित प्रौद्योगिकी के विकास और परिनियोजन के सभी चरणों में गोपनीयता तथा व्यक्तिगत डेटा की सुरक्षा सुनिश्चित करता है। 
  • सहयोग सिद्धांत: यह सिद्धांत अंतःविषयक, अंतर्राष्ट्रीय सहयोग और विभिन्न हितधारकों को शामिल करने वाली सहायता को प्रोत्साहित करता है। 
  • सुरक्षा और जोखिम न्यूनीकरण सिद्धांत: यह सिद्धांत "अनपेक्षित या जान-बूझकर दुरुपयोग" को रोकने के उद्देश्य से वैश्विक प्रौद्योगिकी से गुमनाम डेटा को साइबर हमले से बचाने और अन्य क्षेत्रों के किसी मेज़बान के बीच एक नैतिक समिति द्वारा अनुकूल लाभ-जोखिम मूल्यांकन को रोकने के लिये है। 
  • अभिगम्यता, समानता और समावेशिता सिद्धांत: यह सिद्धांत स्वीकार करता है कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकी का परिनियोजन उपयुक्त अवसंरचनात्मक ढाँचे की व्यापक उपलब्धता को मानती है। इस प्रकार इसका लक्ष्य डिजिटल विभेद को पाटना है। 
  • डेटा ऑप्टिमाइज़ेशन: खराब डेटा गुणवत्ता, अनुचित और अपर्याप्त डेटा प्रस्तुतियों से AI तकनीक की कार्यप्रणाली पूर्वाग्रह, भेदभाव, त्रुटियों और उप-इष्टतम परिणामों से युक्त हो सकती है।
  • गैर-भेदभाव और निष्पक्षता सिद्धांत: एल्गोरिदम में पूर्वाग्रहों और अशुद्धियों से बचने तथा गुणवत्तापूर्ण AI प्रौद्योगिकियों को सार्वभौमिक उपयोग के लिये डिज़ाइन किया जाना चाहिये। 
  • विश्वसनीयता: AI का प्रभावी ढंग से उपयोग करने के लिये चिकित्सकों और स्वास्थ्य सेवा प्रदाताओं को AI प्रौद्योगिकियों की वैधता तथा विश्वसनीयता का परीक्षण करने के लिये एक सरल, व्यवस्थित तथा भरोसेमंद तरीका होना चाहिये। स्वास्थ्य डेटा का सटीक विश्लेषण प्रदान करने के अलावा एक भरोसेमंद AI-आधारित समाधान भी वैध, नैतिक, विश्वसनीय और मान्य होना चाहिये। 

नोट: भारत में कई ढाँचे हैं जो स्वास्थ्य सेवा के साथ तकनीकी प्रगति से मेल खाते हैं। इनमें राष्ट्रीय स्वास्थ्य नीति (2017), स्वास्थ्य देखभाल अधिनियम (दिशा), 2018 में डिज़िटल सूचना सुरक्षा और चिकित्सा उपकरण नियम, 2017 के तहत डिजिटल स्वास्थ्य प्रौद्योगिकियों का लाभ उठाने के लिये डिजिटल स्वास्थ्य प्राधिकरण शामिल हैं। 

निष्कर्ष: 

कृत्रिम बुद्धिमत्ता द्वारा लिये गए निर्णयों हेतु जवाबदेह नहीं ठहराया जा सकता है, इसलिये कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के विकास और स्वास्थ्य सेवा में इसके अनुप्रयोग को निर्देशित करने के लिये नैतिक प्रभावी नीति ढाँचा आवश्यक है। इसके अलावा जैसा कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकियाँ आगे विकसित होती हैं, साथ ही नैदानिक निर्णय लेने में उपयोग की जाती हैं, तो रक्षा एवं सुरक्षा हेतु त्रुटियों की स्थिति में जवाबदेही पर विचार करने वाले प्रोटोकॉल का होना महत्त्वपूर्ण है।

स्रोत: डाउन टू अर्थ