आधुनिक युद्ध में विश्वसनीय AI की आवश्यकता

पाठ्यक्रम: GS3/रक्षा, विज्ञान और प्रौद्योगिकी

सन्दर्भ

  • चीफ ऑफ डिफेंस स्टाफ जनरल अनिल चौहान ने सशस्त्र बलों के लिए विश्वसनीय आर्टिफिशियल इंटेलिजेंस (ETAI) फ्रेमवर्क और दिशानिर्देशों का मूल्यांकन शुरू किया।

परिचय

  • ETAI फ्रेमवर्क पाँच व्यापक सिद्धांतों पर केंद्रित है:
    • विश्वसनीयता और मजबूती,
    • सुरक्षा और संरक्षा,
    • पारदर्शिता,
    • निष्पक्षता और
    • गोपनीयता।
  • यह फ्रेमवर्क और दिशा-निर्देश डेवलपर्स और मूल्यांकनकर्ताओं को भरोसेमंद AI बनाने और उसका मूल्यांकन करने के लिए एक संरचित दृष्टिकोण प्रदान करते हैं।
कृत्रिम बुद्धिमत्ता
– कृत्रिम बुद्धिमत्ता (AI) कंप्यूटर विज्ञान की एक व्यापक शाखा है जो ऐसे स्मार्ट मशीनों के निर्माण से संबंधित है जो ऐसे कार्य करने में सक्षम हैं जिनके लिए सामान्यतः मानव बुद्धि की आवश्यकता होती है। 
– कृत्रिम बुद्धिमत्ता मशीनों को मानव मस्तिष्क की क्षमताओं को मॉडल बनाने या यहां तक ​​कि उनमें सुधार करने की अनुमति देती है।

रक्षा क्षेत्र में कृत्रिम बुद्धिमत्ता

  • खुफिया जानकारी और निगरानी: AI सैन्य विश्लेषकों को खतरों का पता लगाने, पैटर्न को पहचानने और वास्तविक समय में सूचित निर्णय लेने के लिए उपग्रहों, ड्रोन आदि के माध्यम से एकत्र किए गए विशाल मात्रा में डेटा को संसाधित करने में सहायता करता है।
  • स्वायत्त हथियार प्रणाली: ड्रोन, मानव रहित लड़ाकू वाहन और मिसाइल सिस्टम जैसी AI-संचालित प्रणालियाँ स्वायत्त रूप से संचालित होती हैं, जिससे युद्ध परिदृश्यों में मानवीय हस्तक्षेप कम होता है।
  • आपूर्ति श्रृंखला प्रबंधन: AI उपकरण विफलताओं की भविष्यवाणी करके, इन्वेंट्री प्रबंधन को स्वचालित करके और महत्वपूर्ण आपूर्ति की समय पर डिलीवरी सुनिश्चित करके रसद को अनुकूलित करता है।
  • साइबर सुरक्षा: AI कमज़ोरियों की पहचान करने, वास्तविक समय में साइबर हमलों का पता लगाने और हानि को कम करने के लिए स्वचालित रूप से प्रतिक्रिया करने में सहायता करता है। AI-संचालित प्रणालियाँ संवेदनशील सैन्य बुनियादी ढाँचे की सुरक्षा करते हुए पूर्वानुमान लगाने की क्षमता प्रदान करती हैं।
  • निर्णय लेने में सहायता: AI विभिन्न युद्ध परिदृश्यों का अनुकरण करके और परिणामों की भविष्यवाणी करके युद्ध में निर्णय लेने को बढ़ाता है।

आधुनिक युद्ध में विश्वसनीय AI  की आवश्यकता

  • नैतिक दुविधाएँ उन स्थितियों में उत्पन्न होती हैं जहाँ AI सिस्टम गैर-लड़ाकों को खतरे के रूप में गलत तरीके से व्याख्या करते हैं, जिससे अंतर्राष्ट्रीय मानवीय कानून का संभावित उल्लंघन होता है। 
  • 2020 में, संयुक्त राष्ट्र ने लीबिया के गृहयुद्ध में स्वायत्त ड्रोन के उपयोग के बारे में चिंता व्यक्त की। 
  • साइबर सुरक्षा जोखिम: AI सिस्टम साइबर हमलों के प्रति संवेदनशील हैं, जहाँ विरोधी गलत परिणाम देने या स्वायत्त सिस्टम को हाईजैक करने के लिए एल्गोरिदम में हेरफेर कर सकते हैं। 
  • जवाबदेही: यदि AI-संचालित स्वायत्त प्रणाली संपार्श्विक क्षति का कारण बनती है या युद्ध के कानूनों का उल्लंघन करती है, तो जिम्मेदारी सौंपना चुनौतीपूर्ण हो जाता है। LAWS (घातक स्वायत्त हथियार प्रणाली) जैसी स्वायत्त सैन्य प्रणालियों ने जवाबदेही के बारे में परिचर्चा शुरू कर दी है। 
  • AI निर्णय लेने में पूर्वाग्रह: चेहरे की पहचान करने वाली तकनीकों के विकास के दौरान, कुछ AI सिस्टम ने नस्लीय पूर्वाग्रह प्रदर्शित किया, कुछ जातीय समूहों के व्यक्तियों की गलत पहचान की।

आगे की राह

  • जबकि रक्षा क्षमताओं में क्रांतिकारी परिवर्तन लाने में AI की अपार क्षमता है, सैन्य अभियानों में इसका एकीकरण चुनौतियों से भरा है।
  •  इन चुनौतियों का समाधान करने के लिए कठोर नैतिक दिशा-निर्देशों, अंतर्राष्ट्रीय सहयोग, मजबूत तकनीकी सुरक्षा उपायों और जवाबदेही ढाँचों की आवश्यकता है ताकि यह सुनिश्चित किया जा सके कि रक्षा में AI का उपयोग जिम्मेदारी से और सुरक्षा को खतरे में डाले बिना किया जाए।

Source: BL