सैन्य क्षेत्र में कृत्रिम बुद्धिमत्ता का जिम्मेदार उपयोग (REAIM)

पाठ्यक्रम: GS3/विज्ञान और प्रौद्योगिकी

सन्दर्भ

  • सैन्य क्षेत्र में कृत्रिम बुद्धिमत्ता के जिम्मेदार उपयोग (REAIM) पर शिखर सम्मेलन सियोल, दक्षिण कोरिया में शुरू हो गया है।

परिचय

  • यह AI के सैन्य अनुप्रयोगों पर वैश्विक मानदंडों को आकार देने के लिए नई वैश्विक कूटनीति का भाग है। 
  • शिखर सम्मेलन की मेजबानी केन्या, नीदरलैंड, सिंगापुर और यूनाइटेड किंगडम द्वारा की जा रही है। 
  • यह शिखर सम्मेलन का दूसरा संस्करण है; पहला 2023 में नीदरलैंड के हेग में हुआ था। 
  • शिखर सम्मेलन के तीन-स्तरीय उद्देश्य हैं:
    • वैश्विक शांति और सुरक्षा पर सैन्य AI  के निहितार्थों को समझना, 
    • सैन्य मामलों में AI प्रणालियों के उपयोग पर नए मानदंडों को लागू करना, और
    •  सैन्य क्षेत्र में AI के दीर्घकालिक वैश्विक शासन पर विचार विकसित करना।

कृत्रिम बुद्धिमत्ता

  • कृत्रिम बुद्धिमत्ता (AI) कंप्यूटर विज्ञान की एक व्यापक शाखा है, जो ऐसी स्मार्ट मशीनों के निर्माण से संबंधित है जो ऐसे कार्य करने में सक्षम हैं जिनके लिए सामान्यतः मानव बुद्धि की आवश्यकता होती है। 
  • कृत्रिम बुद्धिमत्ता मशीनों को मानव मस्तिष्क की क्षमताओं को मॉडल बनाने या उनमें सुधार करने की अनुमति देती है। 
  • स्व-चालित कारों के विकास से लेकर ChatGPT और Google के बार्ड जैसे जनरेटिव AI टूल के प्रसार तक, AI तेजी से दैनिक जीवन का हिस्सा बनता जा रहा है – और एक ऐसा क्षेत्र है जिसमें प्रत्येक उद्योग निवेश कर रहा है।

सैन्य क्षेत्र में AI का अनुप्रयोग

  • जबकि AI का प्रयोग लंबे समय से प्रमुख सेनाओं द्वारा इन्वेंट्री प्रबंधन और रसद योजना के लिए किया जाता रहा है, पिछले कुछ वर्षों में, युद्ध के मैदान की खुफिया जानकारी, निगरानी और टोही में AI का उपयोग काफी सीमा तक बढ़ गया है।
  • प्रमुख सेनाएँ युद्ध के मैदान से विशाल मात्रा में डेटा के संग्रह, संश्लेषण और विश्लेषण को बदलने के लिए AI की क्षमता देखती हैं।
    • यह परिस्थितिजन्य जागरूकता बढ़ाने, बल प्रयोग पर निर्णय लेने के लिए उपलब्ध समय बढ़ाने, लक्ष्य निर्धारण में सटीकता बढ़ाने, नागरिक हताहतों की संख्या को सीमित करने तथा युद्ध की गति बढ़ाने में उपयोगी हो सकता है।
  • विभिन्न आलोचकों ने चेतावनी दी है कि युद्ध में AI के ये कथित आकर्षण भ्रामक और खतरनाक हो सकते हैं। 
  • तथाकथित AI निर्णय लेने वाली सहायता प्रणालियों (AI-DSS) का प्रसार और उनके निहितार्थ उन मुद्दों में से हैं जिन पर अब REAIM प्रक्रिया के तहत वाद-विवाद हो रहा  है।

विनियमन की आवश्यकता

  • इस भय से कि युद्ध का संचालन कंप्यूटर और एल्गोरिदम द्वारा किया जाएगा, इन हथियारों को नियंत्रित करने की मांग उठी थी। 
  • बल के उपयोग पर निर्णय लेने की प्रक्रिया में मनुष्यों को शामिल रखना इस चर्चा का एक प्रमुख उद्देश्य रहा है।
  •  2019 से जिनेवा में संयुक्त राष्ट्र में सरकारी विशेषज्ञों के एक समूह के अंदर घातक स्वायत्त हथियार प्रणालियों (LAWS) से संबंधित मुद्दों पर चर्चा की गई है।
  •  REAIM प्रक्रिया ने इस बात को मान्यता देकर कि AI सिस्टम युद्ध में पहले से कहीं अधिक अनुप्रयोग पा रहे हैं, बहस को ‘हत्यारे रोबोट’ से आगे बढ़ाकर मुद्दों की एक विस्तृत श्रृंखला तक पहुँचा दिया।

सैन्य मामलों में AI का जिम्मेदार उपयोग

  • REAIM प्रक्रिया जिम्मेदार AI को बढ़ावा देने की विभिन्न पहलों में से एक है – राष्ट्रीय, द्विपक्षीय, बहुपक्षीय और बहुपक्षीय। 
  • अमेरिका ने अपने नाटो सहयोगियों को भी इसी तरह के मानदंड अपनाने के लिए प्रोत्साहित किया है।
    • नाटो की 2021 की रणनीति ने AI के जिम्मेदार सैन्य उपयोग के लिए छह सिद्धांतों की पहचान की और अपने बलों के लिए दिशा-निर्देशों का एक समुच्चय प्रस्तुत किया। 
    • इसका उद्देश्य AI प्रणालियों के उपयोग को “तेज़” करना है जो नाटो के लिए सैन्य लाभ उत्पन्न कर सकते हैं, लेकिन “सुरक्षित और जिम्मेदार” तरीके से।
  • विश्व को युद्ध में AI का कम से कम प्रयोग देखने को मिल रहा  है; यह ऐतिहासिक प्रवृत्ति के अनुरूप है कि सभी नई प्रौद्योगिकियों को अंततः सैन्य अनुप्रयोग मिलेंगे।
  •  REAIM प्रक्रिया इसे पहचानती है – और इस तरह के उपयोग से संभावित विनाशकारी परिणामों को देखते हुए, विचार मानदंडों का एक सहमत समुच्चय विकसित करने का है।

Source: IE