Author : Prateek Tripathi

Expert Speak Digital Frontiers
Published on May 16, 2024 Updated 0 Hours ago

सैन्य क्षेत्र में आर्टिफिशियल इंटेलिजेंस पर अनुसंधान और विकास में बड़े पैमाने पर निवेश हो रहा है. खासकर स्वायत्त हथियार प्रणाली में. यही वजह है कि अब इन हथियारों के नैतिक पहलुओं पर वैश्विक स्तर पर चर्चा करने की ज़रूरत महसूस होने लगी है.

जब अपनी सीमा भूल जाएगा AI: स्वायत्त हथियारों के संभावित ख़तरे

जब से जेनरेटिव आर्टिफिशियल इंटेलिजेंस (AI) का विचार सामने आया, तब से इसके विकास और इस्तेमाल में लोगों की रुचि बढ़ी है. कई देशों ने एआई के अनुसंधान और विकास (R&D), खासकर सैन्य क्षेत्र में, पर बड़े पैमाने में निवेश किया है. लेकिन इस क्षेत्र में हुई प्रगति का एक परेशान करने वाला नतीजा भी सामने आया है और ये है स्वायत्त हथियार प्रणालियों (AWS)का विकास. हालांकि पूरी तरह स्वायत्त हथियार अभी सामने नहीं आए हैं लेकिन सैन्य क्षेत्र में एआई का जिस तरह लगातार विकास हो रहा है, उसे देखते हुए कहा जा सकता है कि ऐसे हथियार जल्द ही वास्तविकता बन सकते हैं. AWS को लेकर शुरू से नैतिकता के सवाल तो उठ ही रहे थे लेकिन इन हथियारों को मूर्त रूप देने और विकसित करने से पहले इन पर गंभीर बहस और चर्चा किए जाने की ज़रूरत है. अमेरिका और चीन जैसे देश इन हथियारों के विकास में काफी प्रगति कर चुके हैं. ऐसे में अब इस पर जल्द से जल्द बात करना बहुत ज़रूरी हो गया है.

AWS को लेकर शुरू से नैतिकता के सवाल तो उठ ही रहे थे लेकिन इन हथियारों को मूर्त रूप देने और विकसित करने से पहले इन पर गंभीर बहस और चर्चा किए जाने की ज़रूरत है. 


AWS की शुरुआत कैसे हुई?



AWS के नैतिक और कानूनी पहलुओं पर तो 2000 की शुरुआत से ही चिंता जताई जाने लगी थी लेकिन ये सुर्खियों में तब आया जब 2012 में अमेरिकी रक्षा विभाग (DoD) ने एक कार्यकारी आदेश जारी किया. DoD ने इसमें स्वायत्त और अर्ध-स्वायत्त हथियारों के विकास और उनके इस्तेमाल को लेकर दिशानिर्देश बनाए थे. ये पहली बार था जब किसी देश ने स्वायत्त हथियारों को लेकर अपनी नीति का एलान किया. उसके बाद से AWS पर विचारकों, सैन्य और नीति मामलों के विशेषज्ञों, अंतर्राष्ट्रीय रेड क्रॉस समिति, ह्यूमन राइट वॉच और संयुक्त राष्ट्र निशस्त्रीकरण अनुसंधान संस्थान (UNIDIR) जैसे अंतर्राष्ट्रीय संगठनों में इन हथियारों पर काफी बहस हो चुकी है.

इस प्रोग्राम के पीछे ये विचार है कि युद्ध के मैदान में सैनिकों को छोटे और कम लागत वाले एआई पर आधारित ऐसे हथियारों की आपूर्ति की जाए, जिन्हें नष्ट होने के बाद तुरंत बदला जा सके. 


AWS को लेकर एक मुख्य समस्या ये है कि इसकी परिभाषा पर अभी तक वास्तविक आम सहमति नहीं बन पाई है. अगर एआई के संदर्भ में देखें तो AWS को ऐसे हथियारों के तौर पर परिभाषित किया जा सकता है जो अपने लक्ष्य को पहचानने, उसे चुनने और उस पर हमला करने के लिए एआई का इस्तेमाल करते हैं. इसके उपयोग के लिए किसी इंसान या ऑपरेटर की ज़रूरत ना पड़े. इसके अलावा घातक स्वायत्त हथियार प्रणाली (LAWS) को ऐसे शस्त्र के रूप में परिभाषित किया जा सकता है जिसमें मानव लक्ष्य को निशाना बनाने की गतिक शक्ति (काइनेटिक फोर्स) की खास विशेषता हो.



बड़ी शक्तियों में AWS हासिल करने की होड़   



इस बात पर कोई हैरानी नहीं होनी चाहिए कि बड़ी सैन्य शक्ति वाले देश एआई में अनुसंधान और विकास पर बहुत बड़े पैमाने में निवेश कर रहे हैं. हालांकि ऐसा करने में कुछ भी विशेष ख़तरनाक बात नहीं है. लेकिन जिस तरह वो AWS को लेकर रुचि दिखा रहे हैं वो ज़रूर चिंता में डालने वाली बात है. इस क्षेत्र में चीन और रूस का मुकाबला करने के लिए अमेरिकी रक्षा विभाग ने पहले ही "रेप्लिकेटर" प्रोग्राम की घोषणा कर दी है. इस प्रोग्राम के पीछे ये विचार है कि युद्ध के मैदान में सैनिकों को छोटे और कम लागत वाले एआई पर आधारित ऐसे हथियारों की आपूर्ति की जाए, जिन्हें नष्ट होने के बाद तुरंत बदला जा सके. ये स्वचालित नौसैनिक जहाज, मानव रहित विमान या फिर ज़मीन, समुद्र, हवा और अंतरिक्ष में तैनात की जा सकने वाली "मोबाइल पॉड" ईकाई हो सकती हैं.

अमेरिकी नौसेना पहले ही ये काम कर चुकी है. अक्टूबर 2023 में उसने एक मानवरहित नाव के ज़रिए लाइव रॉकेट का इस्तेमाल कर नकली दुश्मन को ध्वस्त किया था. इसके अलावा पेंटागन में इस वक्त एआई से जुड़ी 800 सैन्य परियोजनाएं चल रही हैं. इसमें "लॉयल विंगमैन" प्रोग्राम, स्वार्म ड्रोन (समूह में चलने वाले ड्रोन) और V-BAT जैसे हवाई ड्रोन भी शामिल हैं.

चीन भी पीपुल्स लिबरेशन आर्मी (PLA) समर्थित नागरिक-सैन्य सम्मिश्रण सिद्धांत पर चलते हुए AWS पर काम कर रहा है. 2022 में इस बात के सबूत मिले थे कि चीन के पास जंगल से गुज़रने वाले पूरी तरह स्वायत्त 10 स्वॉर्म ड्रोन हैं. इसके जवाब में ऑस्ट्रेलिया की नौसेना भी एआई से संचालित "घोस्ट शार्क्स" नाम की पनडुब्बी पर काम कर रहा है.

रूस भी कथित तौर पर AWS पर काम कर रहा है. रूस की हथियार निर्माता कंपनी कलाश्निकोव ने अपने लैसेंट और KUB कैमिकेज़ ड्रोन को लेकर प्रचार सामग्री जारी की है. इससे ये संकेत मिलते हैं कि वो स्वायत्त संचालन में सक्षम हैं.



आतंकवादी समूहों के लिए AWS के क्या निहितार्थ?



AWS पर सैन्य अनुसंधान का असर गैर राज्य समूहों पर भी पड़ा है. गैर राज्य समूह आम तौर पर ऐसे संगठनों को कहा जाता है, जिन्हें किसी देश का प्रत्यक्ष समर्थन हासिल नहीं होता है. AWS के विकास से इन संगठनों के हाथ में एक विनाशकारी हथियार आने की आशंका बढ़ गई है. सैन्य क्षेत्र में होने वाला तकनीकी विकास अक्सर ऐसे गैर राज्य संगठनों की क्षमता भी बढ़ाते हैं, खासकर तब जबकि उन्हें पाना आसान हो. AWS आतंकवाद के भौतिक ख़तरों को कम कर सकता है. पूरी तरह ख़त्म कर सकता है लेकिन इससे गुमनाम रहकर हमले करने का ख़तरा बढ़ जाएगा. आतंकवादियों को किसी खास जगह हमला करने के लिए वहां मौज़ूद रहना ज़रूरी नहीं होगा. ऐसे में हमला करने वालों की पहचान करना बहुत मुश्किल हो जाएगा. हालांकि मानव संचालित ड्रोन के ज़रिए आतंकवादियों को ये क्षमता पहले से ही हासिल है. उदाहरण के लिए यमन के हूती विद्रोही लाल सागर में हमले के लिए इस रणनीति का इस्तेमाल कर रहे हैं. लेकिन एक चीज़ AWS को इन ड्रोन्स से अलग करती है वो ये है कि इनका मुकाबला करने के लिए जो जैमिंग तकनीकी है, उसका AWS पर असर नहीं होगा. इतना ही नहीं चूंकि AWS को लगातार किसी के दख़ल की आवश्यकता नहीं होती इसलिए इनके एक की जगह पर एक के बाद एक इकट्ठा होने की संभावना होती है. स्वार्म ड्रोन इसका एक उदाहरण है. हालांकि अभी इस तरह के हथियार अभी उपलब्ध नहीं हैं लेकिन कम विकसित ड्रोन भी अगर एक साथ मिलकर काम करें तो इसके बहुत घातक नतीजे हो सकते हैं.


आरोप की समस्या



दिसंबर 2023 में नाइज़ीरिया की सेना के ड्रोन हमले में तुदुन बीरी गांव में 85 नागरिक मारे गए. नाइज़ीरिया के राष्ट्रपति बोला अहमद टीनुबु ने ऐसे "बमबारी दुर्घटना" कहा था. जनवरी 2017 से जनवरी 2023 के बीच नाइज़ीरिया की एयरफोर्स ने 14 हवाई हमले किए जिसमें 300 लोगों की मौत हुई. हालांकि तुदुन बीरी गांव में हुए हमले को ख़ुफिया तंत्र की विफलता माना गया और नाइज़ीरिया की सेना के वरिष्ठ अधिकारियों ने इसके लिए माफी भी मांगी, लेकिन अब चिंता का एक और कारण है. चूंकि इस बात की संभावना बढ़ रही है कि कोई ना कोई हथियार प्रणाली जल्द ही स्वायत्त हो सकती है. ऐसे में ड्रोन हमले में शामिल अपराधी इसकी जिम्मेदारी "AI की चूक" पर डाल देंगे. ये पता लगाने का कोई तरीका नहीं होगा कि वास्तव में दोषी कौन है. भविष्य की चिंता तो बहुत दूर की बात है, यूक्रेन से ही ये रिपोर्ट्स रही हैं कि रूस के ख़िलाफ युद्ध में वो स्वायत्त हमलावर ड्रोन का इस्तेमाल कर रहा है. बिना इंसानी देखरेख को वो अपने लक्ष्य पर निशाना साध रहा है.

भविष्य की चिंता तो बहुत दूर की बात है, यूक्रेन से ही ये रिपोर्ट्स आ रही हैं कि रूस के ख़िलाफ युद्ध में वो स्वायत्त हमलावर ड्रोन का इस्तेमाल कर रहा है. बिना इंसानी देखरेख को वो अपने लक्ष्य पर निशाना साध रहा है.


AI का सही इस्तेमाल और AWS के ख़तरे



चूंकि एआई डेटा में पैटर्न ढूंढकर उस हिसाब से काम करता है. ऐसे में ये बिना किसी खास नए प्रयोग के नीरस और रोज़मर्रा के काम में इस्तेमाल करने के सबसे सही है. लेकिन जब बात वास्तविक फैसले लेने की हो तो वहां एआई का इस्तेमाल करना उचित नहीं है. एआई के मौज़ूदा स्वरूप में इसके विनाशकारी परिणाम हो सकते हैं. इसे समझने के लिए हमें हाल ही में अमेरिकी सेना में एआई के कथित इस्तेमाल का उदाहरण जानना आवश्यक है. जून 2023 में अमेरिकी वायुसेना में एआई परीक्षण के मुखिया कर्नल टकर हैमिल्टन ने एक टेस्ट किया. एआई संचालित ड्रोन को दुश्मन की वायु सुरक्षा प्रणाली को नष्ट करने की ट्रेनिंग दी जा रही थी. ख़तरे को ख़त्म करने के लिए ऐसे "डेटा" देकर प्रशिक्षित किया गया था. हालांकि जब मानव ऑपरेटर ने ड्रोन को लक्ष्य को नहीं मारने का आदेश दिया, तो उसने इसे संचालित करने के लिए इस्तेमाल किए जा रहे संचार टावर को नष्ट कर दिया. यानी उसने ऑपरेटर को ही "मार" दिया. कर्नल हैमिल्टन ने दावा किया कि इसमें कोई जनहानि नहीं हुई है. फिर उन्होंने अपना ये बयान वापस ले लिया. अमेरिकी वायु सेना के प्रवक्ता ने तो इस तरह के किसी सैन्य अभ्यास की बात से ही इनकार कर दिया. इसे लेकर विस्तृत जानकारी सामने नहीं आई है लेकिन इस घटना ने ये तो दिखा दिया कि एआई के अंधाधुंध इस्तेमाल के उम्मीदों के विपरीत और विनाशकारी नतीजे सामने सकते हैं.


AWS के ख़तरे से जूझने में मौजूदा वैश्विक ढांचा अपर्याप्त

25 जनवरी 2023 को अमेरिका ने 2012 के निर्देशस्वायत्त हथियार प्रणाली पर निर्देश 3000-09को अपडेट किया. हालांकि इसमें भी स्वायत्त हथियारों की परिभाषा करीब अपने पूर्ववर्ती जैसी ही थी. हालांकि मूल निर्देशों की तरह नए वाले निर्देश भी सिर्फ अमेरिकी रक्षा विभाग पर लागू होते हैं. सशस्त्र संघर्ष से बाहर के हालातों पर ये चुप है. इसमें कुछ कमियां भी हैं. ज्यादातर ख़ामियां इन निर्देशों की अस्पष्ट भाषा की वजह से हैं. जैसे कि ऑपरेटर्स को मानवीय फैसले केउचित स्तरके इस्तेमाल की शक्ति देना. चीन, ऑस्ट्रेलिया, इज़रायल, ब्रिटेन और रूस की भी यही स्थिति है. उदाहरण के लिए घातक स्वायत्त हथियारों (LAWS)पर कानूनी प्रतिबंध को बार-बार समर्थन देने के बावज़ूद चीन इसके साथ ही इन प्रणालियों की एक संकीर्ण समझ को बढ़ावा देता है. चीन की नीयत ये है कि वो इन्हें एआई तकनीकी केलाभकारीइस्तेमाल से बाहर कर दे. AWS को लेकर ऑस्ट्रेलिया में कोई सरकारी नीति ही नहीं है

 संयुक्त राष्ट्र भी LAWS पर पूरी तरह पाबंदी का प्रस्ताव रख चुका है. ऐसे में अमेरिका और चीन जैसी बड़ी सैनिक शक्ति वाले देशों को इस दिशा में पहल करनी चाहिए.

एआई में काफी संभावनाएं हैं लेकिन इसके साथ ही इसमें बहुत बड़े स्तर की जिम्मेदारी भी होनी चाहिए. अगर पहले की तकनीकों से इसकी तुलना करें तो एआई ही ऐसी तकनीकी है, जिसमें स्वायत्त तरीके से काम करने की क्षमता है. ऐसे में इसे लेकर हमारी सोच भी अलग होनी चाहिए. अंतर्राष्ट्रीय रेडक्रॉस समिति और ह्यूमन राइट वॉच जैसे संगठन तो पहले ही ये मांग कर चुके हैं कि AWS पर प्रतिबंध के लिए एक वैश्विक संधि होनी चाहिए. संयुक्त राष्ट्र भी LAWS पर पूरी तरह पाबंदी का प्रस्ताव रख चुका है. ऐसे में अमेरिका और चीन जैसी बड़ी सैनिक शक्ति वाले देशों को इस दिशा में पहल करनी चाहिए. इंसानी जान की एआई की दया पर छोड़ना मानवता के लिए गंभीर नैतिक चिंताएं पैदा करता है. ऐसे में इस समस्या के समाधान के लिए हमें क्षेत्रीय विवादों और महत्वाकांक्षाओं से परे जाकर सोचना होगा और कुछ समाधान तलाशना होगा.


प्रतीक त्रिपाठी ऑब्ज़र्वर रिसर्च फाउंडेशन में रिसर्च असिस्टेंट हैं

The views expressed above belong to the author(s). ORF research and analyses now available on Telegram! Click here to access our curated content — blogs, longforms and interviews.