पढ़िए बीबीसी न्यूज़ हिंदी की ये खबर…
ईरान की राजधानी तेहरान.
वैज्ञानिक मोहसिन फ़ख़रीज़ादेह की गाड़ियों का क़ाफ़िला राजधानी के बाहरी इलाक़े से गुज़र रहा था. वो ईरान के सबसे वरिष्ठ परमाणु वैज्ञानिक माने जाते थे और सुरक्षा के कड़े पहरे में रहते थे.
कुछ देर बाद फ़ख़रीज़ादेह की गाड़ी पर हमला हुआ. ताबड़तोड़ गोलियां चलीं और उनकी मौत हो गई. ये कोई सामान्य हमला नहीं था.
मौके पर मौजूद रहे एक वरिष्ठ अधिकारी ने बताया कि वहां कोई हमलावर नहीं था. गोलियां एक कार में लगी मशीनगन से चलाई गईं लेकिन मशीनगन चलाने वाला कोई नहीं था. ईरान के एक और अधिकारी ने बताया कि मशीनगन को आर्टिफ़ीशियल इंटेलिजेंस के ज़रिए कंट्रोल किया जा रहा था.
‘कंप्यूटर से क़ाबू होने वाली मशीनगन’. ये हॉलीवुड की “किलर रोबोट” सिरीज़ वाली फ़िल्मों से प्रेरित कहानी का हिस्सा लगता है. जहां एक ऐसी मशीन है जो सोच सकती है और निशाना साधकर गोली भी चला सकती है.
लेकिन क्या ऐसा मुमकिन है? अगर है तो एक और सवाल उठता है कि क्या आने वाले दिनों में जंग में भी सैनिकों की जगह रोबोट आमने-सामने होंगे?
जंग में लड़ेंगे रोबोट?
अमेरिका की जॉन हॉपकिन्स यूनिवर्सिटी की सीनियर रिसर्च एनालिस्ट हैदर रॉफ़ कहती हैं, “हम एक ऐसे सिस्टम की बात कर रहे हैं जिसके पास ये क्षमता है कि वो किसी इंसान की मदद या निर्देश के बिना अपने लक्ष्य तय करे और उन्हें भेद सके.”
यहां ये समझना होगा कि जब जंग में रोबोट के इस्तेमाल की बात होती है तो विशेषज्ञों की ज़ुबान पर जो शब्द होता है वो है ‘ऑटोनोमस’. यानी मशीन को ख़ुद फ़ैसले लेने की ताक़त देना. इसे लेकर बहस होती रही है. इन हथियारों का दायरा भी ख़ासा बड़ा है. इनमें प्राथमिक स्तर के हथियारों से लेकर टर्मिनेटर तक आते हैं. हैदर कहती हैं कि आज भी ऐसे हथियार मौजूद हैं.
वो कहती हैं, “हमारे पास समुद्री सुरंग, कई तरह की ज़मीनी सुरंग, साइबर तकनीक और साइबर हथियार हैं. जो ऑटोनोमस हैं. फिर इसराइल की एंटी रेडिएशन मिसाइल हैरोप है. ये कहा जाता है कि लॉन्च किए जाने के बाद ये सिग्नल के आधार पर हमला करने के बारे में तय करती हैं. आप पैट्रियट मिसाइल को निर्देशित करते हुए ओटोमैटिक मोड में तैनात कर सकते हैं.”
“किलर रोबोट” के जंग में इस्तेमाल के विचार से कई लोगों को भले ही हैरानी हो लेकिन सच ये है कि दुनिया भर में अब भी ऐसी तकनीक विकसित की जा रही है.
हैदर रॉफ़ कहती हैं, “चीन अपनी सेना को सशक्त बनाना चाहता है. वो अपनी नौसेना के जहाज़ों और पनडुब्बियों को स्वचालित बना रहे हैं. इसराइल ज़मीनी हथियारों मसलन टैंक और तोपों को बेहतर बनाने में जुटा है. रूस भी ज़मीनी उपकरणों पर काफी रक़म ख़र्च कर रहा है. अमेरिका की दिलचस्पी हर जगह है. एयरफ़ोर्स, एयरबेस सिस्टम से लेकर मिसाइल तक. ब्रिटेन भी अपनी वायुसेना और नौसेना की क्षमता बढ़ाना चाहता है.”
विशेषज्ञों को चिंता
अहम बात ये है कि अभी जो तमाम हथियार विकसित हो रहे हैं, उनमें सभी “किलर रोबोट” नहीं होंगे. लेकिन कुछ हथियारों और देशों को लेकर हैदर फ़िक्रमंद दिखती हैं.
वो कहती हैं, “पश्चिमी देश जोखिम को कम करके चलते हैं. वो अपने सिस्टम को भरपूर टेस्ट करते हैं लेकिन रूस जल्दी विकसित किए गए उपकरणों को ज़्यादा परीक्षण किए बिना ही तैनात कर देता है. मैं इसे लेकर ही फ़िक्रमंद हूं.”
हैदर कहती हैं कि बिना टेस्ट किए हुए सिस्टम को मोर्चे पर लगाना किसी विध्वंस को बुलावा देने जैसा है.
ऑक्सफ़ोर्ड यूनिवर्सिटी के एसोसिएट प्रोफ़ेसर टॉम सिम्पसन ने जंग के प्रभाव को समझने में बरसों लगाए हैं. वो पाँच साल तक ब्रिटेन की सेना के साथ जुड़े रहे हैं. तकनीकी और सुरक्षा से जुड़े सवालों में उनकी दिलचस्पी लगातार बनी हुई है.
जंग जैसे ख़तरनाक़ मोर्चों पर इंसानों के बजाए रोबोट तैनात करने के विचार पर वो कहते हैं कि इसके पक्ष में एक ऐसा तर्क दिया जाता है जो सरकारों के नैतिक धरातल को मज़बूत कर देता है है. सरकारों की ये ज़िम्मेदारी है कि अपने सैनिकों की जान बचाने के लिए वो ऐसे सिस्टम विकसित करें. लेकिन टॉम आगाह करते हैं कि इस तकनीक में ख़तरे भी हैं.
मशीन कर सकती है ग़लती!
वो कहते हैं, “ये डर बना रहता है कि तकनीक ग़लत फ़ैसले ले सकती है. ये ऐसे लोगों की जान ले सकती है, जिनकी जान नहीं जानी चाहिए. इस बारे में फ़िक्र करना सही भी है. अगर सैनिक एक इंसान हो तो अपने लक्ष्य और मासूम लोगों के बीच फ़र्क़ करने की ज़िम्मेदारी उसकी होती है. लेकिन एक मशीन हमेशा कामयाबी के साथ ऐसा अंतर नहीं कर पाएगी. अब सवाल है कि इसे लेकर कितना जोखिम उठाया जा सकता है. कुछ लोग कहेंगे कि जोखिम की गुंजाइश ना के बराबर होनी चाहिए. मैं इस विचार से सहमत नहीं हूं. मेरी राय में इस तकनीकी को तभी इस्तेमाल किया जाना चाहिए जब उसके इस्तेमाल से जंग में हिस्सा नहीं ले रहे नागरिकों को इंसानी सेना के मुक़ाबले कम ख़तरा हो.”
टॉम की राय में जंग के कुछ मोर्चे ऐसे भी हैं जहां ज्यादा जोखिम उठाया जा सकता है. वो कहते हैं कि आप ऐसी स्थिति की कल्पना कीजिए जहां एक फ़ाइटर प्लेन में एक पायलट हैं और उनके पास 20 या 30 ऑटोमैटिक सिस्टम हैं. वो आकाश में जिस जगह हैं, वहां दुश्मन के अलावा कोई और नहीं है. आप देखेंगे कि ऐसी जगह स्वचालित सिस्टम कैसे कामयाबी से वार करता है. ये सुरक्षित भी है क्योंकि वहां कोई सिविलियन यानी आम नागरिक नहीं है.”
स्वचालित रोबोट तैनात करने के पक्ष में एक और तर्क दिया जाता है जो ज़्यादा व्यावहारिक है. टॉम कहते हैं कि जिन्न बोतल से बाहर आ चुका है. अगर आप ऐसे हथियार नहीं बनाते हैं तो न बनाएं आपके दुश्मन तो बनाएंगे ही.
क्या होगी रणनीति?
टॉम सिम्पसन कहते हैं, “जब ऐसे हथियारों पर पाबंदी की बात होती है या फिर आत्मनियंत्रण की वकालत की जाती है तो ये सवाल पूछा जाना चाहिए कि 20 साल बाद दुनिया कैसी होगी? कुछ ऐसे देश होंगे जिनके पास इस तरह की स्वाचालित प्रणाली होगी और हमारी सेना के पास अपने बचाव के लिए ऐसी क्षमता नहीं होगी. मुझे लगता है कि उस स्थिति में लोग सरकारों से कहेंगे कि आत्मनियंत्रण का फ़ैसला ग़लत था. सरकार का पहला कर्तव्य देश को सुरक्षित करने का है. जो जिम्मेदार सरकार हैं वो नो फर्स्ट यूज़ पॉलिसी यानी ऐसे हथियारों का पहले इस्तेमाल नहीं करने की नीति अपना सकती हैं.”
ये वही रणनीति है जो आपको 20वीं सदी की परमाणु हथियारों की होड़ याद दिला सकती है. लेकिन एक और सवाल पूछा जाता है कि ख़तरे का मुक़ाबला करने के लिए आपको वैसा ही हथियार बनाने की जरूरत क्यों है?
इस पर टॉम सिम्पसन का जवाब है, “चलिए एक ऐसे सिस्टम की बात करते हैं जिसमें नैनो या फिर माइक्रो टेक्नॉलॉजी का इस्तेमाल हुआ है और उसके जरिए एक इलाक़े में 20 से 50 हज़ार तक उपकरण तैनात हैं. इस स्थिति में ऐसा कोई तरीका नहीं है कि कोई इंसान या फिर इंसानों का दस्ता उसका मुक़ाबला कर सके. उसके साथ मुक़ाबले के लिए आपके पास भले ही हूबहू वैसा सिस्टम न हो लेकिन आपको किसी तरह के ऑटोमैटिक सिस्टम की जरूरत होगी.”
पाबंदी की माँग
टॉम कहते है कि ऐसे सिस्टम के ज़रिए ही सामने मौजूद ख़तरे का मुक़ाबला किया जा सकता है. लेकिन, सॉफ़्टवेयर इंजीनियर लौरा नोलैन की राय अलग है.
वो कहती हैं, “कुछ लोग ऐसा सोचते हैं कि भविष्य में जंग रोबोट के बीच होंगी. रोबोट सैनिक लड़ेंगे तो ऐसी जंग में ख़ून नहीं गिरेगा. मुझे लगता है कि ये एक आदर्शवादी कल्पना है. हम ज़्यादातर मौकों पर ऐसी स्थिति देखेंगे कि इन मशीनों को इंसानों से मुक़ाबला करने को तैनात किया गया है. ये काफी दर्दनाक स्थिति होगी.”
लौरा नोलैन टेक कंपनी ‘गूगल’ के साथ जुड़ी थीं. साल 2017 में उन्हें अमेरिकी रक्षा मंत्रालय के साथ एक प्रोजेक्ट पर काम करने को कहा गया. इस प्रोजेक्ट में ड्रोन से लिए गए वीडियो फ़ुटेज का विश्लेषण करने वाले आर्टिफीशियल इंटेलिजेंस सिस्टम विकसित करने थे. ये हथियार विकसित करने का प्रोजेक्ट नहीं था.
लेकिन लौरा इसे लेकर फिक्रमंद थीं. उन्हें लगता था कि वो एक ऐसी आर्टिफ़ीशियल टेक्नॉलॉजी का हिस्सा हैं जिसका रास्ता कहीं न कहीं जंग की तरफ़ जाता है. उन्होंने इसके विरोध में इस्तीफ़ा दे दिया. इसके बाद वो “किलर रोबोट” को रोकने के कैंपेन में जुट गईं. उनकी राय में ऐसे हथियारों के मूल में समस्या ये है कि कंप्यूटर और इंसानों के सोचने का तरीका अलग होता है.
लौरा कहती हैं, “कंप्यूटर गणना करते हैं जबकि इंसानों में परखकर फैसला लेने की खूबी होती है. गणना ठोस आंकड़ों के आधार पर होती है. जबकि परखकर फ़ैसला करते वक़्त कई बातों पर ग़ौर किया जाता है. अगर उदाहरण देकर समझाएं तो हममें से अधिकतर लोग किसी कोर्ट में किसी ऐसे रोबोट जज के सामने नहीं आना चाहेंगे जो क़ानून को एक तय तरीक़े से लागू कराते हों.”
तकनीक की सीमाएं
दिक्क़त ये है कि जंग के मैदान का कोई ऐसा इलाक़ा जहां सिविलियन आबादी यानी आम नागरिक रहते हों, वो संघर्ष के लिहाज से काफ़ी पेचीदा क्षेत्र होता है. वहां काफ़ी मुश्किल फैसले लेने होते हैं जिसके लिए सही परख की ज़रूरत होती है.
लौरा कहती हैं कि मशीन के सॉफ्टवेयर को जिन हालात से मुक़ाबले के लिए डिज़ाइन किया गया होता है, अगर उनसे अलग स्थितियां सामने आती हैं तो हालात बहुत ही अनिश्चित से हो सकते हैं. जबकि इंसान परिस्थिति के मुताबिक ख़ुद को ढालकर फैसला ले सकते हैं. वो कहती हैं कि ड्राइवरलेस कार की तकनीक में ऐसी ही दिक्कत दिखती है.
साल 2018 में अमेरिका में उबर की एक स्वाचालित कार टेस्टिंग के दौरान साइकिल के साथ जा रही एक महिला से टकरा गई. इस हादसे में महिला की मौत हो गई. जाँच में पाया गया कि कार का सिस्टम महिला और उनकी साइकिल को ऐसे संभावित ख़तरे के तौर पर नहीं पहचान सका जिससे कार की टक्कर हो सकती है. लौरा का तर्क है कि ऑटोनमस हथियारों के मामले में स्थितियां और ज़्यादा पेचीदा हो सकती हैं. क्योकि युद्ध अपने आप में बहुत ही जटिल स्थिति होती है. लौरा के मुताबिक यहां जवाबदेही से जुड़ा सवाल भी सामने आता है.
वो कहती हैं, “अगर ऑटोनोमस हथियार से ऐसा कुछ हो जाए जिसे युद्ध अपराध की श्रेणी में रखा जाए तो जवाबदेही किसकी होगी? क्या जवाबदेही उस कमांडर की होगी जिसने हथियार तैनात करने का आदेश दिया. शायद नहीं क्योंकि शायद ट्रेनिंग के दौरान हथियार ने ऐसा कुछ ना किया हो. ऐसा होने की कल्पना शायद इंजीनियरों ने भी न की हो. ऐसे में इंजीनियरों की जवाबदेही तय करना भी मुश्किल होगा.”
ख़तरे ही ख़तरे
उधर, सेंटर फॉर न्यू अमेरिकन सिक्यूरिटी में डॉरेक्टर ऑफ टेक्नॉलजी पॉल शॉरी ऐसी तकनीक से जुड़ा एक अलग गंभीर सवाल उठाते हैं. वो कहते हैं, “विकास के साथ तकनीक हमें ऐसे रास्ते पर ले जा रही है जहां ज़िंदगी और मौत से जुड़े फैसले मशीनों के हवाले हो जाएंगे और मुझे लगता है कि ये इंसानियत के सामने एक गंभीर सवाल है.”
पॉल पेंटागन में पॉलिसी एनालिस्ट रह चुके हैं. उन्होंने एक किताब भी लिखी है, ‘आर्मी ऑफ़ नन, ऑटोनोमस वैपन्स एंड द फ्यूचर ऑफ वार.’ क्या भविष्य की जंग में ज़िंदगी और मौत से जुड़े फैसले रोबोट करेंगे, इस सवाल के जवाब में वो कहते हैं कि अभी भी ऐसी मशीनें मौजूद हैं.
पॉल कहते हैं कि पहले से की गई प्रोग्रामिंग के ज़रिए ड्रोन ख़ुद ही उड़ान भरते हैं. वो ये भी कहते हैं कि रोबोट के पास कभी इतनी बुद्धिमता नहीं हो सकती कि वो जंग के साथ जुड़े सामरिक और भूराजनीतिक जोखिम को समझ सकें.
पॉल शॉरी कहते हैं, “हाल में कुछ स्थितियां सामने आई हैं. सीरिया के आसमान में उड़ान भरते रूस और अमेरिका के लड़ाकू विमान जो ज़मीन पर अभ्यास कर रही सेनाओं की मदद कर रहे थे. बीते साल चीन और भारत की सेनाओं के बीच हुई झड़प. इस तरह के सैन्य विवादों के बीच अगर ऑटोनोमस हथियार तैनात हों तो बड़े जोखिम की आशंका रहती है. अगर ऐसे हथियार ग़लत जगह निशाना लगाते हैं तो संघर्ष ज़्यादा भड़क सकता है.”
पॉल ये भी कहते हैं कि स्टॉक मार्केट में सुपर ह्यूमन की रफ़्तार में शेयर खरीदने और बेचने के लिए कंप्यूटर का इस्तेमाल होता है. सबने इसके जोखिम भी देखे हैं. फ्लैश क्रैश यानी अचानक तेज़ी से होने वाली गिरावट की स्थिति में इंसान कोई हस्तक्षेप नहीं कर सकता है क्योंकि मशीनें ये सब कुछ मिलीसैकेंड जितने कम वक़्त में कर देती हैं. ऐसा ही युद्ध की स्थिति में भी हो सकता है. पलक झपकने भर की देरी में दो पक्षों की मशीनों के बीच गोलीबारी देखने को मिल सकती है. स्थितियां तब और भी भयावह हो सकती हैं जब दुश्मन आपके हथियारों का मुंह आपकी ओर ही मोड़ दे.
पॉल कहते हैं, “ऐसा बिल्कुल हो सकता है. किसी भी चीज़ को हैक किया जा सकता है. सेना भी उसी तरह के असुरक्षित कंप्यूटरों का इस्तेमाल करती है जैसे के सभी लोग करते हैं. ख़ुद चलने वाली कारें हैक की जा चुकी हैं. हम ये देख चुके हैं कि हैकर्स दूर बैठकर भी कार की स्टीयरिंग और ब्रेक पर क़ाबू कर सकते हैं. लेकिन अगर कोई हैकर हथियारों पर क़ाबू कर लेता है तो नुक़सान काफ़ी ज़्यादा हो सकता है.”
पॉल कहते हैं कि ‘किलर रोबोट’ से जुड़े सवाल कुछ और भी हैं. वो कहते हैं कि मान लेते हैं कि मशीनें सही जगह निशाना लगाती हैं तो भी जान का जो नुक़सान होगा उसके लिए कोई इंसान जवाबदेह नहीं होगा. ‘सवाल ये भी है कि अगर कोई जंग का बोझ अपने कंधों पर नहीं लेगा तो हम समाज से क्या कहेंगे? हम इंसानियत को क्या जवाब देंगे?’
इतना तय है कि आज जंग में हिस्सा ले रही मशीनों की आगे भी भूमिका बनी रहेगी. लेकिन क्या हम तकनीक की सीमाओं को समझ पाएंगे? मशीनों को फ़ैसला लेने के कितने अधिकार दिए जाएंगे? भविष्य में क्या होगा, इस सवाल का जवाब यही है कि स्वचालित रोबोट के पास उतने ही अधिकार होंगे, जितने कि हम उन्हें देंगे. साभार-बीबीसी न्यूज़ हिंदी
आपका साथ – इन खबरों के बारे आपकी क्या राय है। हमें फेसबुक पर कमेंट बॉक्स में लिखकर बताएं। शहर से लेकर देश तक की ताजा खबरें व वीडियो देखने लिए हमारे इस फेसबुक पेज को लाइक करें।हमारा न्यूज़ चैनल सबस्क्राइब करने के लिए यहाँ क्लिक करें।
Follow us on Facebook http://facebook.com/HamaraGhaziabad
Follow us on Twitter http://twitter.com/HamaraGhaziabad
Discussion about this post