‘आर्टिफीसियल इंटेलिजेंस’ से सज्जित ‘किलर रोबोट्स’ पर पाबन्दी लगाएं- एलोन मस्क के साथ ११० से भी अधिक उद्योजक और विशेषज्ञों का आवाहन

मेलबोर्न: कृत्रिम बुद्धिमत्ता अर्थात ‘आर्टिफीसियल    इंटेलिजेंस’ और रोबोटिक्स की सहायता से विकसित किए हुए ‘किलर रोबोट्स’ यह युद्ध क्षेत्र के तीसरे क्रमांक का संकेत है और उन्होंने युद्ध शुरू किया तो मानव समाज उसका सामना नहीं कर सकेगा, ऐसा गंभीर इशारा दुनिया के प्रमुख उद्योजक और विशेषज्ञों ने दिया है। मेलबोर्न शहर में शुरू हुए ‘इंटरनेशनल जॉइंट कांफ्रेंस ऑन आर्टिफीसियल इंटेलिजेंस’ (आईएजेसीएआई) की पृष्ठभूमि पर लिखे हुए एक खुले पत्र में यह इशारा दिया गया है। यह पत्र संयुक्त राष्ट्र संगठन को संबोधित करते हुए लिखा गया है, दुनिया भर में शुरू हुए घातक ‘स्वयंचलित हथियार निर्मिती’ पर लगाम लगाएं, ऐसा आवाहन इसमें किया गया है।

संयुक्त राष्ट्रसंघ को संबोधित करते हुए लिखे हुए पत्र पर ‘टेस्ला’ कंपनी के प्रमुख एलोन मस्क, ‘गूगल डीपमाइंड’ के मुस्तफा सुलेमान के साथ अमरिका, चीन, रशिया, ब्रिटन, कॅनाडा, ऑस्ट्रेलिया, भारत और विविध यूरोपीय देशों के ११६ उद्योजक और विशेषज्ञों के हस्ताक्षर हैं। अमरिका के मॅसेच्युसेट्स प्रान्त में स्थापन हुए ‘फ्यूचर ऑफ़ लाइफ’ नाम के समूह की ओर से यह पत्र संयुक्त राष्ट्रसंघ को भेजा गया है। इस पत्र के शुरुआत में ही दुनिया भर की कंपनियां ‘स्वयंचलित हथियार यंत्रणा’ के लिए ‘आर्टिफीसियल इंटेलिजेंस’ और ‘रोबोटिक्स’ तकनीक का बढ़ता इस्तेमाल कर रही हैं, ऐसी खतरे की सूचना दी गई है।

‘घातक स्वयंचलित शस्त्रास्त्र युद्ध क्षेत्र की तीसरी क्रांति साबित होने का खतरा दिखाई दे रहा है। इस प्रकार के हथियारों का विकास होना एक बार शुरू हुआ, तो उसकी व्याप्ति और गति प्रचंड बढ़ेगी। यह नया युद्ध मानवी समाज के आकलन से परे होगा। स्वयंचलित शस्त्रास्त्र और यंत्रणा यह आतंक फ़ैलाने वाले घातक शस्त्र साबित हो सकते हैं और उसका इस्तेमाल तानाशाह साथ ही आतंकवादी संगठन की ओर से निष्पाप जनता के खिलाफ किया जा सकता है। ऐसी यंत्रणाओं पर साइबर हमले करके उनको हैक करके उसका गैर इस्तेमाल किए जाने की भी संभावना है’, इन शब्दों में स्वयंचलित शस्त्रास्त्र की वजह से युद्ध भड़कने का इशारा दिया गया है।

‘आर्टिफीसियल इंटेलिजेंस’ और ‘रोबोटिक्स’ की सहायता से तैयार किए गए हथियारों के खिलाफ कदम उठाने के लिए हाथों में ज्यादा समय नहीं है, ऐसा इशारा भी दिया गया है। ‘घातक स्वयंचलित शस्त्रास्त्र यंत्रणा’ मतलब जिससे क्या बाहर निकलेगा यह नहीं कहा जा सकता ऐसा ‘पैन्डोराज बॉक्स’ है, जो एक बार खोला तो उसे बंद करना मुश्किल हो जाएगा, ऐसी खतरे की सुचना भी दी गई है। इस पृष्ठभूमि पर अन्तर्राष्ट्रीय स्तर पर ‘आर्टिफीसियल इंटेलिजेंस’ और ‘रोबोटिक्स’ तकनीक के साथ जुड़े हुए सभी संबंधित पक्षों से एक होकर नए घातक हथियारों के खतरे से दुनिया को सुरक्षित रखने के लिए रास्तें ढूंढे, ऐसी गुजारिश भी पत्र के अंत में की गई है।

इस पत्र में संयुक्त राष्ट्रसंघ ने ‘लेथल ऑटोनोमस वेपन्स सिस्टम’ इस विषय पर स्थापन किए हुए ‘ग्रुप ऑफ़ गवर्नमेंटल एक्सपर्ट’ का जिक्र किया गया है। संयुक्त राष्ट्रसंघ के इस विशेष समूह की नवम्बर में बैठक होने वाली है, उसके लिए पूरी सहायता देने का आश्वासन भी दिया गया है।

पिछले साल भर में कृत्रिम बुद्धिमत्ता अर्थात ‘आर्टिफीसियल इंटेलिजेंस’ का इस्तेमाल और उसके फायदे-घाटे इस पर जोरदार चर्चा शुरू है, ‘एलोन मस्क’ और ‘जैक मा’ जैसे उद्योजक और ‘स्टीफन हॉकिंग’ जैसे वैज्ञानिकों ने इसके लिए पहल की है। इस विषय में फरवरी में हुए एक अन्तर्राष्ट्रीय परिषद में मस्क ने, आने वाले समय में कृत्रिम बुद्धिमत्ता अर्थात आर्टिफीसियल इंटेलिजेंस का बड़ा विकास हो रहा है, जिससे उसके घातक परिणाम दुनिया के सामने आ सकते हैं, ऐसा इशारा दिया था। एक अमरिकी न्यूज़ चैनल को दिए हुए इंटरव्यू में ‘आर्टिफीसियल इंटेलिजेंस’ यह तकनीक क्षेत्र की तीसरी क्रांति है, जिससे तीसरे महायुद्ध की चिंगारी भड़केगी, ऐसा इशारा प्रमुख चीनी उद्योजक ‘जैक मा’ ने दिया था।

‘किलर रोबोट्स’ पर पूर्व प्रभावी पाबन्दी लगाने के लिए ब्रिटेन का इनकार
लन्दन- युद्ध क्षेत्र में तीसरी क्रांति की तौर पर पहचाने जाने वाले ‘किलर रोबोट्स’ पर पूर्वप्रभावी पाबन्दी लगाने के लिए ब्रिटेन ने इनकार किया है। ‘लेथल ऑटोनोमस वेपन्स सिस्टम’ पर नियंत्रण पाने के लिए वर्तमान के अन्तर्राष्ट्रीय कानून पर्याप्त नहीं हैं, ऐसा दावा ब्रिटेन रक्षा विभाग की ओर से किया गया है। साथ ही ब्रिटन इस प्रकार की ‘फुल्ली ऑटोनोमस वेपन्स सिस्टम’ विकसित अथवा खरीदारी नहीं करेगा, ऐसा इस दावे में कहा गया है।

दुनिया के प्रमुख उद्योजक साथ ही विशेषज्ञों ने इस मुद्दे पर संयुक्त राष्ट्रसंघ को किए हुए आवाहन की पृष्ठभूमि पर यह प्रतिक्रिया आई है।

 

Leave a Reply

Your email address will not be published.