‘आर्टिफिशल इंटेलिजन्स’ के कारण परमाणु संकट खड़ा होगा – स्टैनफोर्ड युनिवर्सिटी की रपट में चेतावनी

वॉशिंग्टन – प्रौद्योगिकी क्षेत्र में बड़ी तेज़ प्रगति हो रही है, लेकिन, इससे उभर रहे खतरे भी बढ़े हैं। आर्टिफिशल इंटेलिजन्स (एआई) यानी कृत्रिम बुद्धिमत्ता के कारण विश्व के सामने परमाणु संकट खड़ा हो सकता हैं, ऐसी चेतावनी स्टैनफोर्ड युनिवर्सिटी ने अपनी नई रपट से दी है। पिछले दशक से इस प्रौद्योगिकी की वजह से उभरी समस्या और विवाद २६ गुना बढ़ने की बात भी यह रपट कह रही है। स्मार्ट आर्टिफिशल इंटेलिजन्स की जारी प्रगति को रोका नहीं तो मानवजाति का विनाश अटल होने का दावा इस क्षेत्र के विशेषज्ञों ने दस दिन पहले ही किया था।

आर्टिफिशल इंटेलिजन्स की सहायता से किसी भी समस्या के जवाब प्राप्त हो सकते हैं। एक दशक पहले यह सब कल्पना में भी नहीं था, इन शब्दों में स्टैनफोर्ड यूनिवर्सिटी ने अपनी रपट में इस तकनीक की सराहना की। लेकिन, साथ ही इस उन्नत प्रौद्योगिकी से उभरते खतरों की ओर भी ध्यान आकर्षित किया। ‘आर्टिफिशल इंटेलिजन्स भ्रमित हो सकता हैं। यह प्रौद्योगिकी निर्णय करते समय पक्षपात कर सकती हैं और किसी भी काले उद्देश्य को प्राप्त करने के लिए इसे फंसाया जा सकता है। इस कारण से ऐसी प्रौद्योगिकी की तैनाती बड़ी समस्याएं खड़ी कर सकती हैं, यह दावा इस रपट में है।

इस रपट के लिए ‘एआई’ क्षेत्र के ३२७ विशेषज्ञों के विचार जान लिए गए। इनमें से ३६ प्रतिशत यानी एक तिहाई से अधिक लोगों ने ‘एआई’ के कारण परमाणु संकट जैसी स्थिति खड़ी हो सकती है, यह स्वीकार किया। ‘एआई’ का निर्माण मानव के विनाश के लिए ही होने का विचार इनमें से कुछ विशेषज्ञों ने व्यक्त किया। यह प्रौद्योगिकी समाज में क्रांतिकारी बदलाव करेगी, ऐसा अन्य लोगों का विचार है। लेकिन, एआई क्षेत्र के विशेषज्ञों के साथ ही आम अमरिकी जनता ने भी करीबन ३५ प्रतिशत लोगों ने इस प्रौद्योगिकी को लेकर चिंता जताई। देश विघातक हरकतों के लिए इस प्रौद्योगिकी का इस्तेमाल हो सकता है, ऐसा इन सबका कहना है।

‘एआई’ परमाणु संकट कैसे खड़ा करेगा, इसपर इस रपट में स्पष्ट खुलासा नहीं हैैं।लेकिन, एआई का इस्तेमाल करके ‘न्युक्लियर फिझन’ मुमकिन होगा, इसपर यह रपट ध्यान आकर्षित कर रही है। यह बात काफी गंभीर साबित हो सकती हैं, ऐसा इस रपट में कहा गया है। पिछले कुछ दिनों से दुनियाभर में जिज्ञासा और गंभीर चर्चा का मुद्दा बनी अन्य उन्नत प्रौद्योगिकी और एआर का संयोग काफी खतरनाक साबित होगा, यह ड़र वर्णित रपट में जताया गया है।

कुछ दिन पहले ही ‘एआई’ क्षेत्र के विशेषज्ञ एलिझर युडोविस्की ने भी ‘एआई’ को लेकर ऐसी ही चेतावनी दी थी। किसी भी कारण से मानव ने ‘सुपरह्युमन’ की तरह बुद्धिमत्ता के ‘स्मार्ट आर्टिफिशल इंटेलिजन्स’ का निर्माण किया तो पृथ्वी पर मानव जाति का विनाश अटल होगा। यह बात संभावना के स्तर की नहीं’, ऐसा एलिझर युडकोवस्की ने कहा था। इस भीषण संभावना के मद्देनज़र आर्टिफिशल इंटेलिजन्स का काम अब जहा हैं वहीं रोकने के अलावा अन्य विकल्प नहीं होगा, ऐसी चेतावनी युडकोवस्की ने दी थी।

हालांकि, पिछले महीने में ही अमरीका स्थित ‘फ्युचर ऑफ लाईफ इन्स्टीट्यूट’ नामक अभ्यास गुट ने ‘एआई’ क्षेत्र के खतरों को लेकर अंतरराष्ट्रीय समुदाय के लिए एक खुला खत लिखा था। इसमें आर्टिफिशल इंटेलिजन्स क्षेत्र में शुरू बड़े प्रयोग एवं अनुसंधान छह महीनों के लिए रोका जाए, यह आवाहन किया था। इसपर हज़ार से भी अधिक वैज्ञानिक, खोजकर्ता, उद्यमि, विचारवंत और राजनीतिक नेताओं ने हस्ताक्षर किए हैं। इनमें ‘टेस्ला’ के प्रमुख एलॉन मस्क और ‘एपल’ के सह संस्थापक स्टिव वॉझ्निअक का समावेश था।

मराठी

Leave a Reply

Your email address will not be published.