दिल्ली देहात से….

हरीश चौधरी के साथ….

एआई ‘विलुप्त होने का जोखिम’, महामारी, युद्धों के साथ-साथ ‘वैश्विक प्राथमिकता’ होनी चाहिए: विशेषज्ञ – दिल्ली देहात से



उद्योग प्रमुखों और विशेषज्ञों के एक समूह ने मंगलवार को चेतावनी दी कि वैश्विक नेताओं को कृत्रिम बुद्धिमत्ता प्रौद्योगिकी से “विलुप्त होने के जोखिम” को कम करने के लिए काम करना चाहिए।

सैम ऑल्टमैन, जिनकी फर्म OpenAI ने ChatGPT बॉट बनाया है, सहित दर्जनों विशेषज्ञों द्वारा हस्ताक्षरित एक-पंक्ति के बयान में कहा गया है कि AI से जोखिमों से निपटना “महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एक वैश्विक प्राथमिकता” होनी चाहिए।

ChatGPT पिछले साल के अंत में सुर्खियों में आ गया था, जिसमें सबसे संक्षिप्त संकेतों से निबंध, कविताएं और वार्तालाप उत्पन्न करने की क्षमता का प्रदर्शन किया गया था।

कार्यक्रम की बेतहाशा सफलता ने क्षेत्र में अरबों डॉलर के निवेश के साथ सोने की भीड़ को बढ़ा दिया, लेकिन आलोचकों और अंदरूनी लोगों ने अलार्म बजा दिया।

सामान्य चिंताओं में यह संभावना शामिल है कि चैटबॉट वेब को गलत सूचनाओं से भर सकते हैं, कि पक्षपाती एल्गोरिदम नस्लवादी सामग्री का मंथन करेंगे, या एआई-संचालित स्वचालन पूरे उद्योगों को बर्बाद कर सकता है।

अधीक्षण मशीनें

एआई सुरक्षा के लिए यूएस-आधारित गैर-लाभकारी केंद्र की वेबसाइट पर रखे गए नवीनतम बयान में एआई द्वारा उत्पन्न संभावित अस्तित्वगत खतरे का कोई विवरण नहीं दिया गया है।

केंद्र ने कहा कि “संक्षिप्त बयान” प्रौद्योगिकी के खतरों पर चर्चा खोलने के लिए था।

ज्योफ्री हिंटन सहित कई हस्ताक्षरकर्ता, जिन्होंने एआई सिस्टम के तहत कुछ तकनीक बनाई और उद्योग के गॉडफादर में से एक के रूप में जाने जाते हैं, ने अतीत में इसी तरह की चेतावनी दी है।

उनकी सबसे बड़ी चिंता तथाकथित आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) का उदय है – एक पल के लिए एक शिथिल परिभाषित अवधारणा जब मशीनें व्यापक कार्य करने में सक्षम हो जाती हैं और अपनी खुद की प्रोग्रामिंग विकसित कर सकती हैं।

डर यह है कि मनुष्यों का अब अधीक्षण मशीनों पर नियंत्रण नहीं रहेगा, जिसके बारे में विशेषज्ञों ने चेतावनी दी है कि प्रजातियों और ग्रह के लिए विनाशकारी परिणाम हो सकते हैं।

Google और Microsoft सहित कंपनियों के दर्जनों शिक्षाविदों और विशेषज्ञों – एआई क्षेत्र में दोनों नेताओं – ने बयान पर हस्ताक्षर किए।

टेस्ला के बॉस एलोन मस्क और सैकड़ों अन्य लोगों द्वारा एक खुला पत्र जारी करने के दो महीने बाद यह आया है कि इस तरह की तकनीक के विकास को तब तक के लिए रोक दिया जाए जब तक कि इसे सुरक्षित नहीं दिखाया जा सकता।

हालांकि, मस्क के पत्र ने व्यापक आलोचना को जन्म दिया कि सामाजिक पतन की सख्त चेतावनियों को बहुत बढ़ा-चढ़ाकर पेश किया गया था और अक्सर एआई बूस्टर के चर्चित बिंदुओं को प्रतिबिंबित करता था।

अमेरिकी अकादमिक एमिली बेंडर, जिन्होंने एआई की आलोचना करने वाले एक प्रभावशाली पत्र का सह-लेखन किया, ने कहा कि सैकड़ों उल्लेखनीय हस्तियों द्वारा हस्ताक्षरित मार्च पत्र “एआई प्रचार के साथ टपक रहा था”।

‘आश्चर्यजनक रूप से गैर-पक्षपाती’

बेंडर और अन्य आलोचकों ने एआई फर्मों को अपने डेटा के स्रोतों को प्रकाशित करने से इनकार करने या इसे कैसे संसाधित किया जाता है – तथाकथित “ब्लैक बॉक्स” समस्या को प्रकट करने से इनकार कर दिया है।

आलोचनाओं के बीच यह है कि एल्गोरिदम को नस्लवादी, सेक्सिस्ट या राजनीतिक रूप से पक्षपाती सामग्री पर प्रशिक्षित किया जा सकता है।

Altman, जो वर्तमान में AI के आसपास वैश्विक बातचीत को आकार देने में मदद करने के लिए दुनिया का दौरा कर रहा है, ने अपनी फर्म द्वारा विकसित की जा रही तकनीक से उत्पन्न वैश्विक खतरे पर कई बार संकेत दिया है।

“अगर एआई के साथ कुछ गलत हो जाता है, तो कोई गैस मास्क आपकी मदद नहीं करेगा,” उन्होंने पिछले शुक्रवार को पेरिस में पत्रकारों के एक छोटे समूह से कहा।

लेकिन उन्होंने स्रोत डेटा को प्रकाशित करने से अपनी फर्म के इनकार का बचाव किया, यह कहते हुए कि आलोचक वास्तव में सिर्फ यह जानना चाहते थे कि क्या मॉडल पक्षपाती थे।

उन्होंने कहा, “नस्लीय पूर्वाग्रह परीक्षण पर यह कैसे होता है, वहां क्या मायने रखता है,” उन्होंने कहा कि नवीनतम मॉडल “आश्चर्यजनक रूप से गैर-पक्षपाती” था।


Samsung Galaxy A34 5G को हाल ही में कंपनी द्वारा भारत में अधिक महंगे Galaxy A54 5G स्मार्टफोन के साथ लॉन्च किया गया था। नथिंग फोन 1 और आईकू नियो 7 के मुकाबले यह फोन कैसा है? हम ऑर्बिटल, गैजेट्स 360 पॉडकास्ट पर इस पर और अधिक चर्चा करते हैं। Orbital Spotify, Gaana, JioSaavn, Google Podcasts, Apple Podcasts, Amazon Music और जहां कहीं भी आपको अपना पॉडकास्‍ट मिलता है, वहां उपलब्‍ध है।
संबद्ध लिंक स्वचालित रूप से उत्पन्न हो सकते हैं – विवरण के लिए हमारा नैतिकता कथन देखें।