उद्योग प्रमुखों और विशेषज्ञों के एक समूह ने मंगलवार को चेतावनी दी कि वैश्विक नेताओं को कृत्रिम बुद्धिमत्ता प्रौद्योगिकी से “विलुप्त होने के जोखिम” को कम करने के लिए काम करना चाहिए।
सैम ऑल्टमैन, जिनकी फर्म OpenAI ने ChatGPT बॉट बनाया है, सहित दर्जनों विशेषज्ञों द्वारा हस्ताक्षरित एक-पंक्ति के बयान में कहा गया है कि AI से जोखिमों से निपटना “महामारी और परमाणु युद्ध जैसे अन्य सामाजिक-स्तर के जोखिमों के साथ एक वैश्विक प्राथमिकता” होनी चाहिए।
ChatGPT पिछले साल के अंत में सुर्खियों में आ गया था, जिसमें सबसे संक्षिप्त संकेतों से निबंध, कविताएं और वार्तालाप उत्पन्न करने की क्षमता का प्रदर्शन किया गया था।
कार्यक्रम की बेतहाशा सफलता ने क्षेत्र में अरबों डॉलर के निवेश के साथ सोने की भीड़ को बढ़ा दिया, लेकिन आलोचकों और अंदरूनी लोगों ने अलार्म बजा दिया।
सामान्य चिंताओं में यह संभावना शामिल है कि चैटबॉट वेब को गलत सूचनाओं से भर सकते हैं, कि पक्षपाती एल्गोरिदम नस्लवादी सामग्री का मंथन करेंगे, या एआई-संचालित स्वचालन पूरे उद्योगों को बर्बाद कर सकता है।
अधीक्षण मशीनें
एआई सुरक्षा के लिए यूएस-आधारित गैर-लाभकारी केंद्र की वेबसाइट पर रखे गए नवीनतम बयान में एआई द्वारा उत्पन्न संभावित अस्तित्वगत खतरे का कोई विवरण नहीं दिया गया है।
केंद्र ने कहा कि “संक्षिप्त बयान” प्रौद्योगिकी के खतरों पर चर्चा खोलने के लिए था।
ज्योफ्री हिंटन सहित कई हस्ताक्षरकर्ता, जिन्होंने एआई सिस्टम के तहत कुछ तकनीक बनाई और उद्योग के गॉडफादर में से एक के रूप में जाने जाते हैं, ने अतीत में इसी तरह की चेतावनी दी है।
उनकी सबसे बड़ी चिंता तथाकथित आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) का उदय है – एक पल के लिए एक शिथिल परिभाषित अवधारणा जब मशीनें व्यापक कार्य करने में सक्षम हो जाती हैं और अपनी खुद की प्रोग्रामिंग विकसित कर सकती हैं।
डर यह है कि मनुष्यों का अब अधीक्षण मशीनों पर नियंत्रण नहीं रहेगा, जिसके बारे में विशेषज्ञों ने चेतावनी दी है कि प्रजातियों और ग्रह के लिए विनाशकारी परिणाम हो सकते हैं।
Google और Microsoft सहित कंपनियों के दर्जनों शिक्षाविदों और विशेषज्ञों – एआई क्षेत्र में दोनों नेताओं – ने बयान पर हस्ताक्षर किए।
टेस्ला के बॉस एलोन मस्क और सैकड़ों अन्य लोगों द्वारा एक खुला पत्र जारी करने के दो महीने बाद यह आया है कि इस तरह की तकनीक के विकास को तब तक के लिए रोक दिया जाए जब तक कि इसे सुरक्षित नहीं दिखाया जा सकता।
हालांकि, मस्क के पत्र ने व्यापक आलोचना को जन्म दिया कि सामाजिक पतन की सख्त चेतावनियों को बहुत बढ़ा-चढ़ाकर पेश किया गया था और अक्सर एआई बूस्टर के चर्चित बिंदुओं को प्रतिबिंबित करता था।
अमेरिकी अकादमिक एमिली बेंडर, जिन्होंने एआई की आलोचना करने वाले एक प्रभावशाली पत्र का सह-लेखन किया, ने कहा कि सैकड़ों उल्लेखनीय हस्तियों द्वारा हस्ताक्षरित मार्च पत्र “एआई प्रचार के साथ टपक रहा था”।
‘आश्चर्यजनक रूप से गैर-पक्षपाती’
बेंडर और अन्य आलोचकों ने एआई फर्मों को अपने डेटा के स्रोतों को प्रकाशित करने से इनकार करने या इसे कैसे संसाधित किया जाता है – तथाकथित “ब्लैक बॉक्स” समस्या को प्रकट करने से इनकार कर दिया है।
आलोचनाओं के बीच यह है कि एल्गोरिदम को नस्लवादी, सेक्सिस्ट या राजनीतिक रूप से पक्षपाती सामग्री पर प्रशिक्षित किया जा सकता है।
Altman, जो वर्तमान में AI के आसपास वैश्विक बातचीत को आकार देने में मदद करने के लिए दुनिया का दौरा कर रहा है, ने अपनी फर्म द्वारा विकसित की जा रही तकनीक से उत्पन्न वैश्विक खतरे पर कई बार संकेत दिया है।
“अगर एआई के साथ कुछ गलत हो जाता है, तो कोई गैस मास्क आपकी मदद नहीं करेगा,” उन्होंने पिछले शुक्रवार को पेरिस में पत्रकारों के एक छोटे समूह से कहा।
लेकिन उन्होंने स्रोत डेटा को प्रकाशित करने से अपनी फर्म के इनकार का बचाव किया, यह कहते हुए कि आलोचक वास्तव में सिर्फ यह जानना चाहते थे कि क्या मॉडल पक्षपाती थे।
उन्होंने कहा, “नस्लीय पूर्वाग्रह परीक्षण पर यह कैसे होता है, वहां क्या मायने रखता है,” उन्होंने कहा कि नवीनतम मॉडल “आश्चर्यजनक रूप से गैर-पक्षपाती” था।