चार आर्टिफिशियल इंटेलिजेंस विशेषज्ञों ने सह-हस्ताक्षरित एक खुले पत्र में उनके काम का हवाला दिए जाने के बाद चिंता व्यक्त की है एलोन मस्क – अनुसंधान में तत्काल विराम की मांग करना।
पत्र, 22 मार्च को और शुक्रवार तक 1,800 से अधिक हस्ताक्षर के साथ, सिस्टम के विकास में छह महीने के सर्किट-ब्रेकर के लिए “अधिक शक्तिशाली” का आह्वान किया माइक्रोसॉफ्टसमर्थित OpenAI का नया जीपीटी-4जो मानव-जैसी बातचीत कर सकता है, गाने बना सकता है और लंबे दस्तावेज़ों को सारांशित कर सकता है।
GPT-4 के पूर्ववर्ती के बाद से चैटजीपीटी पिछले साल जारी किया गया था, प्रतिद्वंद्वी कंपनियां इसी तरह के उत्पादों को लॉन्च करने के लिए दौड़ पड़ी हैं।
खुले पत्र में कहा गया है कि एआई सिस्टम “मानव-प्रतिस्पर्धी बुद्धिमत्ता” के साथ मानवता के लिए गहरा जोखिम पैदा करता है, जिसमें विश्वविद्यालय के शिक्षाविदों के साथ-साथ वर्तमान और पूर्व कर्मचारियों सहित विशेषज्ञों के 12 शोधों का हवाला दिया गया है। ओपनएआई, गूगल और इसकी सहायक डीपमाइंड।
अमेरिका और यूरोपीय संघ में नागरिक समाज समूहों ने ओपनएआई के शोध पर लगाम लगाने के लिए सांसदों पर दबाव डाला है। OpenAI ने टिप्पणी के अनुरोधों का तुरंत जवाब नहीं दिया।
आलोचकों ने फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) पर आरोप लगाया है, पत्र के पीछे का संगठन, जो मुख्य रूप से मस्क फाउंडेशन द्वारा वित्त पोषित है, एआई के बारे में अधिक तात्कालिक चिंताओं पर कल्पनाशील सर्वनाश परिदृश्यों को प्राथमिकता देने के लिए, जैसे नस्लवादी या सेक्सिस्ट पूर्वाग्रहों को मशीनों में प्रोग्राम किया जा रहा है।
उद्धृत शोध में “ऑन द डेंजरस ऑफ़ स्टोचैस्टिक तोते” था, जो मार्गरेट मिशेल द्वारा सह-लेखक एक प्रसिद्ध पेपर था, जो पहले Google में नैतिक एआई अनुसंधान का निरीक्षण करता था।
एआई फर्म हगिंग फेस में अब मुख्य नैतिक वैज्ञानिक मिशेल ने पत्र की आलोचना करते हुए रॉयटर्स को बताया कि यह स्पष्ट नहीं था कि “जीपीटी4 से अधिक शक्तिशाली” के रूप में क्या गिना जाता है।
“बहुत सारे संदिग्ध विचारों को दिए गए के रूप में मानते हुए, पत्र प्राथमिकताओं का एक सेट और एआई पर एक कथा का दावा करता है जो एफएलआई के समर्थकों को लाभ पहुंचाता है,” उसने कहा। “अभी सक्रिय नुकसान को अनदेखा करना एक विशेषाधिकार है जो हममें से कुछ के पास नहीं है।”
उनके सह-लेखक टिमनिट गेब्रू और एमिली एम. बेंडर ने पत्र की आलोचना की ट्विटरबाद वाले ने अपने कुछ दावों को “असंबद्ध” बताया।
FLI के अध्यक्ष मैक्स टेगमार्क ने रायटर को बताया कि अभियान OpenAI के कॉर्पोरेट लाभ में बाधा डालने का प्रयास नहीं था।
“यह काफी प्रफुल्लित करने वाला है। मैंने लोगों को यह कहते देखा है, ‘एलोन मस्क प्रतियोगिता को धीमा करने की कोशिश कर रहे हैं,” उन्होंने कहा, यह कहते हुए कि पत्र का मसौदा तैयार करने में मस्क की कोई भूमिका नहीं थी। “यह एक कंपनी के बारे में नहीं है।”
अब जोखिम
कनेक्टिकट विश्वविद्यालय में सहायक प्रोफेसर शिरी डोरी-हाकोहेन ने भी पत्र में उनके काम का उल्लेख किए जाने पर आपत्ति जताई। उसने पिछले साल एक शोध पत्र का सह-लेखन किया था जिसमें तर्क दिया गया था कि एआई के व्यापक उपयोग से पहले से ही गंभीर जोखिम हैं।
उनके शोध ने तर्क दिया कि एआई सिस्टम का वर्तमान उपयोग जलवायु परिवर्तन, परमाणु युद्ध और अन्य अस्तित्व संबंधी खतरों के संबंध में निर्णय लेने को प्रभावित कर सकता है।
उसने रायटर से कहा: “एआई को उन जोखिमों को कम करने के लिए मानव-स्तर की बुद्धिमत्ता तक पहुँचने की आवश्यकता नहीं है।”
“ऐसे गैर-अस्तित्व वाले जोखिम हैं जो वास्तव में महत्वपूर्ण हैं, लेकिन हॉलीवुड स्तर के समान ध्यान नहीं देते हैं।”
आलोचना पर टिप्पणी करने के लिए कहे जाने पर, FLI के टेगमार्क ने कहा कि AI के अल्पकालिक और दीर्घकालिक दोनों जोखिमों को गंभीरता से लिया जाना चाहिए।
“अगर हम किसी का हवाला देते हैं, तो इसका मतलब है कि हम दावा करते हैं कि वे उस वाक्य का समर्थन कर रहे हैं। इसका मतलब यह नहीं है कि वे पत्र का समर्थन कर रहे हैं, या हम उनके हर विचार का समर्थन करते हैं,” उन्होंने रॉयटर्स को बताया।
कैलिफ़ोर्निया स्थित सेंटर फ़ॉर एआई सेफ्टी के निदेशक डैन हेंड्रिक्स, जिन्हें पत्र में उद्धृत भी किया गया था, अपनी सामग्री के साथ खड़े थे, उन्होंने रॉयटर्स को बताया कि ब्लैक स्वान घटनाओं पर विचार करना समझदारी थी – जो असंभाव्य दिखाई देती हैं, लेकिन विनाशकारी परिणाम होंगे।
खुले पत्र में यह भी चेतावनी दी गई थी कि इंटरनेट को “प्रचार और असत्य” से भर देने के लिए जनरेटिव एआई टूल्स का इस्तेमाल किया जा सकता है।
डोरी-हाकोहेन ने कहा कि मस्क के लिए इस पर हस्ताक्षर करना “बहुत समृद्ध” था, मंच के अपने अधिग्रहण के बाद ट्विटर पर गलत सूचना में कथित वृद्धि का हवाला देते हुए, नागरिक समाज समूह कॉमन कॉज़ और अन्य द्वारा प्रलेखित।
ट्विटर जल्द ही अपने अनुसंधान डेटा तक पहुंच के लिए एक नई शुल्क संरचना शुरू करेगा, जो संभावित रूप से इस विषय पर शोध में बाधक होगा।
डोरी-हाकोहेन ने कहा, “इससे मेरी प्रयोगशाला के काम पर सीधा असर पड़ा है, और यह गलत और गलत सूचनाओं का अध्ययन करने वाले अन्य लोगों द्वारा किया गया है।” “हम अपनी पीठ के पीछे एक हाथ बांधकर काम कर रहे हैं।”
कस्तूरी और ट्विटर ने टिप्पणी के अनुरोधों का तुरंत जवाब नहीं दिया।
© थॉमसन रॉयटर्स 2023