- Neil deGrasse Tyson को विकासको लागि विश्वव्यापी प्रतिबन्धको लागि कल गर्दैछ। सुपरइन्टेलिजेन्स
- उनी तर्क गर्छन् कि उच्च उन्नत AI ले आणविक हतियारको मात्रामा जोखिम निम्त्याउन सक्छ यदि जाँच नगरिएको खण्डमा
- बहसले द्रुत एआई प्रगति र दीर्घकालीन सुरक्षाको बारेमा चिन्ताहरू बीचको बढ्दो तनावलाई हाइलाइट गर्दछ
Neil deGrasse Person in the Global Back in the something is not to call on the global उहाँ ब्ल्याक होलहरू अन्तर्राष्ट्रिय सन्धिहरूको वकालत गर्नुभन्दा पनि मुस्कानका साथ।
तर हालैको एउटा वार्तामा — तलको सर्कलमा अनलाइन ताराको फराकिलो चर्चा गरिएको छ। कृत्रिम बुद्धिमत्ता जुन विज्ञान व्याख्यान जस्तो कम र विपद् चलचित्रको लाइन जस्तै सुनिन्छ।
class=”paywall” aria-hidden=”true”/>
“एआईको त्यो शाखा घातक छ,” उनले भने। “हामीले त्यसको बारेमा केही गर्नैपर्छ। कसैले पनि यसलाई निर्माण गर्नु हुँदैन।”
लेख तल जारी छ
उहाँले उल्लेख गरिरहनुभएको “शाखा” भनेको कृत्रिम सुपरइन्टेलिजेन्स हो, AI को एक काल्पनिक भविष्यको रूप जसले लगभग सबै डोमेनहरूमा मानव बुद्धिमत्तालाई पार गर्नेछ। टायसनको लागि, चिन्ता च्याटबट वा छवि जनरेटरहरूमा वृद्धिशील सुधार होइन। यो धेरै शक्तिशाली कुराको सम्भावना हो, केहि जसले यसका सिर्जनाकर्ताहरूलाई सोच्न सक्छ, पछाडी पार्छ, र सम्भावित रूपमा यसको सिर्जना गर्न सक्छ।
एआईको धेरैजसो मानिसहरूको दैनिक अनुभव भनेको chatbot मस्यौदा इमेलहरू, फोटोहरू वा ट्राफिक वरिपरि ट्राफिक व्यवस्थित गर्ने फोन, एप। टायसनको चेतावनी, यद्यपि, बढ्दो बहसमा ट्याप गर्दछ जुन शैक्षिक पत्रहरूबाट मुख्यधाराको कुराकानीमा सरेको छ। AI लाई कति टाढा जान अनुमति दिनुपर्छ?
Super AI
सुपरइन्टेलिजेन्सलाई प्रतिबन्ध लगाउने विचार नयाँ होइन। अन्वेषकहरू र सार्वजनिक व्यक्तित्वहरूले वर्षौंदेखि यसबारे छलफल गर्दै आएका छन्, प्रायः यसलाई “खुफिया विस्फोट” विरुद्ध सावधानीको रूपमा तयार पार्दै आएका छन्, जहाँ AI प्रणालीहरूले आफूलाई मानव नियन्त्रणभन्दा बाहिर छिटो सुधार गर्छ।
केही समर्थकहरूले तर्क गर्छन् कि एक पटक त्यस्ता प्रणालीहरू अवस्थित भएमा, तिनीहरूलाई समावेश गर्न वा मानव मूल्यहरूसँग पङ्क्तिबद्ध गर्न असम्भव हुन सक्छ। प्रतिवाद यो हो कि यी डर सट्टा हो र लाभकारी नवाचारलाई कम गर्ने जोखिम।
Tyson’s योगदानको लागि विश्वव्यापी सहयोगको लागि सुझाव र विश्वव्यापी सहयोग स्ट्यान्ड। प्रतिबन्ध।
“सबैले सन्धिद्वारा सहमत हुनुपर्छ,” उनले भने। “सन्धहरू पूर्ण हुँदैनन्, तर तिनीहरू मानवको रूपमा हामीसँग भएका सबै भन्दा राम्रो हुन्।”
अन्तर्राष्ट्रिय सन्धिहरू मानवताले अस्तित्वसम्बन्धी जोखिमहरू व्यवस्थापन गर्ने केही संयन्त्रहरूमध्ये एक हो। आणविक हतियारहरू, रासायनिक हतियारहरू, र ओजोन-हटाउने पदार्थहरू पनि सबै विश्वव्यापी सम्झौताहरूको अधीनमा छन्। तर्क सरल छ, कार्यान्वयन नभए पनि।
यदि कुनै एक देशले एक्लै सम्हाल्न सक्ने प्रविधि निकै खतरनाक छ भने त्यो सबैको समस्या बन्छ। तर AI सफ्टवेयर हो, बम होइन, र सफ्टवेयरसँग सीमानाहरू पार गर्ने तरिका छ। id=”48df54dc-ec40-4d8b-ba2c-6350c17c6c61″>उच्च-प्रोफाइल आवाजहरूले लगातार चेताउनी दिएका छन् कि प्रविधि सर्वव्यापी भए तापनि एआई विश्वव्यापी हस्तक्षेपको वारेन्टी गर्न पर्याप्त खतरनाक हुन सक्छ। तपाईंले एआई प्रयोग गर्न सक्नुहुन्छ सप्ताहन्तको यात्राको योजना बनाउन वा बैठक संक्षेप गर्न, सबै कुरा सुन्दा उही अन्तर्निहित प्रविधि एक दिन अनियन्त्रित हुन सक्छ।
सन्धीको लागि टायसनको आह्वानले त्यो तनाव समाधान गर्दैन। यदि केहि छ भने, यो तिखारिन्छ। नियमन अक्सर नवाचार पछि पछि छ, एक सन्धि को लागी उनको आह्वान जब सुपरइन्टेलिजेन्स विशुद्ध सैद्धान्तिक देखिन्छ बेतुका छैन। सामान्यतया, सरकारहरूले कार्य गर्दा, एउटा प्रविधि पहिले नै व्यापक भइसकेको छ।
एआई फरक हुन सक्छ कि यसको सम्भावित जोखिमहरू यसको सबैभन्दा उन्नत रूपहरू अवस्थित हुनु अघि छलफल गरिँदैछ। यसले अवसर सिर्जना गर्छ, तर दुविधा पनि। धेरै चाँडो कार्य गर्दा प्रगतिलाई बाधा पुग्न सक्छ। धेरै ढिलो कार्य गर्नाले नियन्त्रण असम्भव बनाउन सक्छ।
टाइसनले के सुझाव दिइरहेका छन् कि जवाफ मौकामा छोडिनु हुँदैन। तर धेरै सामूहिक निर्णयहरू जस्तै, यो गडबड, प्रतिस्पर्धा, र एकमत देखि टाढा हुने सम्भावना छ। data-analytics-id=”inline-link” href=”https://news.google.com/publications/CAAqKAgKIiJDQklTRXdnTWFnOEtEWFJsWTJoeVlXUmhjaTVqYjIwb0FBUAE?hl=en-GB&gl=GB&ceid”%3_blank” target=”%_blank” data-url=”https://news.google.com/publications/CAAqKAgKIiJDQklTRXdnTWFnOEtEWFJsWTJoeVlXUmhjaTVqYjIwb0FBUAE?hl=en-GB&gl=GB&ceid=GB%3Aen” referrerferredownerno”-referredownerno” data-hl-processed=”none” data-mrf-recirculation=”inline-link”>Google समाचारमा TechRadar फलो गर्नुहोस् र हामीलाई रुचाइएको स्रोतको रूपमा थप्नुहोस्हाम्रो समाचार, फिडको समीक्षा र विज्ञहरू लिनुहोस्। फलो गर्ने बटनमा क्लिक गर्न नबिर्सनुहोस्!
र पक्कै पनि तपाईं पनि TikTok मा TechRadar फलो गर्नुहोस् समाचार, समीक्षा, भिडियो फारममा अनबक्सिङका लागि, र हामीबाट नियमित अपडेटहरू प्राप्त गर्नुहोस् WhatsApp पनि।

