- एन्थ्रोपिकले सुरक्षाको ग्यारेन्टी नगरी AIig मोडेलको ग्यारेन्टी वा ग्यारेन्टी नगरी आफ्नो मोडेललाई हटाएको छ। अग्रिम
- कम्पनीले अब कडा पूर्व शर्तहरूको सट्टा पारदर्शिता रिपोर्टहरू र सुरक्षा रोडम्यापहरूमा भर पर्नेछ
- आलोचकहरू तर्क गर्छन् कि शिफ्टले बाध्यकारी नियम बिना स्वैच्छिक एआई सुरक्षा प्रतिबद्धताहरूको सीमा देखाउँछ
Anthropic ले औपचारिक रूपमा त्यागेको छ वा यो केन्द्रीय प्रणालीलाई प्रशिक्षित गर्न नसक्ने प्रशिक्षित गर्ने वाचा नगर्ने ग्यारेन्टी एआईले गर्न सक्दैन। अग्रिम। Claude ले अन्तर्वार्ता को एक पटक यो नीति तय गरिएको थियो, जसले को अन्त्य गरेको थियो। AI विकासकर्ताहरू बीच अलग। नयाँ संशोधित जिम्मेवार मापन नीतिले AI बजार तातो हुँदा कम्पनी प्रतिस्पर्धी रहन सुनिश्चित गर्नमा थप ध्यान केन्द्रित गर्दछ।
वर्षौंदेखि, एन्थ्रोपिकले प्रतियोगीहरूलाई अझ शक्तिशाली प्रणालीहरू पठाउनका लागि व्यावसायिक दबाबको प्रतिरोध गर्ने प्रमाणको रूपमा त्यो प्रतिज्ञा बनाएको छ। पूर्वनिर्धारित सुरक्षा उपायहरू पहिले नै अवस्थित नभएसम्म नीतिले प्रभावकारी रूपमा यसलाई निश्चित स्तरहरूभन्दा अगाडि बढ्नबाट रोकेको छ। अब, एन्थ्रोपिकले वर्गीय पजहरूको सट्टा थप लचिलो फ्रेमवर्क प्रयोग गरिरहेको छ।
कम्पनीले यो परिवर्तन वैचारिक नभई व्यावहारिक भएको जोड दिन्छ। कार्यकारीहरूले तर्क गर्छन् कि द्रुत पुनरावृत्ति र भूराजनीतिक अत्यावश्यकता द्वारा परिभाषित बजारमा एकपक्षीय संयम अब अर्थपूर्ण छैन। तर परिवर्तनले एआई उद्योगले आत्म-नियमनको बारेमा कसरी सोच्दछ भन्ने कुरामा एउटा टर्निङ प्वाइन्ट जस्तो महसुस हुन्छ।
नयाँ जिम्मेवार स्केलिंग नीति अन्तर्गत, एन्थ्रोपिकले आफ्नो योजनाबद्ध सुरक्षा माइलस्टोनहरू रेखांकित गर्दै विस्तृत “फ्रन्टियर सेफ्टी रोडम्यापहरू” प्रकाशित गर्ने प्रतिज्ञा गर्दछ, साथै नियमित “जोखिम रिपोर्टहरू” जसले मोडेल क्षमताहरू र सम्भावित खतराहरूको मूल्याङ्कन गर्दछ। कम्पनीले यो पनि भन्छ कि यसले प्रतिस्पर्धीहरूको सुरक्षा प्रयासहरूसँग मेल खाने वा बढाउँछ र विकासमा ढिलाइ गर्दछ यदि यो दुवै विश्वास गर्दछ कि यसले क्षेत्रको नेतृत्व गर्दछ र महत्त्वपूर्ण विनाशकारी जोखिम पहिचान गर्दछ। यसले अब उप्रान्त के गर्दैन भने सबै न्यूनीकरणहरू अग्रिम ग्यारेन्टी नभएसम्म प्रशिक्षण रोक्ने वाचा हो।
दैनिक प्रयोगकर्ताहरूले क्लाउड वा अन्य एआई उपकरणहरूसँग अन्तर्क्रिया गर्दा कुनै पनि परिवर्तनहरू याद नगर्न सक्छन्। तैपनि ती प्रणालीहरूलाई कसरी प्रशिक्षित गरिन्छ भनेर नियन्त्रण गर्ने रेलहरूले शुद्धतादेखि धोखाधडीको दुरुपयोगसम्म सबै कुरालाई प्रभाव पार्छ। जब कम्पनी, एक पटक यसको कडा पूर्व शर्तहरू द्वारा परिभाषित, ती सर्तहरू अब काम गर्न योग्य छैन भनेर निर्णय गर्छ, यसले उद्योग भित्र एक व्यापक पुन: क्यालिब्रेसन संकेत गर्दछ। id=”claude-control-3″>Claude control
जब एन्थ्रोपिकले २०२३ मा आफ्नो मौलिक नीति प्रस्तुत गर्यो, केही कार्यकारीहरूले यसले प्रतिद्वन्द्वीहरूलाई वा इभेन्भ्युल रेग्युलेसनलाई प्रेरित गर्न सक्ने आशा गरेका थिए। त्यो नियामक गति कहिल्यै पूर्ण रूपमा साकार हुन सकेन। संघीय एआई कानून रोकिएको छ, र फराकिलो राजनीतिक वातावरण कुनै पनि ढाँचा विकास गर्नबाट टाढिएको छ। कम्पनीहरूलाई स्वैच्छिक संयम र प्रतिस्पर्धात्मक अस्तित्व बीचको छनौट गर्न बाँकी छ।
एन्थ्रोपिकले राजस्व र यसको पोर्टफोलियो दुवै OpenAI र Google,
Anthropic ले यसको संरक्षणात्मक फ्रेमवर्कलाई सुरक्षित राख्छ। नयाँ रोडम्यापहरू न्यूनीकरण अनुसन्धानलाई प्राथमिकता दिन आन्तरिक दबाब सिर्जना गर्ने उद्देश्यका छन्। आगामी जोखिम रिपोर्टहरूले मोडेल क्षमताहरूले कसरी दुरुपयोग गर्न सक्छ भन्ने स्पष्ट सार्वजनिक लेखा उपलब्ध गराउने लक्ष्य राखेको छ।
“नयाँ नीतिमा अझै केही रेलहरू समावेश छन्, तर एन्थ्रोपिकले पहिले नै पर्याप्त सुरक्षा न्यूनीकरणको ग्यारेन्टी नगरेसम्म मोडेलहरू जारी गर्दैन भन्ने मूल वाचा गयो,” निक काइरिनोसले भने, सीईओ र एआईडीएसमा आश्रित संस्था र सहएआईडीएसमा केन्द्रित संस्थाको निगरानीमा। AI मा जोखिम पत्ता लगाउने। “यसैले AI प्रणालीहरूको निरन्तर, स्वतन्त्र अनुगमन महत्त्वपूर्ण छ। स्वैच्छिक प्रतिबद्धताहरू पुन: लेख्न सकिन्छ। नियमन, वास्तविक-समय निरीक्षण द्वारा समर्थित, हुन सक्दैन।”
काइरिनोसले एन्थ्रोपिकको $ 20 मिलियनमा केही हप्ता अघि सार्वजनिक प्रथम कार्यमा विडम्बना पनि नोट गरे, pAI लाई सुरक्षाका लागि सुरक्षा उम्मेद्वारहरूलाई समर्थन गर्ने समूह। त्यो योगदान, उनले सुझाव दिए, वर्तमान क्षणको जटिलतालाई जोड दिन्छ। कम्पनीहरूले आफ्नो आन्तरिक बाधाहरू पुन: क्यालिब्रेट गर्दा एकै साथ बलियो नियमनको लागि वकालत गर्न सक्छन्।

