- एआई एजेन्टहरूले पहुँच नियन्त्रणको अभाव र भित्री निरीक्षणको कारण जोखिम नियन्त्रणको कारण उत्पन्न गर्दछ दावीहरू
- 66% प्रमुख डेटा हानि घटनाहरू लापरवाह कर्मचारीहरू वा तेस्रो-पक्ष ठेकेदारहरूबाट उत्पन्न हुन्छन्
- प्रुफपोइन्टले मानव र एआई गतिविधि दुवैको सुरक्षा गर्न व्यवहार-सचेत, अनुकूली सुरक्षालाई आग्रह गर्दछ
व्यवसायहरू जेनेरेटिभ डिप्लोय गर्न हतार गर्दा, तिनीहरूले जेनेरेटिभ एजेन्टहरू (AI) कृत्रिम एजेन्टहरू फेस गर्छन्। कुनै पनि नयाँ प्रविधिलाई द्रुत रूपमा कार्यान्वयन गर्ने प्रयास गर्दा उस्तै समस्याहरू: डाटा फैलिने, चुहावट र उल्लङ्घनका जोखिमहरू।
नयाँ प्रूफपोइन्ट रिपोर्टले तर्क गरेको छ “एजेन्टिक कार्यस्थानहरू” भित्री जोखिमको नयाँ वर्ग हो, गम्भीरतामा मानव त्रुटिमा पनि प्रतिद्वन्द्वी। पाँच मध्ये दुई जनाले सार्वजनिक वा इन्टरप्राइज GenAI उपकरणहरू मार्फत डाटा हराउनु प्रमुख चिन्ताको विषय भएको बताएका छन्, जबकि एक तिहाइभन्दा बढीले AI तालिममा प्रयोग भइरहेको संवेदनशील डेटाबारे चिन्ता व्यक्त गरेका छन्। data-hl-processed=”none”/>
प्रायजसो विशेषाधिकार प्राप्त सुपर प्रयोगकर्ताहरूको रूपमा काम गरिरहेका छन्, रिपोर्टले थप वर्णन गर्दछ, जसले चीजहरूलाई खराब बनाउँछ। एक तिहाइभन्दा बढी (३८%) ले एआई एजेन्टहरूद्वारा सुपरिवेक्षण नगरिएको डाटा पहुँचलाई “महत्वपूर्ण खतरा” भनी फ्ल्याग गरे, र ५४% ले उनीहरूसँग Gen AI उपकरणहरू – त्यसैले अर्को शब्दमा, AI एजेन्टहरूलाई तिनीहरूको आफ्नै यन्त्रहरूमा छोडिँदैछ, र यसले समस्याको हिज्जे गर्छ।
स्पष्ट रूपमा, दुई तिहाई (65%) पहिले नै AI-परिष्कृत डेटा सुरक्षा क्षमताहरू प्रयोग गरिसकेका छन्। id=”slice-container-person-zfmewBfAPbHkwrobAbjj3D-Iz0Z5Kb74rbO4yEPrpYSqyzs8eKD6l1V” class=”स्लाइस-कन्टेनर व्यक्ति-रेपर person-zfmewBfAPbHkwrobAbjj3D-Iz0Z5Kb74rbO4yEPrpYSqyzs8eKD6l1V स्लाइस-कन्टेनर-व्यक्ति”>

वास्तविक-विश्व परीक्षण र तुलनाहरूमा आधारित हाम्रा शीर्ष छनोटहरू

