कृत्रिम बौद्धिकताको व्यापकता रोक्न मस्क र विशेषज्ञहरुको आग्रह
‘ओपन एआई’ कम्पनीका अनुसार यसको पछिल्लो मोडेल च्याटजीपीटीलाई पावर गर्न प्रयोग गरिएको अघिल्लो संस्करणको तुलनामा धेरै शक्तिशाली छ । स्वचालित कार्यक्रम ‘बोट’ ले सामान्य तथा संक्षिप्त बुँदाका आधारमा लेखन सामग्रीलाई तयार गर्न सक्षम हुन्छ ।
वासिङटन डिसी : अर्बपति एलन मस्क र केही विज्ञहरूले शक्तिशाली ‘कृत्रिम बौद्धिकता (एआई) को व्यापकता’ को विकास तत्कालका लागि रोक लगाउन आग्रह गरेका छन्।
सान फ्रान्सिस्कोको कम्पनी ओपनएआईबाट जीपीटी–४ सार्वजनिक गरिएपछि मस्क र एप्पलका सह–संस्थापक स्टिभ वोज्नियाकसहित हालसम्म एक हजारभन्दा बढीले हस्ताक्षर गरेको खुला पत्रमा उक्त आग्रह गरिएको हो ।
‘ओपन एआई’ कम्पनीका अनुसार यसको पछिल्लो मोडेल च्याटजीपीटीलाई पावर गर्न प्रयोग गरिएको अघिल्लो संस्करणको तुलनामा धेरै शक्तिशाली छ । स्वचालित कार्यक्रम ‘बोट’ ले सामान्य तथा संक्षिप्त बुँदाका आधारमा लेखन सामग्रीलाई तयार गर्न सक्षम हुन्छ ।
'मानव प्रतिस्पर्धात्मक बुद्धिमत्ता भएको एआई प्रणालीले समाज र मानवताका लागि गहिरो जोखिम निम्त्याउन सक्छ,'पज जाइन्ट एआई एक्सपेरिमेन्ट्स’ शीर्षकको खुला पत्रमा भनिएको छ ।
'शक्तिशाली एआई प्रणालीको विकास तब मात्र गर्नुपर्छ जब हामी विश्वस्त हुन्छौं कि यसको प्रभाव सकारात्मक हुनेछ र उनीहरूको जोखिम व्यवस्थापन गर्न सकिनेछ,' विज्ञप्तिमा भनिएको छ ।
मस्क ओपनएआईमा प्रारम्भिक लगानीकर्ता थिए। उनले यसको सर्वोच्च समितिमा वर्षौं बिताए । उनको कार कम्पनी टेस्लाले स्वचालित–चालक प्रविधिलाई शक्ति प्रदान गर्न एआई प्रणालीहरू विकास गर्दैछ ।
मस्कको आर्थिक सहयोगमा सञ्चालित ‘फ्युचर अफ लाइफ इन्स्टिच्युट’ले आयोजना गरेको उक्त पत्रमा प्रमुख आलोचकका साथै स्टेबिलिटी एआईका प्रमुख इमाद मोस्ताकजस्ता ओपनएआईका प्रतिस्पर्धीले हस्ताक्षर गरेका छन् ।
ओपनएआईका संस्थापक साम अल्टम्यानले लेखेको ब्लगबाट उद्धृत गर्दै पत्रमा भनिएको छ, 'कुनै न कुनै समयमा भविष्यको प्रणालीलाई तालिम दिन सुरु गर्नुअघि स्वतन्त्र समीक्षा गर्नु महत्वपूर्ण हुन सक्छ । त्यो बिन्दु अहिले हो । त्यसैले हामी सबै एआई ल्याबहरूलाई जीपीटी–४ भन्दा बढी शक्तिशाली एआई प्रणालीको प्रशिक्षणलाई कम्तिमा छ महिनाका लागि तत्काल रोक्न आह्वान गर्दछौं ।'
कम्पनीहरू सहमत नभएमा सम्बन्धित देशका सरकारहरूलाई कदम चाल्न र स्थगन लागू गर्न आह्वान पत्रमा भनिएको छ ।
यो छ महिनाको उपयोग सुरक्षा कानुन, एआई प्रशासन प्रणालीको विकास गर्न र एआई प्रणालीहरू अधिक सटीक, सुरक्षित, ‘विश्वसनीय र वफादार’ सुनिश्चित गर्न को लागी अनुसन्धान को पुनः लक्षित गर्नको लागि गर्नुपर्छ । पत्रमा जीपीटी–४ ले प्रकट गरेका खतराबारे विस्तृत विवरण भने दिइएको छैन ।
तर उक्त पत्रमा हस्ताक्षर गर्ने न्यूयोर्क युनिभर्सिटीका ग्यारी मार्क्सलगायत अनुसन्धाताहरूले लामो समयदेखि ‘च्याटबोट’हरू व्यापक झूटा हुन् र गलत सूचनाको व्यापक प्रचारक हुन सक्ने तर्क गर्दै आएका छन्।
यद्यपि, लेखक कोरी डक्टरोले एआई प्रणालीको क्षमता र खतरा दुवैलाई व्यापक रूपमा अतिरञ्जित गरिएको तर्क गर्दै एआई उद्योगलाई ‘पम्प र डम्प’ योजनासँग तुलना गरेका छन् । रासस