घर ऑडियो दारोगा क्यों समझा रहा है एई?

दारोगा क्यों समझा रहा है एई?

Anonim

प्रश्न:

DARPA "व्याख्यात्मक AI" पर शोध क्यों कर रहा है?

ए:

सामान्य तौर पर, व्याख्यात्मक कृत्रिम बुद्धिमत्ता डेटा विज्ञानों में अत्याधुनिक कार्यों का एक बहुत बड़ा हिस्सा है। यह एक स्वाभाविक रूप से अस्थिर और गतिशील प्रकार की प्रौद्योगिकी के मानव नियंत्रण का मार्गदर्शन करने में मदद कर रहा है - व्याख्यात्मक एआई कृत्रिम बुद्धि कैसे काम करेगी, इस बारे में हमारे सामूहिक प्रश्नों के उत्तर देने में बहुत मदद करता है।

समझाने योग्य एआई को समझने के लिए, यह समझने में मदद करता है कि "नियमित एआई" कैसा दिखता है। परंपरागत रूप से, जैसा कि AI आकार लेना शुरू करता है, विशिष्ट परियोजना में एक फैंसी नई सॉफ्टवेयर क्षमता होती है, जो एल्गोरिदम और प्रशिक्षण सेट और लीनियर कोड में छिपी होती है, जो उपयोगकर्ताओं के लिए "ब्लॉक बॉक्स" की तरह होती है। वे जानते हैं कि यह काम करता है - वे अभी नहीं जानते कि कैसे।

यह "ट्रस्ट के मुद्दों" को जन्म दे सकता है जहां उपयोगकर्ता उस आधार पर सवाल कर सकते हैं जिस पर एक तकनीक निर्णय लेती है। यह समझाने योग्य एआई को संबोधित करने के लिए माना जाता है: व्याख्या करने योग्य एआई परियोजनाएं अंत उपयोगकर्ताओं के इरादे और एआई की संरचना को दिखाने के लिए अतिरिक्त बुनियादी ढांचे के साथ आती हैं - यह ऐसा क्यों करता है।

एक उम्र में जहां बिल गेट्स और एलोन मस्क जैसे शीर्ष नवप्रवर्तक इस बात पर चिंता व्यक्त कर रहे हैं कि कृत्रिम बुद्धिमत्ता कैसे काम करेगी, व्याख्यात्मक AI बेहद आकर्षक है। विशेषज्ञों का कहना है कि अच्छे व्याख्यात्मक एआई उपयोगकर्ताओं को यह समझने में मदद कर सकते हैं कि प्रौद्योगिकियां ऐसा क्यों करती हैं, वे विश्वास बढ़ाते हैं, और इन तकनीकों का उपयोग और उपयोग में आसानी भी बढ़ाते हैं।

विशेष रूप से, हालांकि, DARPA विशेष रूप से अपने आप में बताती है कि नई परियोजनाओं में इसकी दिलचस्पी क्यों है। DARPA के एक पृष्ठ से पता चलता है कि रक्षा विभाग कृत्रिम बुद्धिमत्ता अनुप्रयोगों के "धार" और इसके विकास में कुछ अराजकता की आशंका करता है।

डेविड गेनिंग लिखते हैं, "निरंतर अग्रिमों से स्वायत्त प्रणालियों का उत्पादन करने का वादा किया जाता है, जो स्वयं अनुभव करेंगे, सीखेंगे, निर्णय लेंगे और कार्य करेंगे।" “हालांकि, इन प्रणालियों की प्रभावशीलता मशीन के वर्तमान अक्षमता द्वारा उनके निर्णय और कार्यों को मानव उपयोगकर्ताओं को समझाने में सीमित है। … व्याख्या करने योग्य AI - विशेष रूप से व्याख्या करने योग्य मशीन लर्निंग - यदि भविष्य के योद्धाओं को उचित रूप से विश्वास करना, और कृत्रिम रूप से बुद्धिमान मशीन भागीदारों की उभरती हुई पीढ़ी को प्रभावी ढंग से प्रबंधित करना है, तो यह आवश्यक होगा। "

गनिंग के ऑनलाइन निबंध से पता चलता है कि व्याख्यात्मक एआई सिस्टम प्रौद्योगिकियों के लिए "औचित्य प्रदान करने" में मदद करेगा, उनकी ताकत और कमजोरियों को दिखाएगा, और उपयोग के मामलों को अधिक पारदर्शी बना देगा। पृष्ठ पर एक ग्राफिक दिखाता है कि प्रशिक्षण डेटा से कृत्रिम बुद्धि कार्यक्षमता का एक सीधा पाइपलाइन कैसे समझा जा सकता है, जिसे एक समझाने योग्य मॉडल और एक व्याख्यात्मक इंटरफ़ेस कहा जाता है जो उपयोगकर्ता को सवालों के जवाब देने में मदद करेगा। गनिंग आगे बताते हैं कि एक व्याख्यात्मक AI प्रोग्राम में दो प्रमुख फ़ोकस क्षेत्र होंगे - एक मल्टीमीडिया डेटा के माध्यम से स्थानांतरण होगा जो उपयोगकर्ताओं के लिए उपयोगी होगा, और दूसरा ध्यान निर्णय समर्थन के लिए निर्णय प्रक्रियाओं का अनुकरण करना होगा।

DARPA एक "टूलकिट" प्रदान करने की उम्मीद करता है जो भविष्य में व्याख्या करने योग्य AI सिस्टम विकसित करने में मदद कर सकता है।

दारोगा क्यों समझा रहा है एई?