प्रश्न:
कुछ कंपनियां आधुनिक एआई सिस्टम में "मानव प्रतिक्रिया नियंत्रण" को जोड़ने पर विचार क्यों कर रही हैं?
ए:अत्याधुनिक प्रणालियों के साथ काम करने वाली कुछ कंपनियां इन प्रणालियों के लिए मानव नियंत्रण स्थापित करने के लिए काम कर रही हैं, मशीन सीखने और गहन शिक्षण उपकरण कुछ प्रत्यक्ष मानव निरीक्षण प्रदान करते हैं। ये कंपनियां छोटे खिलाड़ी नहीं हैं, या तो - Google के डीपमाइंड और एलोन मस्क की ओपनएआई प्रमुख कंपनियों के दो उदाहरण हैं जो कृत्रिम बुद्धिमत्ता के बारे में हाथों-हाथ मिल रहे हैं। उदाहरण के लिए, परिणाम भिन्न होते हैं - उदाहरण के लिए, दीपमिन्ड जनता को प्रमुख डेटा प्रदान करने की अपनी अनिच्छा के लिए विवाद का विषय रहा है, जबकि OpenAI बहुत अधिक है, ठीक है, कृत्रिम बुद्धि को नियंत्रित करने के अपने काम के बारे में खुला है ।
यहां तक कि बिल गेट्स ने भी इस मुद्दे पर वेट किया है, गेट्स ने कहा कि वह कई ऐसे लोगों में से एक हैं जो कृत्रिम अधीक्षण के उद्भव के बारे में चिंतित हैं जो कुछ तरीकों से मानव नियंत्रण से परे हो सकते हैं। मस्क ने अपने हिस्से के लिए "दुष्ट एआई" की संभावना के बारे में कुछ खतरनाक भाषा को भी सामने रखा है।
शायद यही सबसे जरूरी कारण है कि कंपनियां एआई के लिए मानव नियंत्रण लागू करने के लिए काम कर रही हैं - यह विचार कि कुछ तकनीकी विलक्षणता के परिणामस्वरूप एक सुपर-शक्तिशाली संतरी तकनीक होगी जिसका मनुष्य बस नियंत्रण नहीं कर सकता है। मानव महत्वाकांक्षाओं की सुबह से, हमने यह सुनिश्चित करने के लिए उपकरण लगाए हैं कि हम उन शक्तियों को नियंत्रित कर सकें, जिन्हें हम मिटाते हैं - चाहे वह बागडोर और हार्नेस के साथ हों, अछूता तारों में बिजली हो, या किसी अन्य प्रकार की नियंत्रण प्रणाली हो, नियंत्रण एक सहज मानवीय कार्य है और इसलिए यह दुनिया में सभी समझ में आता है कि कृत्रिम बुद्धिमत्ता वास्तविक कार्यक्षमता के करीब आने के साथ-साथ, मानव उस शक्ति को नियंत्रण में रखने के लिए अपने स्वयं के प्रत्यक्ष नियंत्रण को लागू करता है।
हालांकि, सुपर-इंटेलिजेंट रोबोट का डर एकमात्र कारण नहीं है कि कंपनियां मशीन लर्निंग और एआई प्रोजेक्ट्स पर मानव नियंत्रण लागू करती हैं। एक अन्य प्रमुख कारण मशीन पूर्वाग्रह है - यह विचार है कि कृत्रिम बुद्धिमत्ता प्रणाली अक्सर सीमित होती है कि वे प्रश्न में डेटा का मूल्यांकन कैसे करें - ताकि वे सिस्टम में निहित किसी पूर्वाग्रह को बढ़ा सकें। मशीन लर्निंग से निपटने वाले अधिकांश पेशेवर आईटी सिस्टम के बारे में डरावनी कहानियां बता सकते हैं जो मानव उपयोगकर्ता समूहों के साथ समान व्यवहार करने में सक्षम नहीं थे - चाहे वह लिंग या जातीय असमानता थी, या प्रणाली की कुछ अन्य विफलता वास्तव में हमारे मानव समाजों की बारीकियों को समझने के लिए। हम लोगों के साथ कैसे बातचीत करते हैं।
एक अर्थ में, हम सिस्टम पर मानव नियंत्रण रख सकते हैं क्योंकि हमें डर है कि वे बहुत शक्तिशाली हो सकते हैं - या वैकल्पिक रूप से, क्योंकि हमें डर है कि वे पर्याप्त शक्तिशाली नहीं हो सकते हैं। मानव नियंत्रण अधिक सटीक प्रदान करने के लिए मशीन सीखने के डेटा सेट को लक्षित करने में मदद करता है। वे उन विचारों को सुदृढ़ करने में मदद करते हैं जो कंप्यूटर सिर्फ अपने दम पर नहीं सीख सकते हैं, या तो क्योंकि मॉडल पर्याप्त परिष्कृत नहीं है, क्योंकि एआई काफी दूर तक उन्नत नहीं है, या क्योंकि कुछ चीजें मानव अनुभूति के प्रांत में बस झूठ बोलती हैं। आर्टिफिशियल इंटेलिजेंस कुछ चीजों के लिए बहुत अच्छा है - उदाहरण के लिए, एक इनाम-और-स्कोर-आधारित प्रणाली ने एक कृत्रिम बुद्धि को एक मानव खिलाड़ी को बेहद जटिल बोर्ड गेम "गो" में हरा दिया - लेकिन अन्य चीजों के लिए, यह प्रोत्साहन-आधारित प्रणाली है पूरी तरह से अपर्याप्त है।
संक्षेप में, कृत्रिम बुद्धि परियोजनाओं के काम करने में मानव उपयोगकर्ताओं को सीधे शामिल करने के लिए कई सम्मोहक कारण हैं। यहां तक कि सबसे अच्छी कृत्रिम बुद्धि प्रौद्योगिकियां अपने दम पर बहुत कुछ सोच सकती हैं - लेकिन वास्तविक जैविक मानव मस्तिष्क के बिना जो भावनाओं और सामाजिक मेल जैसी चीजों को संसाधित कर सकते हैं, वे बस बड़ी तस्वीर को मानवीय तरीके से नहीं देख सकते हैं।
एक कुशल मशीन लर्निंग कंपनी व्यापार और विषय-विशेषज्ञों के मिश्रण और मशीन सीखने वाले डेवलपर्स के साथ इस संतुलन को हड़ताल करने में मदद कर सकती है ताकि अन्य व्यावसायिक समस्याएं हल की जा सकें।
