प्रश्न:
मशीन बायस मशीन सीखने में समस्या क्यों है?
ए:इस प्रश्न का उत्तर दो अलग-अलग तरीकों से दिया जा सकता है। सबसे पहले, मशीन पूर्वाग्रह समस्या क्यों है, जैसा कि, मशीन सीखने की प्रक्रियाओं में क्यों मौजूद है?
मशीन लर्निंग, हालांकि परिष्कृत और जटिल है, एक सीमा तक सीमित डेटा सेट पर आधारित है जो इसका उपयोग करता है। डेटा सेट के निर्माण में निहित पूर्वाग्रह शामिल हैं। मीडिया की तरह, जहां शामिल किए जाने के विकल्प और जानबूझकर विकल्प मशीन सीखने में एक विशेष पूर्वाग्रह दिखा सकते हैं, जिस डेटा सेट का उपयोग किया जाता है उसे यह निर्धारित करने के लिए जांचना चाहिए कि किस तरह का पूर्वाग्रह मौजूद है।
मुफ्त डाउनलोड: मशीन लर्निंग और क्यों यह मायने रखता है |
उदाहरण के लिए, प्रौद्योगिकी परीक्षण और डिजाइन प्रक्रियाओं के लिए एक दूसरे पर एक प्रकार के उपयोगकर्ता के लिए वरीयता दिखाना एक आम समस्या है। एक बड़ा उदाहरण तकनीक की दुनिया में लैंगिक असमानता है।
इससे क्या फर्क पड़ता है, और यह मशीन सीखने पर क्यों लागू होता है?
क्योंकि परीक्षण के माहौल में मौजूदा महिलाओं की कमी के कारण एक उत्पादित तकनीक हो सकती है जो महिला दर्शकों के लिए कम उपयोगकर्ता के अनुकूल है। जिस तरह से कुछ विशेषज्ञों का वर्णन है कि मौजूदा महिला परीक्षण के बिना, अंतिम उत्पाद महिला उपयोगकर्ताओं के इनपुट को नहीं पहचान सकता है - इसमें महिला पहचान को पहचानने या महिलाओं से इनपुट के साथ पर्याप्त रूप से निपटने के लिए उपकरण नहीं हो सकते हैं।
विभिन्न जातीयताओं, विभिन्न धर्मों के लोगों या किसी अन्य प्रकार के जनसांख्यिकीय के लिए भी यही सच है। सही डेटा के बिना, मशीन लर्निंग एल्गोरिदम किसी दिए गए उपयोगकर्ता सेट के लिए सही ढंग से काम नहीं करेगा, ताकि समावेश के डेटा को तकनीक में जानबूझकर जोड़ा जाए। केवल प्राथमिक डेटा सेट लेने और अंतर्निहित पूर्वाग्रह को मजबूत करने के बजाय, मानव संचालकों को वास्तव में इस मुद्दे को देखने की आवश्यकता है।
एक अन्य उदाहरण एक मशीन लर्निंग इंजन है जो नौकरी और वेतन की जानकारी लेता है और परिणाम निकालता है। यदि उस अंतर्निहित डेटा सेट का विश्लेषण नहीं किया जाता है, तो मशीन पूर्वाग्रह को मजबूत करेगी। यदि यह मानता है कि पुरुषों के पास बड़ी संख्या में कार्यकारी नौकरियां हैं, और मशीन सीखने की प्रक्रिया में कच्चे डेटा सेट के माध्यम से फ़िल्टर करना और संबंधित परिणाम वापस करना शामिल है, तो यह उन परिणामों को वापस करने जा रहा है जो एक पुरुष पूर्वाग्रह दिखाते हैं।
प्रश्न के दूसरे भाग में शामिल है कि यह पूर्वाग्रह कितना हानिकारक है। पर्याप्त पर्यवेक्षण और परीक्षण के बिना, नई प्रौद्योगिकियां नुकसान पहुंचा सकती हैं, मदद नहीं, समावेश और समानता की हमारी भावना। यदि एक नया तकनीकी उत्पाद तैयार किया जाता है, जो हल्की त्वचा वाले चेहरे को पहचानता है, लेकिन गहरे रंग की त्वचा वाले नहीं होते हैं, तो यह बढ़े हुए जातीय तनाव और इस अर्थ में हो सकता है कि प्रश्न में कंपनी विविधता के प्रति संवेदनशील नहीं है। यदि एक मशीन लर्निंग एल्गोरिदम डेटा सेट में पूर्वाग्रह को पुन: पेश करता है और बढ़ाता है, तो वह कृत्रिम बुद्धि मानवीय आवाज़ और मानव प्रवृत्ति में अपनी आवाज़ को जोड़ने वाली है जो पहले से ही सामाजिक प्रणाली में मौजूद है जो एक समूह के लोगों को दूसरे पर एहसान करती है।
इससे निपटने का सबसे अच्छा तरीका अंतर्निहित डेटा सेटों पर बारीकी से देखना है, सुविधा चयन का उपयोग करना, चर इनपुट जोड़ना और स्वयं कच्चे डेटा सेट में हेरफेर करना, और डेटा प्राप्त करने के लिए जानबूझकर मानव क्राफ्टिंग के साथ मशीन सीखने की वास्तविक शक्ति को बढ़ाना है, एक पाने के लिए परिणाम जो महान विश्लेषणात्मक शक्ति प्रदान करता है, लेकिन उन मानव अंतर्दृष्टि में से कुछ भी जो कंप्यूटर अभी तक दोहरा नहीं सकते हैं।
