दृष्टिकोण
यान्त्रिक बुद्धिमत्ताको अन्वेषण गर्ने क्रममा हामीले दिन प्रतिदिन नियन्त्रणबाहिर गइरहेको प्रणाली सिर्जना गरेका छौँ। एआईको आवरणमा हामीले सायद असुर भेट्टाएका छौँ।
सन् २०१८ मा लेखक युवाल नोआ हरारीले एउटा शान्त भीडको अगाडि उभिएर चेतावनी दिए: कृत्रिम बुद्धिमत्ता (एआई) अब मानव स्वतन्त्रतामाथि इतिहासकै ठूलो खतरा बन्न सक्छ। फासीवादभन्दा पनि ठूलो, आणविक हतियारभन्दा पनि ठूलो। किनभने पहिलोपटक हामी तर्क गर्न सकिने, लज्जित बनाउन सकिने वा अपदस्थ गर्न सकिने मानवलाई होइन, त्यस्ता प्रणालीलाई शक्ति सुम्पँदै छौँ जसले केही महसुसै गर्दैन र अझ कम बुझ्दछ।
आठ वर्षपछि हेर्दा हरारीको त्यो भविष्यवाणी वास्तविकतासँग हुबहु मिलेको देखिन्छ। केही क्लिकमै मानिसका व्यक्तिगत जीवन नष्ट गर्ने डिपफेक भिडियोहरू सजिलै बनिरहेका छन्। किशोर किशोरीहरू एआई च्याटबोटसँग मित्रता गाँसेर समय व्यतीत गरिरहेका छन् जसको न कहिल्यै उमेर बढ्छ, न कहिल्यै त्यसले विवादै गर्छ। पक्षपात लुकाउन सक्ने र जिम्मेवारी अस्वीकार गर्न सक्ने अपारदर्शी तरिकाले निर्णय गर्ने ब्ल्याक-बक्स अल्गोरिदमहरू प्रयोगमा छन्।
एक अर्थमा हामीले यान्त्रिक बुद्धिमत्ताको अन्वेषण गर्ने क्रममा दिन प्रतिदिन नियन्त्रणबाहिर गइरहेको प्रणाली सिर्जना गरेका छौँ। एआईको आवरणमा हामीले सायद असुर भेट्टाएका छौँ। जसका अनेकौँ खतरामध्ये मुख्य पाँचलाई यहाँ उल्लेख गरिएको छ।
अलाइन्मेन्ट समस्या
सन २०२० मा प्रकाशित ब्रायन क्रिस्टियनको पुस्तक द अलाइन्मेन्ट प्रब्लममा एउटा यस्तो अनुच्छेद छ: अहिले हामी कृत्रिम बुद्धिमत्ताको प्रणालीमा कसरी मानव मूल्यहरू अपनाउने भन्ने जान्दैनौँ, र यस्तो प्रणाली मानव स्तरभन्दा धेरै बुद्धिमान हुनुअघि नै यसको समाधान गर्न कुनै विश्वसनीय योजना पनि छैन।
पाँच वर्षपछि फर्केर हेर्दा यो अनुच्छेदमा भनिएभन्दा अवस्था बदलिएको छैन। मोडलहरूको आकार र क्षमता बरु घातांकीय रूपमा बढिरहेको देखिन्छ। मानव र कृत्रिम बुद्धिमत्ताबीचको यही अन्तरलाई क्रिस्टियनले ‘अलाइन्मेन्ट समस्या’ भनेर परिभाषित गरेका छन्।
एआई अनुसन्धान तथा प्रयोगमा विश्वका तीन ठूला कम्पनीहरू ओपेन एआई, एन्थ्रोपिक र गुगल डिपमाइन्डसमेत कृत्रिम बुद्धिमत्ता प्रणालीहरूले मानव बुद्धिमत्ताको तह पार गरेको दिन अहिले प्रयोग भइरहेका रिवार्ड मोडेलिङ र स्केलेबल ओभरसाइटजस्ता ‘अलाइन्मेन्ट’ तरिका असफल हुने स्विकार्छन्। र यो जोखिम कुनै सुदूरको कल्पना होइन।
एआईको उदयले आशा जगाएको थियो- भावना, थकान वा व्यक्तिगत स्वार्थले नभई विशुद्ध तर्कले निर्देशित हुने यो एक निष्पक्ष न्यायकर्ता हुनेछ। तर, यो आशा एक भ्रम साबित भएको छ।
उदाहरणका लागि, गुगलको इमेज क्लासिफिकेसन एआईले अफ्रो-अमेरिकी व्यक्तिहरूका तस्बिरलाई ‘गोरिल्ला’ भनेर लेबल गरेको थियो। यद्यपि, गुगलको मोडेल दुर्भावनायुक्त थिएन, यसले पक्षपातपूर्ण डेटाबाट सिकेको ढाँचा मात्र लागू गरेको थियो। र मुख्य कुरा, यसमा आफूले गरिरहेको हानिलाई बुझ्ने समझको अभाव थियो।
अर्को, माइक्रोसफ्टको ‘टे’ च्याटबोट सुरु भएको केही घण्टामै घृणात्मक भाषण फैलाउने प्लेटफर्म बन्यो। यसले पनि नियन्त्रण नहुँदा एआईले कति छिटो हानिकारक व्यवहार अपनाउन सक्छ भन्ने देखायो। टेस्लाको अटोपाइलट प्रणालीले पनि बारम्बार अवरोधहरू पहिचान गर्न नसक्दा थुप्रै दुर्घटना र मृत्युहरू भए।
यी उदाहरणहरूले देखाउँछन्, एआई र वास्तविक संसारको अलाइन्मेन्ट बिग्रनु कति घातक हुन्छ भनेर।
अब कल्पना गर्नुहोस् अहिलेका भन्दा अतिबुद्धिमानी एआई। जसको अगाडि हानि रोक्न प्रयोग गरिएका म्यानुअल फिल्टरदेखि राम्ररी मिलाइएका प्रोम्प्टहरूसम्म लाचार हुन्छन्। लगातारको मानवीय निगरानीलाई पनि जसले सहजै छल्न सक्छ।
एआई कम्पनीहरू मन्द स्वरमा स्विकारिरहेका छन्, एक अतिबुद्धिमान एआईले मानिसहरूसँग त्यसैगरी व्यवहार गर्न सक्छ, जसरी हामी कमिलाहरूसँग गर्छौं। अर्थात् त्यो एआईले हामीलाई घृणा गर्छ भन्ने होइन, त्यसलाई हाम्रो अस्तित्व वा मूल्यमान्यताबारे कुनै चासो नै नहुन सक्छ।
निष्पक्षता
निष्पक्षता त्यो सिद्धान्त हो जसले व्यक्तिलाई जन्म, जात, लिंग वा सामाजिक हैसियतका आधारमा होइन, क्षमताका आधारमा मूल्यांकन गर्छ। निष्पक्ष न्याय मानव सभ्यताको साझा सपना पनि हो। आधुनिक कानुन र लोकतान्त्रिक संस्थाहरू यही आदर्शको वरिपरि बनेका छन्। तर सदियौँदेखि हामी पूर्वाग्रह, रूढिवाद र ‘ह्युरिस्टिक्स’ नामक निर्णय लिने छोटो मार्गहरू बोक्दै आएका छौँ।
यही पृष्ठभूमिमा एआईको उदयले आशा जगाएको थियो- भावना, थकान वा व्यक्तिगत स्वार्थले नभई विशुद्ध तर्कले निर्देशित हुने यो एक निष्पक्ष न्यायकर्ता हुनेछ। तर, यो आशा एक भ्रम साबित भएको छ।
सन् २०१६ र २०२० को बीचमा, मेसिन लर्निङ समुदायले अल्गोरिदम ‘निष्पक्ष’ बनाउनका लागि फरक समूहहरूलाई समान व्यवहार गर्ने, भरपर्दो भविष्यवाणी प्रदान गर्ने, स्कोरहरू सबैका लागि समान सुनिश्चित गर्नेजस्ता दुई दर्जनभन्दा बढी परिभाषा विकास गरेका थिए। यद्यपि, यी परिभाषाहरू अक्सर एकआपसमा बाझिने गरेको अनुसन्धानले देखाएको छ।
जस्तो, नर्थपोइन्टले विकास गरेको आपराधिक जोखिम मूल्यांकन सफ्टवेयर कम्पास (करेक्सनल अफेन्डर म्यानेजमेन्ट प्रोफाइलिङ फर अल्टरनेटिभ स्याङसन)को त्रुटि दर फरक फरक जाति समूहहरूका लागि अत्यधिक असमान थियो। एप्पलले ‘लिङ्ग-तटस्थ’ ऋण दिने दाबी गरे पनि महिलाहरूलाई पुरुषको तुलनामा कम क्रेडिट सीमा दियो। यस्तै अस्पतालहरूले उपचारको प्राथमिकता तय गर्न जाति-तटस्थ भनिने जोखिम मूल्यांकन अल्गोरिदम प्रयोग गरे जसले विगतको स्वास्थ्य सेवा खर्चलाई समेत सूचकको रूपमा प्रयोग गर्ने भएकाले अश्वेत बिरामीहरूलाई लाइनको पछाडि पठाए। ऐतिहासिक रूपमा अश्वेत समुदायले स्वास्थ्य सेवा कम पाउनु वा आर्थिक अभावमा स्वास्थ्य सेवा नलिनुलाई अल्गोरिदमले कम जोखिम भएको भन्दै मूल्यांकन गरिदियो।
दशकौँ लामो मानव इतिहासमा बुनिएका पूर्वाग्रहरू मेसिन लर्निङको माध्यमबाट ‘निष्पक्ष गणित’ को आवरणमा हामीतिरै फर्किइरहेका छन्। जसले एकसाथ लाखौँ मानिसको जीवन बर्बाद पारिरहेको छ।
यसैगरी पुरुष-प्रधान आवेदनहरूमा प्रशिक्षित ईकमर्स कम्पनी अमेजनको भर्ना अल्गोरिदमले महिलाका बायोडेटालाई स्वतः घटुवा गरेको थियो। पत्रकारहरूले उजागर गरेपछि अमेजनले यो प्रणाली नै बन्द गर्यो।
यी कुनै पनि घटनामा प्राविधिक गडबडी भएको थिएन। मोडेललाई जे जसरी प्रशिक्षित गरियो, ठीक त्यही भयो। अल्गोरिदमले अतीतलाई ग्रहण गरेर नतिजा दिने डिजाइनअनुसार नै काम गरिरहेको थियो। त्यसैले एउटा परिभाषाअनुसार मोडेल निष्पक्ष थियो। तर अर्को परिभाषामा भने क्रूर र जाति तथा स्त्रीद्वेषी।
एक पक्षपाती अधिकारीले कसैको जीवन बर्बाद गरेमा ऊ जागिरबाट निष्कासित हुन सक्छ। जेल सजाय हुन सक्छ। तर, एक पक्षपाती एआईले लाखौँको जीवन बर्बाद पार्दा पनि यसले ‘डेटा-निर्देशित निष्पक्षता’ को चम्किलो आवरणमा अविराम सञ्चालित भइरहन्छ।
लेखक ब्रायन क्रिस्टियन मेसिन लर्निङले पूर्वाग्रहलाई नहटाई उल्टै औद्योगिकीकरण गरेको निष्कर्ष निकाल्छन्। र जबसम्म हामी एआईको निष्पक्षताको भ्रमबाट बाहिर निस्कँदैनौँ, तबसम्म हाम्रो समाजका पुराना घाउहरू झन् गहिरा बनिरहने छन्।
‘म्याथ डेस्ट्रक्सन’को हतियार
एआईबाट उत्पन्न तेस्रो खतरा अहिले समाजमा पूर्णरूपमा कार्यान्वयनमा छ र इतिहासमा कुनै पनि तानाशाही शासकले समेत हासिल गर्न नसकेको स्तरमा सञ्चालन भइरहेको छ। करिब एक दशकअघि गणितज्ञ क्याथी ओ’नीलले यी प्रणालीलाई नाम दिएकी थिइन्- वेपन्स अफ म्याथ डेस्ट्रक्सन।
माथि नै भनियो- कसले ऋण पाउँछ, कसलाई जमानतमा छोडिन्छ, कसलाई रोजगारीको अन्तर्वार्ता हुन्छ, कसले स्वास्थ्य बीमा सुरक्षित गर्छ, कसलाई बाल संरक्षण सेवाले शंकाको सूचीमा राख्छ र अस्पतालमा कुन बिरामीको पालो अगाडि आउँछ भन्ने निर्णय आज गणितीय मोडेल (अल्गोरिदम)हरूले गर्छन्। तर यो निष्पक्ष नभएर पूर्वाग्रहको विस्तार बनेको छ। दशकौँ लामो मानव इतिहासमा बुनिएका पूर्वाग्रहरू मेसिन लर्निङको माध्यमबाट ‘निष्पक्ष गणित’ को आवरणमा हामीतिरै फर्किइरहेका छन्। जसले एकसाथ लाखौँ मानिसको जीवन बर्बाद पारिरहेको छ।
क्याथीका अनुसार यी गणितीय मोडेलहरूले भेदभावलाई झन् प्रश्रय दिइरहेका छन्। जस्तो, कुनै जोखिम मूल्यांकन मोडेलले निर्धारण गरेकै आधारमा यदि कुनै गरिब विद्यार्थीले ऋण नपाएमा ऊ शिक्षाबाट मात्रै वञ्चित हुने छैन, उसलाई गरिबीको दुश्चक्रबाट निकाल्ने समाधानबाटै विमुख हुनेछ। क्याथीको भाषा भन्ने हो भने यस्ता मोडेलहरूले ऐतिहासिकरूपमा लाभान्वित समूहलाई नै साथ दिएर उत्पीडितलाई थप दण्डित गरिरहेका छन् जसले लोकतन्त्रका लागि विषाक्त ‘ककटेल’ तयार पारिरहेको छ।
विगतको स्वास्थ्य उपचार खर्चका आधारमा उपचारको प्राथमिकता निर्धारण गरिएको माथिल्लो उदाहरणले पनि इतिहासको गणितीय मूल्यांकनले कसरी उत्पीडितलाई दण्डित गरिरहेको छ भन्ने प्रस्ट हुन्छ।
यी प्रणालीहरू मानव भेदभावभन्दा तीन कारणले बढी खतरनाक छन्। एक, यी विस्तार हुन्छन्। दुई, यी गुप्त हुन्छन् र तीन, यिनको प्रत्यक्ष सामना गर्न सकिँदैन। विनाशका यी गणितीय हतियारले नियम तोडेका हुँदैनन्। यी स्वयं निष्पक्ष देखिने शैलीमा नियमका रूपमा स्थापित हुन्छन्।
कथाको विखण्डन
प्राचीन इतिहासदेखि आजसम्म सामूहिक कथाहरूले नै मानव समाजको मानसिक ढाँचा तयार पारेका छन्। यिनैले अपेक्षाहरू मिलाउँथे र सहकार्य तथा सरकार सञ्चालन सम्भव बनाउने साझा वास्तविकता तयार पार्थे। प्लेटोदेखि हाना अरेन्टसम्मका दार्शनिकहरूले तर्क गरेका छन् कि संस्थाहरूले मात्र होइन, सार्वजनिक सहभागिताले पनि राजनीतिक वैधता कायम राख्छन्।
लेखक स्कट गालोवे आफ्नो पुस्तक नोट्स अन बिइङ अ म्यानमा लेख्छन्- एआई पुरुषहरूको काम खोस्न आएको होइन। यो त पुरुषहरूको उद्देश्य खोस्न आएको हो।
बेनेडिक्ट एन्डरसनले आफ्नो महत्त्वपूर्ण कृति ‘काल्पनिक समुदायहरू’मा छापाखानादेखि टेलिभिजनसम्मका मिडिया कसरी लाखौँ मानिसहरूको धारणालाई एकरूप बनाउन प्रयोग गरिए, जसले लोकतान्त्रिक बहस र नागरिक पहिचानलाई सक्षम बनायो भन्ने देखाएका थिए। तर अल्गोरिदमले प्रत्येक दर्शकका रुचि र मनोविज्ञानअनुसार एउटै घटनामा फरक फरक कथानक बुनिदिन सक्छ। एउटै घटना कसैको फिडमा वीरतापूर्ण त कसैको फिडमा विश्वासघाती देखाइदिन सक्छ। कसैका लागि पूर्णरूपमा असान्दर्भिक पनि बनाइदिन सक्छ।
जब तथ्यहरूको साझा आधार हराउँछ, समाज ध्रुवीकरण, नैतिक आतंक र संस्थागत पतनतर्फ अग्रसर हुने गरेको इतिहासले देखाउँछ। निर्वाचनहरू पनि समान वास्तविकतामा प्रतिस्पर्धा गर्ने अभ्यास नबनेर फरक फरक संसारमा बस्ने समूहहरूको टकरावमा परिणत हुन्छ। सार्वजनिक बहस एकअर्कासँग सम्बन्ध र सञ्जाल बनाउन नसक्ने साना साना ‘सूचनात्मक द्वीप’मा सीमित हुन्छ।
यस्तोमा फ्याक्ट-चेकिङ, खोजमूलक पत्रकारिता, नागरिक बहसजस्ता उदार लोकतान्त्रिक प्रणालीका संयन्त्रहरू मानवीय गतिमा काम गर्ने हुँदा कमजोर साबित हुन्छन्। उता एआईसिर्जित सामग्री तीव्र गतिमा फैलिन्छ।
आर्थिक र सामाजिक संकट
लेखक स्कट गालोवे आफ्नो पुस्तक नोट्स अन बिइङ अ म्यानमा लेख्छन्- एआई पुरुषहरूको काम खोस्न आएको होइन। यो त पुरुषहरूको उद्देश्य खोस्न आएको हो।
हुन पनि; लाखौँ पुरुष जो आफ्नो पहिचान ‘कमाउने, मर्मत गर्ने, सुरक्षा दिने, र वास्तविक संसारमा उपयोगी हुने’ भूमिकामा थिए, एआई र स्वचालनबाट तिनको भूमिका खोसिनेछ। जसकारण एआईको पाँचौँ खतरा निम्तनेछ- आर्थिक गिलोटिन।
हामीसँग अझै एक साँघुरो ढोका बाँकी छ जसबाट हामी भन्न सक्छौँ कि, सभ्यता बदल्ने क्षमतासम्म पुगेको कुनै पनि प्रणालीले पहिला सभ्यता भत्काउँदैनौँ भनेर प्रमाणित गर्नुपर्छ।
यो गिलोटिन (ठूलो ब्लेड भएको मेसिन) तल झरिरहेको छ र छिट्टै कलेज डिग्री अनिवार्य नभएका काम काँटछाँट हुनेछ। पछिल्लो ४० वर्षयता पुरुषलाई मध्यम वर्गमा उत्थान गर्न दिने ती काम नै अन्तिम बाटो थियो।
अर्कोतर्फ स्वचालनका कारण विस्थापित अधिकांश कामदारले फेरि त्यही स्तरको तलब पाउने गरेका छैनन्। नयाँ कामहरू प्रायः सहरकेन्द्रित हुने भएकाले उनीहरू त्यहाँ बस्न पनि सक्दैनन्। सन् १९८० देखि २०१६ सम्म अमेरिकामा तलब असमानताको ५० देखि ७० प्रतिशत कारण स्वचालन नै थियो। यही गतिमा अघि बढिरहे एआईले असमानतालाई अझ गहिरो बनाउँछ।
यस्ता पुराना सामाजिक व्यवस्था खोसिँदैमा फेरि नयाँ व्यवस्था आइहाल्दैन, शून्यता आउँछ। जुन खालीपनलाई अहिले डिजिटल ड्रगको नशाले भरिरहेको छ- कहिल्यै अस्वीकार नगर्ने ‘जेनेरेटिभ पोर्न’, धैर्य र मायाले उत्तर दिने ‘एआई प्रेमिका’, अपमानको डरबिना हैसियत कमाउन सकिने भर्चुअल संसार।
एक किसिमले यो व्यापक सामाजिक पलायन हो। युवाहरू काम मात्र होइन, महत्त्वाकांक्षा, परिवार, समुदाय, र भौतिक संसारबाटै बाहिरिँदै जाँदा विवाह दर घट्नेछ। जन्म दर खस्किनेछ। समाजबाट पुरुषहरूको उपस्थिति गुम्नेछ। बाँकी रहन्छ त केवल सक्षम तर आक्रोशित र दिशाहीन पुरुष। र इतिहासले धेरैपटक देखाएको छ कि पुरुषहरूको आर्थिक भूमिका र सामाजिक गरिमा खोसियो भने समाज लामो समयसम्म शान्त, लोकतान्त्रिक वा स्थिर रहन सक्दैन। त्यसकारण यो गिलोटिन पूरा खस्नुअघि नै सामना गर्नैपर्ने हुन्छ।
हरारीको त्यो डरलाग्दो सपना अब वास्तविकतामा परिणत हुँदै छ। अर्बौं मानिसहरू एउटा अल्गोरिद्मिक मेसिनका कारण निष्क्रिय र सजिलै नियन्त्रण गर्न सकिने पुर्जामा बदलिँदै छन्। जसका लक्ष्यहरू कहिल्यै हाम्रो सामाजिक हितसँग मेल खाँदैनन्, जसका निर्णयहरू परीक्षण गर्न सकिँदैनन्, जसको न्याय केवल भ्रम हो।
तथापि, हामीसँग अझै एक साँघुरो ढोका बाँकी छ जसबाट हामी भन्न सक्छौँ कि, सभ्यता बदल्ने क्षमतासम्म पुगेको कुनै पनि प्रणालीले पहिला सभ्यता भत्काउँदैनौँ भनेर प्रमाणित गर्नुपर्छ।