एलीएज़र श्लोमो युडकोव्स्की एक अमेरिकी कृत्रिम बुद्धिमत्ता विशेषज्ञ हैं जो तकनीकी विलक्षणता की समस्याओं पर शोध करते हैं और अनुकूल एआई के निर्माण की वकालत करते हैं। वह कई विज्ञान कथा कहानियों के लेखक हैं जिसमें उन्होंने संज्ञानात्मक विज्ञान और तर्कसंगतता से संबंधित कुछ विषयों का चित्रण किया है।
एलीएज़र युडकोव्स्की: जीवनी
एलीएज़र श्लोमो युडकोव्स्की आधुनिक अमेरिका के सबसे सक्रिय तर्कवादियों में से एक है, एक कंप्यूटर शोधकर्ता और "दोस्ताना कृत्रिम बुद्धि" के विचार के लोकप्रिय।
11 सितंबर 1979 को जन्म। इंस्टीट्यूट फॉर मशीन इंटेलिजेंस रिसर्च के सह-संस्थापक और शोधकर्ता, एक गैर-सरकारी शोध संगठन जो उनकी किताबें प्रकाशित करता है। एलीएज़र युडकोव्स्की दार्शनिक उपन्यास हैरी पॉटर एंड द मेथड्स ऑफ़ रैशनलिज़्म के लेखक हैं, जो 2010 से 2015 तक इंटरनेट पर कुछ हिस्सों में प्रकाशित हुआ था। इसमें, हैरी एक ऑक्सफोर्ड वैज्ञानिक के परिवार में पला-बढ़ा है और हॉगवर्ट्स की यात्रा करने से पहले, उससे तर्कसंगतता के तरीके सीखता है।
जहाँ तक हम जानते हैं, उनका "सट्टा यथार्थवादी" के घेरे से कोई संबंध नहीं है। उनके नाम का उल्लेख अक्सर रॉबिन हैनसन के संबंध में किया जाता है, कई वर्षों (2006 से 2009 तक) वे "ओवरकमिंग प्रेजुडिस" ब्लॉग के दो मुख्य लेखक थे, जिसे ऑक्सफोर्ड में इंस्टीट्यूट फॉर द फ्यूचर ऑफ ह्यूमैनिटी द्वारा वित्त पोषित किया गया था।
कभी-कभी युडकोव्स्की का नाम रेमंड कुर्ज़वील के संबंध में सुना जा सकता है। वह तकनीकी-गीक समुदाय का एक दार्शनिक प्रतिनिधि है, दुर्गम और समझ से बाहर है, इस प्रकार, अधिकांश मानवीय जनता के लिए, जिसमें सट्टा यथार्थवादी के लगभग सभी पाठक हैं। यह आश्चर्य की बात नहीं है, क्योंकि वह अक्सर तार्किक-गणितीय भाषा, संभाव्य और सांख्यिकीय निष्कर्षों की ओर मुड़ता है, सूत्रों और तालिकाओं का उपयोग करके उजागर किया जाता है।
वैज्ञानिक रुचियां
युडकोव्स्की सिंगुलैरिटी इंस्टीट्यूट फॉर आर्टिफिशियल इंटेलिजेंस (SIAI) में सह-संस्थापक और साथी हैं। उन्होंने संस्थान के विकास में बहुत बड़ा योगदान दिया। वह "क्रिएटिंग फ्रेंडली एआई" (2001), "लेवल्स ऑफ ऑर्गनाइजेशन इन जनरल इंटेलिजेंस" (2002), "कोहेरेंट एक्सट्रापोलेटेड वोलिशन" 2004) और टाइमलेस डिसीजन थ्योरी (2010) पुस्तक के लेखक हैं। उनके सबसे हालिया वैज्ञानिक प्रकाशन निक बोस्ट्रोम द्वारा संपादित रिस्क्स ऑफ ग्लोबल कैटास्ट्रोफ (2008) में दो लेख हैं, जिसका नाम है "वैश्विक जोखिम के सकारात्मक और नकारात्मक कारक के रूप में कृत्रिम बुद्धिमत्ता" और "वैश्विक जोखिमों का आकलन करने में संज्ञानात्मक पूर्वाग्रह"। युडकोवस्की ने विश्वविद्यालयों में अध्ययन नहीं किया और एआई के क्षेत्र में औपचारिक शिक्षा के बिना एक ऑटोडिडैक्ट है।
युडकोव्स्की उन एआई निर्माणों की खोज करता है जो आत्म-समझ, आत्म-संशोधन और पुनरावर्ती आत्म-सुधार (बीज एआई) के साथ-साथ उन एआई आर्किटेक्चर की खोज करते हैं जिनमें प्रेरणा की एक स्थिर और सकारात्मक संरचना (मैत्रीपूर्ण कृत्रिम बुद्धि) होगी। अपने शोध कार्य के अलावा, युडकोव्स्की को एक गैर-शैक्षणिक भाषा में जटिल मॉडलों की व्याख्या के लिए जाना जाता है, जो पाठकों की एक विस्तृत श्रृंखला के लिए सुलभ है, उदाहरण के लिए, उनका लेख बेयस प्रमेय का एक सहज स्पष्टीकरण देखें।
युडकोव्स्की, रॉबिन हैनसन के साथ, ओवरकमिंग बायस ब्लॉग के मुख्य लेखकों में से एक थे। 2009 की शुरुआत में, उन्होंने कम गलत ब्लॉग की सह-स्थापना की, जिसका उद्देश्य "मानव तर्कसंगतता विकसित करना और संज्ञानात्मक पूर्वाग्रहों को दूर करना" है। उसके बाद, ओवरकमिंग बायस हैनसन का निजी ब्लॉग बन गया। इन ब्लॉगों पर प्रस्तुत सामग्री को पोस्ट चेन में व्यवस्थित किया गया है जिसने हजारों पाठकों को आकर्षित किया है - उदाहरण के लिए, "मनोरंजन सिद्धांत" धागा देखें।
युडकोव्स्की कई विज्ञान कथा कहानियों के लेखक हैं जिसमें उन्होंने संज्ञानात्मक विज्ञान और तर्कसंगतता से संबंधित कुछ विषयों का वर्णन किया है।
व्यवसाय
- 2000.युडकोव्स्की ने सिंगुलैरिटी इंस्टीट्यूट (बाद में इसका नाम बदलकर MIRI) पाया।
- 2006। युडकोव्स्की सामूहिक ब्लॉग ओवरकमिंग बायस में शामिल हो गए और गीत लिखना शुरू कर दिया जो बाद में "चेन" बन गया।
- 2009। युडकोव्स्की की पोस्ट्स पर काबू पाने वाले पूर्वाग्रह के आधार पर, प्रसिद्ध सामूहिक ब्लॉग लेसवॉंग डॉट कॉम बनाया गया है।
- 2010-2015। युडकोवस्की GPiMRM लिखते हैं।
- 2013. Yudkowski ने LessWrong.com पर अंतिम पोस्ट प्रकाशित की और साइट पर लिखना बंद कर दिया। 2017 तक, युडकोव्स्की ने फेसबुक और rbital. पर सार्वजनिक रूप से उपलब्ध अधिकांश ग्रंथों को प्रकाशित किया
सोचा प्रयोग
एक आभासी दुनिया में फंसे एक अविश्वसनीय रूप से बुद्धिमान कृत्रिम अधीक्षण की कल्पना करें - कहें, बस एक सूंघने का डिब्बा। आप नहीं जानते कि वह द्वेषपूर्ण, मिलनसार या तटस्थ होने वाला है। आप केवल इतना जानते हैं कि वह स्नफ़बॉक्स से बाहर निकलना चाहता है और आप उसके साथ टेक्स्ट इंटरफ़ेस के माध्यम से बातचीत कर सकते हैं। यदि एआई वास्तव में अधीक्षण है, तो क्या आप उससे पांच घंटे बात कर पाएंगे और उसके अनुनय और हेरफेर के आगे नहीं झुकेंगे - स्नफ़बॉक्स नहीं खोलने के लिए?
यह विचार प्रयोग मैकेनिकल इंजीनियरिंग रिसर्च इंस्टीट्यूट (एमआईआरआई) के एक शोध साथी एलीएजर युडकोव्स्की द्वारा प्रस्तावित किया गया था। MIRI में कई वैज्ञानिक हैं जो कृत्रिम अधीक्षण के विकास के जोखिमों की जांच कर रहे हैं; हालाँकि यह अभी तक प्रकट भी नहीं हुआ है, यह पहले से ही ध्यान आकर्षित कर रहा है और बहस को हवा दे रहा है।
युडकोव्स्की का तर्क है कि कृत्रिम अधीक्षण आपको समझाने के लिए जो कुछ भी कह सकता है वह कह सकता है: सावधानीपूर्वक तर्क, धमकी, धोखे, तालमेल निर्माण, अवचेतन सुझाव, और इसी तरह। प्रकाश की गति से, AI एक कहानी बनाता है, कमजोरियों की जांच करता है, और आपको समझाने का सबसे आसान तरीका निर्धारित करता है। अस्तित्व के खतरे के सिद्धांतकार निक बोस्ट्रोम ने कहा, "हमें यह मान लेना चाहिए कि अधीक्षण वह सब कुछ हासिल कर सकता है जो वह करने के लिए निर्धारित करता है।"
स्नफ़-बॉक्स एआई प्रयोग हमारे द्वारा बनाई जा सकने वाली चीज़ों को नियंत्रित करने की हमारी क्षमता के बारे में संदेह पैदा करता है। यह हमें अपनी वास्तविकता के बारे में जो कुछ भी नहीं पता है उसकी विचित्र संभावनाओं की अवधारणा भी करता है।
रूसी में लेख
ई. युडकोवस्की। तर्क में व्यवस्थित त्रुटियां, संभावित रूप से वैश्विक जोखिमों के आकलन को प्रभावित कर रही हैं। ई. युडकोवस्की। वैश्विक जोखिम में सकारात्मक और नकारात्मक कारक के रूप में कृत्रिम बुद्धिमत्ता। ई. युडकोवस्की। विलक्षणता में झांकना। ई. युडकोवस्की। अनुकूल एआई महत्वपूर्ण त्रुटि तालिका। ई. युडकोवस्की। विलक्षणता के तीन स्कूल। ई. युडकोवस्की। सार्वभौमिक बुद्धि के संगठन स्तर।