कृत्रिम होशियारी
आर्टिफिशियल इंटेलिजेंस ( एआई ) है बुद्धि द्वारा प्रदर्शन मशीनों , के विपरीत प्राकृतिक खुफिया मनुष्य द्वारा प्रदर्शित और जानवरों , जो चेतना और भावुकता शामिल है। पूर्व और बाद की श्रेणियों के बीच का अंतर अक्सर चुने गए संक्षिप्त नाम से पता चलता है। 'मजबूत' एआई को आमतौर पर कृत्रिम सामान्य बुद्धि (एजीआई) के रूप में लेबल किया जाता है जबकि 'प्राकृतिक' बुद्धि का अनुकरण करने के प्रयासों को कृत्रिम जैविक बुद्धि (एबीआई) कहा जाता है। अग्रणी एआई पाठ्यपुस्तकें क्षेत्र को " बुद्धिमान एजेंटों " के अध्ययन के रूप में परिभाषित करती हैं": कोई भी उपकरण जो अपने पर्यावरण को मानता है और अपने लक्ष्यों को प्राप्त करने की संभावना को अधिकतम करने वाली कार्रवाई करता है। [3] बोलचाल की भाषा में, "कृत्रिम बुद्धिमत्ता" शब्द का प्रयोग अक्सर उन मशीनों का वर्णन करने के लिए किया जाता है जो "संज्ञानात्मक" कार्यों की नकल करते हैं जो मनुष्य मानव मन के साथ जुड़ते हैं , जैसे "सीखना" और "समस्या समाधान"। [४]
जैसे-जैसे मशीनें तेजी से सक्षम होती जाती हैं, "खुफिया" की आवश्यकता वाले कार्यों को अक्सर एआई की परिभाषा से हटा दिया जाता है, एक घटना जिसे एआई प्रभाव के रूप में जाना जाता है । [५] टेस्लर के प्रमेय में एक चुटकी कहती है, "एआई वह है जो अभी तक नहीं किया गया है।" [६] उदाहरण के लिए, ऑप्टिकल कैरेक्टर रिकग्निशन को अक्सर एआई मानी जाने वाली चीजों से बाहर रखा जाता है, [७] जो एक नियमित तकनीक बन गई है। [८] आम तौर पर एआई के रूप में वर्गीकृत आधुनिक मशीन क्षमताओं में मानव भाषण को सफलतापूर्वक समझना , [९] रणनीतिक गेम सिस्टम (जैसे शतरंज और गो ) में उच्चतम स्तर पर प्रतिस्पर्धा करना , [१०] और अपूर्ण-सूचना वाले गेम जैसे पोकर , [११] शामिल हैं। ] सेल्फ-ड्राइविंग कार , सामग्री वितरण नेटवर्क में इंटेलिजेंट रूटिंग , और सैन्य सिमुलेशन . [12]
कृत्रिम बुद्धिमत्ता की स्थापना 1955 में एक अकादमिक अनुशासन के रूप में की गई थी, और उसके बाद के वर्षों में आशावाद की कई लहरों का अनुभव किया है, [१३] [१४] इसके बाद निराशा और धन की हानि (जिसे " एआई विंटर " के रूप में जाना जाता है ), [१५] [१६] इसके बाद नए दृष्टिकोण, सफलता और नए सिरे से वित्त पोषण। [14] [17] के बाद AlphaGo 2015 में एक पेशेवर जाओ खिलाड़ी को हरा दिया, कृत्रिम बुद्धि एक बार फिर से बड़े पैमाने पर दुनिया का ध्यान आकर्षित किया। [१८] अपने अधिकांश इतिहास के लिए, एआई अनुसंधान को उप-क्षेत्रों में विभाजित किया गया है जो अक्सर एक दूसरे के साथ संवाद करने में विफल होते हैं। [१९] ये उप-क्षेत्र तकनीकी विचारों पर आधारित हैं, जैसे कि विशेष लक्ष्य (जैसे " रोबोटिक्स " या " मशीन लर्निंग "), [२०] विशेष उपकरणों का उपयोग (" तर्क " या कृत्रिम तंत्रिका नेटवर्क ), या गहरा दार्शनिक मतभेद। [२३] [२४] [२५] उप-क्षेत्र भी सामाजिक कारकों (विशेष संस्थानों या विशेष शोधकर्ताओं के काम) पर आधारित रहे हैं। [19]
एआई अनुसंधान की पारंपरिक समस्याओं (या लक्ष्यों) में तर्क , ज्ञान प्रतिनिधित्व , योजना , सीखना , प्राकृतिक भाषा प्रसंस्करण , धारणा और वस्तुओं को स्थानांतरित करने और हेरफेर करने की क्षमता शामिल है। [२०] एजीआई क्षेत्र के दीर्घकालिक लक्ष्यों में से एक है। [२६] दृष्टिकोण में सांख्यिकीय तरीके , कम्प्यूटेशनल इंटेलिजेंस और पारंपरिक प्रतीकात्मक एआई शामिल हैं । एआई में कई उपकरणों का उपयोग किया जाता है, जिसमें खोज और गणितीय अनुकूलन के संस्करण, कृत्रिम तंत्रिका नेटवर्क और सांख्यिकी, संभाव्यता और अर्थशास्त्र पर आधारित विधियां शामिल हैं। एआई क्षेत्र कंप्यूटर विज्ञान , सूचना इंजीनियरिंग , गणित , मनोविज्ञान , भाषा विज्ञान , दर्शन और कई अन्य क्षेत्रों पर आधारित है।
क्षेत्र की स्थापना इस धारणा पर की गई थी कि मानव बुद्धि "इतनी सटीक रूप से वर्णित की जा सकती है कि इसे अनुकरण करने के लिए एक मशीन बनाई जा सकती है"। [२७] यह मन और मानव जैसी बुद्धि से संपन्न कृत्रिम प्राणियों के निर्माण की नैतिकता के बारे में दार्शनिक तर्कों को जन्म देता है। इन मुद्दों को प्राचीन काल से मिथक , कल्पना और दर्शन द्वारा खोजा गया है । [३२] कुछ लोग एआई को मानवता के लिए खतरा मानते हैं यदि यह निरंतर प्रगति करता है। [३३] [३४] दूसरों का मानना है कि एआई, पिछली तकनीकी क्रांतियों के विपरीत, बड़े पैमाने पर बेरोजगारी का जोखिम पैदा करेगा । [35]
इक्कीसवीं सदी में, एआई तकनीकों ने कंप्यूटर शक्ति , बड़ी मात्रा में डेटा और सैद्धांतिक समझ में समवर्ती प्रगति के बाद पुनरुत्थान का अनुभव किया है ; और एआई तकनीक प्रौद्योगिकी उद्योग का एक अनिवार्य हिस्सा बन गए हैं , जो कंप्यूटर विज्ञान, सॉफ्टवेयर इंजीनियरिंग और संचालन अनुसंधान में कई चुनौतीपूर्ण समस्याओं को हल करने में मदद करते हैं । [36] [17]
इतिहास

विचार-सक्षम कृत्रिम प्राणी पुरातनता में कहानी कहने वाले उपकरणों के रूप में प्रकट हुए , [३७] और कल्पना में सामान्य रहे हैं, जैसा कि मैरी शेली के फ्रेंकस्टीन या कारेल कैपेक के आरयूआर [३८] में इन पात्रों और उनके भाग्य ने अब एक ही तरह के कई मुद्दों को उठाया है। कृत्रिम बुद्धि की नैतिकता में चर्चा की । [32]
यांत्रिक या "औपचारिक" तर्क का अध्ययन पुरातनता में दार्शनिकों और गणितज्ञों के साथ शुरू हुआ । गणितीय तर्क के अध्ययन के लिए सीधे नेतृत्व एलन ट्यूरिंग की गणना के सिद्धांत है, जो सुझाव दिया है कि एक मशीन, "0" और "1" के रूप में सरल रूप में प्रतीकों फेरबदल से, गणितीय कटौती के किसी भी बोधगम्य अधिनियम अनुकरण कर सकते हैं। यह अंतर्दृष्टि, कि डिजिटल कंप्यूटर औपचारिक तर्क की किसी भी प्रक्रिया का अनुकरण कर सकते हैं, चर्च-ट्यूरिंग थीसिस के रूप में जाना जाता है । [३९] न्यूरोबायोलॉजी , सूचना सिद्धांत और साइबरनेटिक्स में समवर्ती खोजों के साथ , इसने शोधकर्ताओं को इलेक्ट्रॉनिक मस्तिष्क के निर्माण की संभावना पर विचार करने के लिए प्रेरित किया। ट्यूरिंग ने इस सवाल को बदलने का प्रस्ताव दिया कि क्या मशीन बुद्धिमान थी, "क्या मशीनरी के लिए बुद्धिमान व्यवहार दिखाना संभव है या नहीं"। [४०] पहला काम जिसे अब आम तौर पर एआई के रूप में मान्यता प्राप्त है, वह था मैककुलुच और पिट्स का 1943 का ट्यूरिंग-पूर्ण "कृत्रिम न्यूरॉन्स" के लिए औपचारिक डिजाइन । [41]
एआई अनुसंधान के क्षेत्र का जन्म 1956 में डार्टमाउथ कॉलेज में एक कार्यशाला में हुआ था , [42] जहां जॉन मैकार्थी द्वारा "आर्टिफिशियल इंटेलिजेंस" शब्द को साइबरनेटिक्स से क्षेत्र को अलग करने और साइबरनेटिसिस्ट नॉर्बर्ट वीनर के प्रभाव से बचने के लिए गढ़ा गया था । [४३] सहभागी एलन नेवेल ( सीएमयू ), हर्बर्ट साइमन (सीएमयू), जॉन मैकार्थी ( एमआईटी ), मार्विन मिन्स्की (एमआईटी) और आर्थर सैमुअल ( आईबीएम ) एआई अनुसंधान के संस्थापक और नेता बने। [४४] उन्होंने और उनके छात्रों ने ऐसे कार्यक्रम तैयार किए जिन्हें प्रेस ने "आश्चर्यजनक" के रूप में वर्णित किया: [४५] कंप्यूटर चेकर्स रणनीति सीख रहे थे (सी। १९५४) [४६] (और १९५९ तक औसत मानव की तुलना में बेहतर खेल रहे थे), [४७ ] बीजगणित में शब्द समस्याओं को हल करना, तार्किक प्रमेयों को सिद्ध करना ( लॉजिक थ्योरिस्ट , फर्स्ट रन c. 1956) और अंग्रेजी बोलना। [४८] १९६० के दशक के मध्य तक, अमेरिका में अनुसंधान को रक्षा विभाग [४९] द्वारा भारी मात्रा में वित्त पोषित किया गया था और दुनिया भर में प्रयोगशालाओं की स्थापना की गई थी। [५०] एआई के संस्थापक भविष्य के बारे में आशावादी थे: हर्बर्ट साइमन ने भविष्यवाणी की, "मशीनें बीस वर्षों के भीतर किसी भी काम को करने में सक्षम होंगी जो एक आदमी कर सकता है"। मार्विन मिन्स्की ने सहमति व्यक्त करते हुए लिखा, "एक पीढ़ी के भीतर ... 'कृत्रिम बुद्धिमत्ता' बनाने की समस्या काफी हद तक हल हो जाएगी"। [13]
वे शेष कुछ कार्यों की कठिनाई को पहचानने में विफल रहे। प्रगति धीमी हो गई और १९७४ में, सर जेम्स लाइटहिल [५१] की आलोचना और अधिक उत्पादक परियोजनाओं के लिए अमेरिकी कांग्रेस के चल रहे दबाव के जवाब में, अमेरिका और ब्रिटिश दोनों सरकारों ने एआई में खोजपूर्ण अनुसंधान को काट दिया। अगले कुछ वर्षों को बाद में " एआई विंटर " कहा जाएगा , [१५] एक ऐसा समय जब एआई परियोजनाओं के लिए धन प्राप्त करना कठिन था।
1980 के दशक की शुरुआत में, विशेषज्ञ प्रणालियों की व्यावसायिक सफलता से एआई अनुसंधान को पुनर्जीवित किया गया था , [५२] एआई कार्यक्रम का एक रूप जो मानव विशेषज्ञों के ज्ञान और विश्लेषणात्मक कौशल का अनुकरण करता था। 1985 तक, AI का बाजार एक बिलियन डॉलर से अधिक तक पहुंच गया था। उसी समय, जापान की पांचवीं पीढ़ी के कंप्यूटर प्रोजेक्ट ने अमेरिकी और ब्रिटिश सरकारों को अकादमिक शोध के लिए धन बहाल करने के लिए प्रेरित किया । [१४] हालांकि, १९८७ में लिस्प मशीन बाजार के पतन के साथ , एआई एक बार फिर बदनाम हो गया, और दूसरा, लंबे समय तक चलने वाला अंतराल शुरू हुआ। [16]
के विकास के धातु-आक्साइड-अर्धचालक (एमओएस) बहुत-बड़े पैमाने पर एकीकरण (वीएलएसआई), के रूप में पूरक राज्यमंत्री (CMOS) ट्रांजिस्टर प्रौद्योगिकी, व्यावहारिक के विकास के सक्षम कृत्रिम तंत्रिका नेटवर्क 1980 के दशक में (एएनएन) प्रौद्योगिकी। क्षेत्र में एक ऐतिहासिक प्रकाशन कार्वर ए मीड और मोहम्मद इस्माइल द्वारा 1989 की पुस्तक एनालॉग वीएलएसआई इंप्लीमेंटेशन ऑफ न्यूरल सिस्टम्स थी । [53]
1990 के दशक के अंत और 21वीं सदी की शुरुआत में, AI का उपयोग रसद, डेटा माइनिंग , चिकित्सा निदान और अन्य क्षेत्रों के लिए किया जाने लगा। [३६] बढ़ती कम्प्यूटेशनल शक्ति ( मूर के नियम और ट्रांजिस्टर की गिनती देखें ), विशिष्ट समस्याओं को हल करने पर अधिक जोर, एआई और अन्य क्षेत्रों (जैसे सांख्यिकी , अर्थशास्त्र और गणित ) के बीच नए संबंधों और शोधकर्ताओं द्वारा प्रतिबद्धता के कारण सफलता मिली। गणितीय तरीके और वैज्ञानिक मानक। [५४] डीप ब्लू ११ मई १९९७ को एक विश्व शतरंज चैंपियन गैरी कास्परोव को हराने वाला पहला कंप्यूटर शतरंज खेलने वाला सिस्टम बन गया। [५५]
2011 में, एक खतरे में! क्विज शो प्रदर्शनी मैच, आईबीएम के सवाल का जवाब प्रणाली , वाटसन , दो सबसे बड़े खतरे को हरा दिया ! चैंपियन, ब्रैड रटर और केन जेनिंग्स , एक महत्वपूर्ण अंतर से। [५६] तेज कंप्यूटर , एल्गोरिथम सुधार, और बड़ी मात्रा में डेटा तक पहुंच मशीन सीखने और धारणा में सक्षम प्रगति ; डेटा-भूख गहरी सीखने के तरीके 2012 के आसपास सटीकता बेंचमार्क पर हावी होने लगे । [57] Kinect , जिसके लिए एक 3 डी शरीर गति इंटरफेस प्रदान करता है 360 और Xbox वन , एल्गोरिदम कि लंबा ऐ अनुसंधान से उभरा का उपयोग करता है [58] के रूप में करते हैं बुद्धिमान व्यक्तिगत सहायकों में स्मार्टफोन । [५९] मार्च २०१६ में, अल्फागो ने गो चैंपियन ली सेडोल के साथ एक मैच में गो के ५ में से ४ गेम जीते , बिना किसी बाधा के पेशेवर गो खिलाड़ी को हराने वाला पहला कंप्यूटर गो- प्लेइंग सिस्टम बन गया । [१०] [६०] २०१७ के फ्यूचर ऑफ गो समिट में , अल्फा गो ने के जी के साथ तीन-गेम मैच जीता , [६१] जिसने उस समय लगातार दो साल तक दुनिया की नंबर १ रैंकिंग पर कब्जा किया। [६२] [६३] डीप ब्लू के मरे कैंपबेल ने अल्फागो की जीत को "एक युग का अंत... बोर्ड गेम कमोबेश पूरा कर लिया है [६४] और यह आगे बढ़ने का समय है।" [६५] इसने आर्टिफिशियल इंटेलिजेंस के विकास में एक महत्वपूर्ण मील का पत्थर पूरा किया क्योंकि गो एक अपेक्षाकृत जटिल खेल है, शतरंज से भी ज्यादा। बाद में AlphaGo में सुधार किया गया, जिसे अल्फ़ाज़ेरो के साथ शतरंज जैसे अन्य खेलों के लिए सामान्यीकृत किया गया ; [६६] और मुज़ेरो [६७] कई अलग-अलग वीडियो गेम खेलने के लिए , जिन्हें पहले अलग से संभाला जाता था, [६८] बोर्ड गेम के अलावा। अन्य प्रोग्राम अपूर्ण-सूचना गेम को संभालते हैं ; जैसे कि अलौकिक स्तर पर पोकर के लिए , प्लुरिबस (पोकर बॉट) [69] और सेफियस (पोकर बॉट) । [११] देखें: सामान्य खेल खेलना ।
ब्लूमबर्ग के जैक क्लार्क के अनुसार , 2015 कृत्रिम बुद्धिमत्ता के लिए एक ऐतिहासिक वर्ष था, Google के भीतर एआई का उपयोग करने वाले सॉफ़्टवेयर प्रोजेक्ट्स की संख्या 2012 में "छिटपुट उपयोग" से बढ़कर 2,700 से अधिक हो गई। क्लार्क छवि प्रसंस्करण कार्यों में कम त्रुटि दर द्वारा समर्थित 2012 के बाद से एआई के सुधारों का संकेत देने वाला तथ्यात्मक डेटा भी प्रस्तुत करता है। [७०] वह क्लाउड कंप्यूटिंग बुनियादी ढांचे में वृद्धि और अनुसंधान उपकरणों और डेटासेट में वृद्धि के कारण किफायती तंत्रिका नेटवर्क में वृद्धि के लिए इसका श्रेय देता है । [१७] अन्य उद्धृत उदाहरणों में माइक्रोसॉफ्ट का एक स्काइप सिस्टम का विकास शामिल है जो स्वचालित रूप से एक भाषा से दूसरी भाषा में अनुवाद कर सकता है और फेसबुक का सिस्टम जो नेत्रहीन लोगों को छवियों का वर्णन कर सकता है। [७०] २०१७ के एक सर्वेक्षण में, पांच कंपनियों में से एक ने बताया कि उन्होंने "कुछ पेशकशों या प्रक्रियाओं में एआई को शामिल किया है"। [७१] [७२] २०१६ के आसपास, चीन ने अपनी सरकारी फंडिंग में काफी तेजी लाई; डेटा की बड़ी आपूर्ति और इसके तेजी से बढ़ते अनुसंधान आउटपुट को देखते हुए, कुछ पर्यवेक्षकों का मानना है कि यह "एआई महाशक्ति" बनने की राह पर हो सकता है। [73] [74]
2020 तक, प्राकृतिक भाषा प्रसंस्करण प्रणाली जैसे कि विशाल GPT-3 (तब अब तक का सबसे बड़ा कृत्रिम तंत्रिका नेटवर्क) पहले से मौजूद बेंचमार्क पर मानव प्रदर्शन से मेल खा रहा था, भले ही सिस्टम बेंचमार्क की सामग्री की सामान्य समझ प्राप्त करने के बिना। [७५] डीपमाइंड के अल्फाफोल्ड २ (२०२०) ने प्रोटीन की ३डी संरचना को महीनों के बजाय घंटों में निर्धारित करने की क्षमता का प्रदर्शन किया। चेहरे की पहचान वहां तक पहुंच गई है, जहां कुछ परिस्थितियों में, कुछ सिस्टम 99% सटीकता दर होने का दावा करते हैं। [76]
मूल बातें
कंप्यूटर विज्ञान एआई अनुसंधान को " बुद्धिमान एजेंटों " के अध्ययन के रूप में परिभाषित करता है : कोई भी उपकरण जो अपने पर्यावरण को मानता है और ऐसे कार्य करता है जो अपने लक्ष्यों को सफलतापूर्वक प्राप्त करने की संभावना को अधिकतम करते हैं। [३] एक अधिक विस्तृत परिभाषा एआई को "बाहरी डेटा की सही ढंग से व्याख्या करने, ऐसे डेटा से सीखने और लचीले अनुकूलन के माध्यम से विशिष्ट लक्ष्यों और कार्यों को प्राप्त करने के लिए उन सीखों का उपयोग करने की क्षमता" के रूप में एआई की विशेषता है। [77]
एक विशिष्ट एआई अपने पर्यावरण का विश्लेषण करता है और ऐसे कार्य करता है जो इसकी सफलता की संभावना को अधिकतम करते हैं। [३] एक एआई का इच्छित उपयोगिता फ़ंक्शन (या लक्ष्य) सरल हो सकता है ("१ अगर एआई गो का गेम जीतता है , अन्यथा ०") या जटिल ("गणितीय रूप से उन कार्यों को निष्पादित करें जो अतीत में सफल हुए थे")। लक्ष्यों को स्पष्ट रूप से परिभाषित या प्रेरित किया जा सकता है। यदि एआई को " सुदृढीकरण सीखने " के लिए प्रोग्राम किया गया है, तो कुछ प्रकार के व्यवहार को पुरस्कृत करने या दूसरों को दंडित करने के द्वारा लक्ष्यों को निहित रूप से प्रेरित किया जा सकता है। [ए] वैकल्पिक रूप से, एक विकासवादी प्रणाली उच्च स्कोरिंग एआई सिस्टम को उत्परिवर्तित और अधिमानतः दोहराने के लिए " फिटनेस फ़ंक्शन " का उपयोग करके लक्ष्यों को प्रेरित कर सकती है , इसी तरह जानवरों को भोजन खोजने जैसे कुछ लक्ष्यों को सहज रूप से विकसित करने के लिए विकसित किया गया था। [७८] कुछ एआई सिस्टम, जैसे निकटतम-पड़ोसी, सादृश्य के कारण के बजाय, इन प्रणालियों को आम तौर पर लक्ष्य नहीं दिए जाते हैं, सिवाय इसके कि लक्ष्य उनके प्रशिक्षण डेटा में निहित हैं। [७९] ऐसी प्रणालियों को अभी भी बेंचमार्क किया जा सकता है यदि गैर-लक्ष्य प्रणाली को एक ऐसी प्रणाली के रूप में तैयार किया जाता है जिसका "लक्ष्य" अपने संकीर्ण वर्गीकरण कार्य को पूरा करना है। [80]
एआई अक्सर एल्गोरिदम के उपयोग के इर्द-गिर्द घूमता है । एक एल्गोरिदम स्पष्ट निर्देशों का एक सेट है जिसे एक यांत्रिक कंप्यूटर निष्पादित कर सकता है। [बी] एक जटिल एल्गोरिदम अक्सर अन्य, सरल, एल्गोरिदम के शीर्ष पर बनाया जाता है। एक एल्गोरिथ्म का एक सरल उदाहरण टिक-टैक-टो पर खेलने के लिए निम्नलिखित (प्रथम खिलाड़ी के लिए इष्टतम) नुस्खा है : [81]
- यदि किसी को "खतरा" है (अर्थात, एक पंक्ति में दो), तो शेष वर्ग लें। अन्यथा,
- यदि कोई चाल एक साथ दो खतरे पैदा करने के लिए "कांटा" है, तो उस चाल को चलाएं। अन्यथा,
- केंद्र वर्ग लें यदि यह मुफ़्त है। अन्यथा,
- यदि आपका प्रतिद्वंद्वी एक कोने में खेलता है, तो विपरीत कोने को लें। अन्यथा,
- यदि कोई मौजूद है तो एक खाली कोना लें। अन्यथा,
- कोई भी खाली वर्ग लें।
कई एआई एल्गोरिदम डेटा से सीखने में सक्षम हैं; वे नए अनुमान (रणनीतियों, या "अंगूठे के नियम", जो अतीत में अच्छी तरह से काम कर चुके हैं) सीखकर खुद को बढ़ा सकते हैं , या स्वयं अन्य एल्गोरिदम लिख सकते हैं। नीचे वर्णित कुछ "शिक्षार्थी", जिनमें बायेसियन नेटवर्क, निर्णय पेड़ और निकटतम पड़ोसी शामिल हैं, सैद्धांतिक रूप से, (अनंत डेटा, समय और स्मृति को देखते हुए) किसी भी फ़ंक्शन का अनुमान लगाना सीख सकते हैं , जिसमें गणितीय कार्यों का संयोजन सबसे अच्छा वर्णन करेगा विश्व। [ उद्धरण वांछित ] इसलिए ये शिक्षार्थी हर संभव परिकल्पना पर विचार करके और डेटा के साथ उनका मिलान करके सभी संभव ज्ञान प्राप्त कर सकते हैं। व्यवहार में, " संयोजनीय विस्फोट " की घटना के कारण, हर संभावना पर विचार करना शायद ही कभी संभव होता है , जहां किसी समस्या को हल करने के लिए आवश्यक समय तेजी से बढ़ता है। एआई के अधिकांश शोध में यह पता लगाना शामिल है कि कैसे फायदेमंद होने की संभावना की एक विस्तृत श्रृंखला पर विचार करने से बचें और कैसे बचें। [८२] [८३] उदाहरण के लिए, नक्शा देखते समय और पूर्व में डेनवर से न्यूयॉर्क तक के सबसे छोटे ड्राइविंग मार्ग की तलाश में, ज्यादातर मामलों में कोई भी सैन फ्रांसिस्को या पश्चिम के अन्य क्षेत्रों के माध्यम से किसी भी रास्ते को देखना छोड़ सकता है; इस प्रकार, ए * जैसे पथदर्शी एल्गोरिदम को चलाने वाला एआई संयोजन विस्फोट से बच सकता है जो सुनिश्चित करेगा कि हर संभव मार्ग पर विचार किया जाना चाहिए। [84]
एआई के लिए सबसे प्रारंभिक (और समझने में आसान) दृष्टिकोण प्रतीकात्मकता (जैसे औपचारिक तर्क) था: "यदि अन्यथा स्वस्थ वयस्क को बुखार है, तो उन्हें इन्फ्लूएंजा हो सकता है "। एक दूसरा, अधिक सामान्य, दृष्टिकोण बायेसियन अनुमान है : "यदि वर्तमान रोगी को बुखार है, तो इस संभावना को समायोजित करें कि उनके पास इस तरह से इन्फ्लूएंजा है"। तीसरा प्रमुख दृष्टिकोण, नियमित व्यापार एआई अनुप्रयोगों में बेहद लोकप्रिय, एसवीएम और निकटतम-पड़ोसी जैसे एनालॉग हैं : "पिछले ज्ञात रोगियों के रिकॉर्ड की जांच करने के बाद जिनके तापमान, लक्षण, आयु और अन्य कारक ज्यादातर वर्तमान रोगी से मेल खाते हैं, एक्स% उन रोगियों में इन्फ्लूएंजा निकला"। चौथा दृष्टिकोण सहज रूप से समझना कठिन है, लेकिन यह इस बात से प्रेरित है कि मस्तिष्क की मशीनरी कैसे काम करती है: कृत्रिम तंत्रिका नेटवर्क दृष्टिकोण कृत्रिम " न्यूरॉन्स " का उपयोग करता है जो खुद को वांछित आउटपुट से तुलना करके और अपने आंतरिक न्यूरॉन्स के बीच कनेक्शन की ताकत को बदलकर सीख सकता है। उपयोगी प्रतीत होने वाले कनेक्शनों को "मजबूत" करने के लिए। ये चार मुख्य दृष्टिकोण एक दूसरे के साथ और विकासवादी प्रणालियों के साथ ओवरलैप कर सकते हैं; उदाहरण के लिए, तंत्रिका जाल अनुमान लगाना, सामान्यीकरण करना और सादृश्य बनाना सीख सकते हैं। कुछ सिस्टम कई अन्य एआई और गैर-एआई एल्गोरिदम के साथ-साथ इनमें से कई दृष्टिकोणों का स्पष्ट रूप से या स्पष्ट रूप से उपयोग करते हैं; समस्या के आधार पर सबसे अच्छा तरीका अक्सर अलग होता है। [85] [86]
लर्निंग एल्गोरिदम इस आधार पर काम करते हैं कि अतीत में अच्छी तरह से काम करने वाली रणनीतियों, एल्गोरिदम और अनुमानों के भविष्य में भी अच्छी तरह से काम करना जारी रखने की संभावना है। ये निष्कर्ष स्पष्ट हो सकते हैं, जैसे "चूंकि पिछले १०,००० दिनों से हर सुबह सूरज उगता है, यह शायद कल सुबह भी उदय होगा"। उन्हें बारीक किया जा सकता है, जैसे "X% परिवारों में भौगोलिक रूप से अलग-अलग प्रजातियां होती हैं, इसलिए Y% संभावना है कि अनदेखे काले हंस मौजूद हैं"। शिक्षार्थी " ओकाम के उस्तरा " के आधार पर भी काम करते हैं : डेटा की व्याख्या करने वाला सबसे सरल सिद्धांत सबसे अधिक संभावना है। इसलिए, ओकाम के उस्तरा सिद्धांत के अनुसार, एक शिक्षार्थी को इस तरह से डिजाइन किया जाना चाहिए कि वह जटिल सिद्धांतों के लिए सरल सिद्धांतों को प्राथमिकता देता है, सिवाय उन मामलों को छोड़कर जहां जटिल सिद्धांत काफी हद तक बेहतर साबित होता है।

पिछले सभी प्रशिक्षण डेटा को फिट करने के लिए एक खराब, अत्यधिक जटिल सिद्धांत पर समझौता करना ओवरफिटिंग के रूप में जाना जाता है । कई प्रणालियाँ किसी सिद्धांत को डेटा को कितनी अच्छी तरह फिट करती हैं, उसके अनुसार पुरस्कृत करके ओवरफिटिंग को कम करने का प्रयास करती हैं, लेकिन सिद्धांत को कितना जटिल है, इसके अनुसार सिद्धांत को दंडित करना। [८७] क्लासिक ओवरफिटिंग के अलावा, शिक्षार्थी "गलत पाठ सीखकर" निराश भी कर सकते हैं। एक खिलौना उदाहरण यह है कि केवल भूरे घोड़ों और काली बिल्लियों के चित्रों पर प्रशिक्षित एक छवि वर्गीकरणकर्ता यह निष्कर्ष निकाल सकता है कि सभी भूरे रंग के पैच घोड़े होने की संभावना है। [८८] एक वास्तविक दुनिया का उदाहरण यह है कि, मनुष्यों के विपरीत, वर्तमान छवि वर्गीकरणकर्ता अक्सर चित्र के घटकों के बीच स्थानिक संबंध से निर्णय नहीं लेते हैं, और वे पिक्सेल के बीच संबंध सीखते हैं जिससे मनुष्य अनजान हैं, लेकिन यह अभी भी सहसंबद्ध है कुछ प्रकार की वास्तविक वस्तुओं की छवियों के साथ। एक वैध छवि पर इन पैटर्नों को संशोधित करने के परिणामस्वरूप "प्रतिकूल" छवियां हो सकती हैं जिन्हें सिस्टम गलत वर्गीकृत करता है। [सी] [८९] [९०]

मनुष्यों की तुलना में, मौजूदा AI में मानव " कॉमनसेंस रीजनिंग " की कई विशेषताओं का अभाव है ; सबसे विशेष रूप से, मनुष्यों के पास " भोले भौतिकी " जैसे अंतरिक्ष, समय और भौतिक अंतःक्रियाओं के बारे में तर्क करने के लिए शक्तिशाली तंत्र हैं । यह छोटे बच्चों को भी आसानी से निष्कर्ष निकालने में सक्षम बनाता है जैसे "अगर मैं इस कलम को एक टेबल से रोल करता हूं, तो यह फर्श पर गिर जाएगा"। मनुष्यों के पास " लोक मनोविज्ञान " का एक शक्तिशाली तंत्र भी है जो उन्हें प्राकृतिक-भाषा के वाक्यों की व्याख्या करने में मदद करता है जैसे "नगर पार्षदों ने प्रदर्शनकारियों को अनुमति देने से इनकार कर दिया क्योंकि उन्होंने हिंसा की वकालत की थी" (एक सामान्य एआई को यह समझने में कठिनाई होती है कि क्या वकालत करने का आरोप लगाया गया है) हिंसा पार्षद या प्रदर्शनकारी हैं [९१] [९२] [९३] )। "सामान्य ज्ञान" की कमी का मतलब है कि एआई अक्सर इंसानों की तुलना में अलग-अलग गलतियाँ करता है, इस तरह से जो समझ से बाहर हो सकता है। उदाहरण के लिए, मौजूदा सेल्फ-ड्राइविंग कारें स्थान के बारे में और न ही पैदल चलने वालों के इरादों के बारे में ठीक उसी तरह से तर्क कर सकती हैं जैसे मनुष्य करते हैं, और इसके बजाय दुर्घटनाओं से बचने के लिए तर्क के गैर-मानवीय तरीकों का उपयोग करना चाहिए। [९४] [९५] [९६]
चुनौतियों
वर्तमान आर्किटेक्चर की संज्ञानात्मक क्षमताएं बहुत सीमित हैं, केवल एक सरलीकृत संस्करण का उपयोग करके जो बुद्धि वास्तव में सक्षम है। उदाहरण के लिए, मानव मन माप से परे तर्क करने के तरीके और जीवन में विभिन्न घटनाओं के लिए तार्किक स्पष्टीकरण के साथ आया है। जो अन्यथा सीधा होता, एक समान रूप से कठिन समस्या मानव मन का उपयोग करने के विपरीत कम्प्यूटेशनल रूप से हल करना चुनौतीपूर्ण हो सकता है। यह मॉडल के दो वर्गों को जन्म देता है: संरचनावादी और कार्यात्मकवादी। संरचनात्मक मॉडल का उद्देश्य तर्क और तर्क जैसे दिमाग के बुनियादी खुफिया संचालन की नकल करना है। कार्यात्मक मॉडल अपने परिकलित समकक्ष से संबंधित डेटा को संदर्भित करता है। [97]
आर्टिफिशियल इंटेलिजेंस का समग्र शोध लक्ष्य ऐसी तकनीक बनाना है जो कंप्यूटर और मशीनों को बुद्धिमान तरीके से कार्य करने की अनुमति दे। बुद्धि का अनुकरण (या सृजन) करने की सामान्य समस्या को उप-समस्याओं में विभाजित कर दिया गया है। इनमें विशेष लक्षण या क्षमताएं शामिल हैं जो शोधकर्ता एक बुद्धिमान प्रणाली को प्रदर्शित करने की अपेक्षा करते हैं। नीचे वर्णित लक्षणों पर सबसे अधिक ध्यान दिया गया है। [20]
तर्क, समस्या समाधान problem
प्रारंभिक शोधकर्ताओं ने एल्गोरिदम विकसित किए जो चरण-दर-चरण तर्क का अनुकरण करते हैं जो मनुष्य पहेली को हल करते समय या तार्किक कटौती करते समय उपयोग करते हैं। [९८] १९८० और १९९० के दशक के अंत तक, एआई अनुसंधान ने अनिश्चित या अधूरी जानकारी से निपटने के लिए तरीकों का विकास किया था , संभाव्यता और अर्थशास्त्र से अवधारणाओं को नियोजित किया । [99]
ये एल्गोरिदम बड़ी तर्क समस्याओं को हल करने के लिए अपर्याप्त साबित हुए क्योंकि उन्होंने "कॉम्बिनेटरियल विस्फोट" का अनुभव किया: जैसे-जैसे समस्याएं बड़ी होती गईं, वे तेजी से धीमी हो गईं। [८२] यहां तक कि मनुष्य भी शायद ही कभी चरण-दर-चरण कटौती का उपयोग करते हैं जो प्रारंभिक एआई अनुसंधान मॉडल कर सकता है। वे तेज, सहज ज्ञान युक्त निर्णयों का उपयोग करके अपनी अधिकांश समस्याओं का समाधान करते हैं। [१००]
ज्ञान निरूपण

ज्ञान का प्रतिनिधित्व [१०१] और ज्ञान इंजीनियरिंग [१०२] शास्त्रीय एआई अनुसंधान के लिए केंद्रीय हैं। कुछ "विशेषज्ञ प्रणालियाँ" कुछ संकीर्ण डोमेन के विशेषज्ञों के पास मौजूद स्पष्ट ज्ञान को इकट्ठा करने का प्रयास करती हैं। इसके अलावा, कुछ परियोजनाएं दुनिया के बारे में व्यापक ज्ञान वाले डेटाबेस में औसत व्यक्ति को ज्ञात "सामान्य ज्ञान" को इकट्ठा करने का प्रयास करती हैं। चीजों के बीच एक व्यापक सामान्य ज्ञान के आधार में शामिल होंगे: वस्तुएं, गुण, श्रेणियां और वस्तुओं के बीच संबंध; [१०३] स्थितियां, घटनाएं, राज्य और समय; [१०४] कारण और प्रभाव; [१०५] ज्ञान के बारे में ज्ञान (जो दूसरे लोग जानते हैं उसके बारे में हम क्या जानते हैं); [१०६] और कई अन्य, कम शोधित डोमेन। "क्या मौजूद है" का एक प्रतिनिधित्व एक ऑन्कोलॉजी है : औपचारिक रूप से वर्णित वस्तुओं, संबंधों, अवधारणाओं और गुणों का सेट ताकि सॉफ्टवेयर एजेंट उनकी व्याख्या कर सकें। इनमें से शब्दार्थ को विवरण तर्क अवधारणाओं, भूमिकाओं और व्यक्तियों के रूप में कैप्चर किया जाता है , और आमतौर पर वेब ओन्टोलॉजी भाषा में वर्गों, गुणों और व्यक्तियों के रूप में लागू किया जाता है । [१०७] सबसे सामान्य ऑन्कोलॉजी को अपर ऑन्कोलॉजी कहा जाता है , जो डोमेन ऑन्कोलॉजी के बीच मध्यस्थ के रूप में कार्य करके अन्य सभी ज्ञान [१०८] के लिए एक आधार प्रदान करने का प्रयास करता है जो एक विशेष ज्ञान डोमेन (रुचि का क्षेत्र या चिंता का क्षेत्र) के बारे में विशिष्ट ज्ञान को कवर करता है। . इस तरह के औपचारिक ज्ञान अभ्यावेदन का उपयोग सामग्री-आधारित अनुक्रमण और पुनर्प्राप्ति में किया जा सकता है, [१०९] दृश्य व्याख्या, [११०] नैदानिक निर्णय समर्थन, [१११] ज्ञान की खोज (बड़े डेटाबेस से खनन "दिलचस्प" और कार्रवाई योग्य निष्कर्ष), [११२] और अन्य क्षेत्र। [113]
ज्ञान प्रतिनिधित्व में सबसे कठिन समस्याओं में से हैं:
- डिफ़ॉल्ट तर्क और योग्यता समस्या
- बहुत सी बातें जो लोग जानते हैं वे "कामकाजी धारणाओं" का रूप ले लेती हैं। उदाहरण के लिए, यदि कोई पक्षी बातचीत में आता है, तो लोग आम तौर पर एक मुट्ठी के आकार के जानवर की तस्वीर लेते हैं जो गाता और उड़ता है। इनमें से कोई भी बात सभी पक्षियों के बारे में सच नहीं है। जॉन मैकार्थी ने 1969 में इस समस्या की पहचान की [114] योग्यता समस्या के रूप में: किसी भी सामान्य ज्ञान के नियम के लिए जिसे एआई शोधकर्ता प्रतिनिधित्व करना चाहते हैं, बड़ी संख्या में अपवाद होते हैं। अमूर्त तर्क की आवश्यकता के अनुसार लगभग कुछ भी सही या गलत नहीं है। एआई अनुसंधान ने इस समस्या के कई समाधान खोजे हैं। [११५]
- सामान्य ज्ञान का विस्तार
- परमाणु तथ्यों की संख्या जो औसत व्यक्ति जानता है वह बहुत बड़ी है। अनुसंधान परियोजनाओं की एक पूरी जानकारी आधार बनाने के लिए प्रयास commonsense ज्ञान (जैसे, Cyc ) श्रमसाध्य से भारी मात्रा की आवश्यकता होती है सत्तामूलक इंजीनियरिंग , वे का निर्माण किया जाना चाहिए, हाथ से, एक समय में एक जटिल अवधारणा। [116]
- कुछ सामान्य ज्ञान का उपप्रतीकात्मक रूप form
- लोग जो जानते हैं उनमें से अधिकांश को "तथ्यों" या "बयानों" के रूप में प्रस्तुत नहीं किया जाता है जिसे वे मौखिक रूप से व्यक्त कर सकते हैं। उदाहरण के लिए, एक शतरंज मास्टर एक विशेष शतरंज की स्थिति से बच जाएगा क्योंकि यह "बहुत उजागर महसूस करता है" [117] या एक कला समीक्षक एक मूर्ति पर एक नज़र डाल सकता है और महसूस कर सकता है कि यह नकली है। [११८] ये मानव मस्तिष्क में अचेतन और उप-प्रतीकात्मक अंतर्ज्ञान या प्रवृत्तियां हैं। [११९] इस तरह का ज्ञान प्रतीकात्मक, सचेत ज्ञान के लिए सूचना देता है, समर्थन करता है और एक संदर्भ प्रदान करता है। उप-प्रतीकात्मक तर्क की संबंधित समस्या के साथ, यह आशा की जाती है कि स्थित एआई , कम्प्यूटेशनल इंटेलिजेंस , या सांख्यिकीय एआई इस ज्ञान का प्रतिनिधित्व करने के तरीके प्रदान करेगा। [११९]
योजना

बुद्धिमान एजेंटों को लक्ष्य निर्धारित करने और उन्हें प्राप्त करने में सक्षम होना चाहिए। [१२०] उन्हें भविष्य की कल्पना करने के लिए एक तरीके की आवश्यकता है - दुनिया की स्थिति का प्रतिनिधित्व और इस बारे में भविष्यवाणियां करने में सक्षम हों कि उनके कार्य इसे कैसे बदलेंगे - और ऐसे विकल्प बनाने में सक्षम होंगे जो उपयोगिता (या "मूल्य") को अधिकतम करें। उपलब्ध विकल्पों में से। [१२१]
शास्त्रीय नियोजन समस्याओं में, एजेंट यह मान सकता है कि यह दुनिया में अभिनय करने वाली एकमात्र प्रणाली है, जिससे एजेंट को अपने कार्यों के परिणामों के बारे में निश्चित होने की अनुमति मिलती है। [१२२] हालांकि, अगर एजेंट ही एकमात्र अभिनेता नहीं है, तो यह आवश्यक है कि एजेंट अनिश्चितता के तहत तर्क कर सकता है। यह एक ऐसे एजेंट की मांग करता है जो न केवल अपने पर्यावरण का आकलन कर सकता है और भविष्यवाणियां कर सकता है बल्कि इसकी भविष्यवाणियों का मूल्यांकन भी कर सकता है और इसके मूल्यांकन के आधार पर अनुकूलन कर सकता है। [123]
बहु-एजेंट योजना किसी दिए गए लक्ष्य को प्राप्त करने के लिए कई एजेंटों के सहयोग और प्रतिस्पर्धा का उपयोग करती है । इस तरह के आकस्मिक व्यवहार का उपयोग विकासवादी एल्गोरिदम और झुंड की बुद्धि द्वारा किया जाता है । [१२४]
सीख रहा हूँ

मशीन लर्निंग (एमएल), क्षेत्र की स्थापना के बाद से एआई अनुसंधान की एक मौलिक अवधारणा है, [डी] कंप्यूटर एल्गोरिदम का अध्ययन है जो अनुभव के माध्यम से स्वचालित रूप से सुधार करता है। [ई] [127]
बिना पर्यवेक्षित शिक्षण इनपुट की एक धारा में पैटर्न खोजने की क्षमता है, बिना किसी मानव को पहले इनपुट को लेबल करने की आवश्यकता होती है। पर्यवेक्षित शिक्षण में वर्गीकरण और संख्यात्मक प्रतिगमन दोनों शामिल हैं , जिसके लिए मानव को पहले इनपुट डेटा को लेबल करने की आवश्यकता होती है। वर्गीकरण का उपयोग यह निर्धारित करने के लिए किया जाता है कि कुछ किस श्रेणी में आता है, और तब होता है जब एक कार्यक्रम कई श्रेणियों से चीजों के कई उदाहरण देखता है। रिग्रेशन एक ऐसा फ़ंक्शन तैयार करने का प्रयास है जो इनपुट और आउटपुट के बीच संबंधों का वर्णन करता है और भविष्यवाणी करता है कि इनपुट बदलने के साथ आउटपुट कैसे बदलना चाहिए। [१२७] क्लासिफायरियर और रिग्रेशन लर्नर्स दोनों को एक अज्ञात (संभवतः निहित) फ़ंक्शन सीखने की कोशिश कर रहे "फ़ंक्शन सन्निकटन" के रूप में देखा जा सकता है; उदाहरण के लिए, एक स्पैम क्लासिफायरियर को एक ऐसे फ़ंक्शन को सीखने के रूप में देखा जा सकता है जो ईमेल के टेक्स्ट से दो श्रेणियों में से एक "स्पैम" या "स्पैम नहीं" में मैप करता है। कम्प्यूटेशनल लर्निंग थ्योरी , कम्प्यूटेशनल जटिलता द्वारा, नमूना जटिलता (कितना डेटा आवश्यक है), या अनुकूलन की अन्य धारणाओं द्वारा शिक्षार्थियों का आकलन कर सकता है । [128] में सुदृढीकरण सीखने [129] एजेंट अच्छा प्रतिक्रिया के लिए पुरस्कृत किया और बुरे लोगों के लिए दंडित किया गया है। एजेंट अपने समस्या स्थान में संचालन के लिए रणनीति बनाने के लिए पुरस्कारों और दंडों के इस क्रम का उपयोग करता है।
प्राकृतिक भाषा प्रसंस्करण

प्राकृतिक भाषा प्रसंस्करण [१३०] (एनएलपी) मशीनों को मानव भाषा को पढ़ने और समझने की अनुमति देता है । एक पर्याप्त रूप से शक्तिशाली प्राकृतिक भाषा प्रसंस्करण प्रणाली प्राकृतिक-भाषा के उपयोगकर्ता इंटरफेस और मानव-लिखित स्रोतों से सीधे ज्ञान प्राप्त करने में सक्षम होगी , जैसे कि न्यूजवायर टेक्स्ट। प्राकृतिक भाषा प्रसंस्करण के कुछ सरल अनुप्रयोगों में सूचना पुनर्प्राप्ति , पाठ खनन , प्रश्न उत्तर और मशीनी अनुवाद शामिल हैं । [१३१] कई मौजूदा दृष्टिकोण पाठ के वाक्य-विन्यास के निर्माण के लिए शब्द सह-घटना आवृत्तियों का उपयोग करते हैं। खोज के लिए "कीवर्ड स्पॉटिंग" रणनीति लोकप्रिय और मापनीय लेकिन गूंगा हैं; "कुत्ते" के लिए एक खोज क्वेरी केवल शाब्दिक शब्द "कुत्ते" वाले दस्तावेज़ों से मेल खा सकती है और "पूडल" शब्द वाला दस्तावेज़ छूट सकता है। "लेक्सिकल एफ़िनिटी" रणनीतियाँ किसी दस्तावेज़ की भावना का आकलन करने के लिए "दुर्घटना" जैसे शब्दों की घटना का उपयोग करती हैं । आधुनिक सांख्यिकीय एनएलपी दृष्टिकोण इन सभी रणनीतियों के साथ-साथ अन्य को भी जोड़ सकते हैं, और अक्सर पृष्ठ या पैराग्राफ स्तर पर स्वीकार्य सटीकता प्राप्त करते हैं। सिमेंटिक एनएलपी से परे, "कथा" एनएलपी का अंतिम लक्ष्य कॉमनसेंस रीजनिंग की पूरी समझ को मूर्त रूप देना है। [१३२] २०१९ तक, ट्रांसफॉर्मर- आधारित डीप लर्निंग आर्किटेक्चर सुसंगत पाठ उत्पन्न कर सकते हैं। [133]
अनुभूति

मशीन धारणा [134] दुनिया के पहलुओं को निकालने के लिए सेंसर (जैसे कैमरे (दृश्यमान स्पेक्ट्रम या अवरक्त), माइक्रोफोन, वायरलेस सिग्नल, और सक्रिय लिडार , सोनार, रडार और स्पर्श सेंसर ) से इनपुट का उपयोग करने की क्षमता है । अनुप्रयोगों में वाक् पहचान , [135] चेहरे की पहचान , और वस्तु पहचान शामिल हैं । [१३६] कंप्यूटर विज़न दृश्य इनपुट का विश्लेषण करने की क्षमता है। ऐसा इनपुट आमतौर पर अस्पष्ट होता है; एक विशाल, पचास मीटर लंबा पैदल यात्री पास के सामान्य आकार के पैदल यात्री के समान पिक्सेल उत्पन्न कर सकता है, जिसके लिए एआई को विभिन्न व्याख्याओं की सापेक्ष संभावना और तर्कसंगतता का न्याय करने की आवश्यकता होती है, उदाहरण के लिए अपने "ऑब्जेक्ट मॉडल" का उपयोग करके इसका आकलन करने के लिए पचास मीटर पैदल चलने वाले मौजूद नहीं हैं। [१३७]
गति और हेरफेर
रोबोटिक्स में एआई का खूब इस्तेमाल होता है। [१३८] आधुनिक कारखानों में व्यापक रूप से उपयोग किए जाने वाले उन्नत रोबोटिक हथियार और अन्य औद्योगिक रोबोट , घर्षण और गियर फिसलन की उपस्थिति के बावजूद कुशलता से आगे बढ़ने के अनुभव से सीख सकते हैं। [१३९] एक आधुनिक मोबाइल रोबोट, जब एक छोटा, स्थिर और दृश्य वातावरण दिया जाता है, तो वह आसानी से अपना स्थान निर्धारित कर सकता है और इसके पर्यावरण को मैप कर सकता है; हालांकि, गतिशील वातावरण, जैसे ( एंडोस्कोपी में ) रोगी के सांस लेने वाले शरीर का आंतरिक भाग, एक बड़ी चुनौती पेश करता है। मोशन प्लानिंग एक आंदोलन कार्य को "आदिम" जैसे व्यक्तिगत संयुक्त आंदोलनों में तोड़ने की प्रक्रिया है। इस तरह के आंदोलन में अक्सर आज्ञाकारी गति शामिल होती है, एक ऐसी प्रक्रिया जहां आंदोलन को किसी वस्तु के साथ शारीरिक संपर्क बनाए रखने की आवश्यकता होती है। [१४०] [१४१] [१४२] मोरवेक का विरोधाभास सामान्य करता है कि निम्न-स्तरीय सेंसरिमोटर कौशल जो मनुष्य को प्रदान किए जाते हैं, एक रोबोट में प्रोग्राम करना मुश्किल है; विरोधाभास का नाम हंस मोरावेक के नाम पर रखा गया है , जिन्होंने 1988 में कहा था कि "कंप्यूटर को खुफिया परीक्षणों या चेकर्स खेलने पर वयस्क स्तर के प्रदर्शन को प्रदर्शित करना तुलनात्मक रूप से आसान है, और उन्हें एक साल के कौशल को देना मुश्किल या असंभव है जब यह धारणा और गतिशीलता के लिए आता है"। [१४३] [१४४] इसका श्रेय इस तथ्य को जाता है कि, चेकर्स के विपरीत, शारीरिक निपुणता लाखों वर्षों से प्राकृतिक चयन का प्रत्यक्ष लक्ष्य रही है । [145]
सामाजिक बुद्धिमत्ता

Moravec के विरोधाभास को सामाजिक बुद्धि के कई रूपों तक बढ़ाया जा सकता है। [१४७] [१४८] स्वायत्त वाहनों का वितरित बहु-एजेंट समन्वय एक कठिन समस्या बनी हुई है। [१४९] प्रभावी कंप्यूटिंग एक अंतःविषय छाता है जिसमें सिस्टम शामिल हैं जो मानव प्रभावों को पहचानते हैं, व्याख्या करते हैं, प्रक्रिया करते हैं या अनुकरण करते हैं । [१५०] [१५१] [१५२] भावात्मक कंप्यूटिंग से संबंधित मध्यम सफलताओं में टेक्स्ट सेंटीमेंट विश्लेषण और, हाल ही में, मल्टीमॉडल प्रभाव विश्लेषण ( मल्टीमॉडल सेंटीमेंट विश्लेषण देखें ) शामिल हैं, जिसमें एआई एक वीडियो टेप विषय द्वारा प्रदर्शित प्रभावों को वर्गीकृत करता है। [१५३]
लंबे समय में, सामाजिक कौशल और मानवीय भावनाओं और गेम थ्योरी की समझ एक सामाजिक एजेंट के लिए मूल्यवान होगी। दूसरों के कार्यों की भविष्यवाणी करने की क्षमता उनके उद्देश्यों और भावनात्मक अवस्थाओं को समझकर एक एजेंट को बेहतर निर्णय लेने की अनुमति देगा। कुछ कंप्यूटर सिस्टम मानवीय भावनाओं और अभिव्यक्तियों की नकल करते हैं ताकि वे मानवीय अंतःक्रिया की भावनात्मक गतिशीलता के प्रति अधिक संवेदनशील दिखाई दें, या अन्यथा मानव-कंप्यूटर संपर्क को सुविधाजनक बनाने के लिए । [१५४] इसी तरह, कुछ आभासी सहायकों को संवादात्मक रूप से बोलने के लिए या यहां तक कि विनोदपूर्वक मजाक करने के लिए प्रोग्राम किया जाता है; यह भोले उपयोगकर्ताओं को एक अवास्तविक अवधारणा देता है कि मौजूदा कंप्यूटर एजेंट वास्तव में कितने बुद्धिमान हैं। [155]
सामान्य बुद्धि
ऐतिहासिक रूप से, Cyc नॉलेज बेस (1984-) और बड़े पैमाने पर जापानी पांचवीं पीढ़ी के कंप्यूटर सिस्टम पहल (1982-1992) जैसी परियोजनाओं ने मानव अनुभूति की चौड़ाई को कवर करने का प्रयास किया। ये प्रारंभिक परियोजनाएं गैर-मात्रात्मक प्रतीकात्मक तर्क मॉडल की सीमाओं से बचने में विफल रहीं और, पूर्व-निरीक्षण में, क्रॉस-डोमेन एआई की कठिनाई को बहुत कम करके आंका। आजकल, अधिकांश वर्तमान एआई शोधकर्ता ट्रैक्टेबल "संकीर्ण एआई" अनुप्रयोगों (जैसे चिकित्सा निदान या ऑटोमोबाइल नेविगेशन) पर काम करते हैं। [१५६] कई शोधकर्ता भविष्यवाणी करते हैं कि विभिन्न अलग-अलग डोमेन में इस तरह के "संकीर्ण एआई" काम को अंततः कृत्रिम सामान्य बुद्धि (एजीआई) के साथ एक मशीन में शामिल किया जाएगा , जो इस लेख में वर्णित अधिकांश संकीर्ण कौशल और कुछ बिंदु पर मानव क्षमता से भी अधिक है। अधिकांश या इन सभी क्षेत्रों में। [२६] [१५७] कई अग्रिमों का सामान्य, क्रॉस-डोमेन महत्व है। एक हाई-प्रोफाइल उदाहरण यह है कि 2010 के दशक में डीपमाइंड ने एक "सामान्यीकृत कृत्रिम बुद्धिमत्ता" विकसित की, जो अपने आप कई विविध अटारी खेल सीख सकती थी , और बाद में सिस्टम का एक प्रकार विकसित किया जो क्रमिक सीखने में सफल होता है । [१५८] [१५९] [१६०] ट्रांसफर लर्निंग के अलावा , [१६१] काल्पनिक एजीआई सफलताओं में चिंतनशील आर्किटेक्चर का विकास शामिल हो सकता है जो निर्णय-सैद्धांतिक मेटारीज़निंग में संलग्न हो सकते हैं, और यह पता लगा सकते हैं कि कैसे एक व्यापक ज्ञान आधार को "स्लप अप" किया जाए। संपूर्ण असंरचित वेब . [१६२] कुछ लोगों का तर्क है कि कुछ (वर्तमान में अनदेखा) अवधारणात्मक रूप से सीधा, लेकिन गणितीय रूप से कठिन, "मास्टर एल्गोरिथम" एजीआई को जन्म दे सकता है। [१६३] अंत में, कुछ "आकस्मिक" दृष्टिकोण मानव बुद्धि को बहुत बारीकी से अनुकरण करने के लिए देखते हैं, और मानते हैं कि कृत्रिम मस्तिष्क या नकली बाल विकास जैसी मानवजनित विशेषताएं किसी दिन एक महत्वपूर्ण बिंदु तक पहुंच सकती हैं जहां सामान्य बुद्धि उभरती है। [१६४] [१६५]
इस लेख में कई समस्याओं के लिए सामान्य बुद्धि की भी आवश्यकता हो सकती है, अगर मशीनों को समस्याओं को हल करना है और साथ ही लोगों को भी करना है। उदाहरण के लिए, मशीनी अनुवाद जैसे विशिष्ट सरल कार्यों के लिए भी आवश्यक है कि एक मशीन दोनों भाषाओं ( एनएलपी ) में पढ़े और लिखे , लेखक के तर्क ( कारण ) का पालन करें , जानें कि किस बारे में बात की जा रही है ( ज्ञान ), और ईमानदारी से लेखक के मूल को पुन: पेश करें इरादा ( सामाजिक खुफिया )। मशीनी अनुवाद जैसी समस्या को " एआई-पूर्ण " माना जाता है , क्योंकि मानव-स्तरीय मशीन प्रदर्शन तक पहुंचने के लिए इन सभी समस्याओं को एक साथ हल करने की आवश्यकता होती है।
दृष्टिकोण
कोई स्थापित एकीकृत सिद्धांत या प्रतिमान एआई अनुसंधान का मार्गदर्शन नहीं करता है। शोधकर्ता कई मुद्दों पर असहमत हैं। [च] कुछ सबसे लंबे समय से अनुत्तरित प्रश्न हैं जो अनुत्तरित हैं: क्या कृत्रिम बुद्धि को मनोविज्ञान या तंत्रिका जीव विज्ञान का अध्ययन करके प्राकृतिक बुद्धि का अनुकरण करना चाहिए ? या मानव जीव विज्ञान एआई अनुसंधान के लिए उतना ही अप्रासंगिक है जितना कि पक्षी जीव विज्ञान वैमानिकी इंजीनियरिंग के लिए है ? [२३] क्या सरल, सुरुचिपूर्ण सिद्धांतों (जैसे तर्क या अनुकूलन ) का उपयोग करके बुद्धिमान व्यवहार का वर्णन किया जा सकता है ? या क्या इसके लिए आवश्यक रूप से बड़ी संख्या में असंबंधित समस्याओं को हल करने की आवश्यकता है? [24]
साइबरनेटिक्स और मस्तिष्क सिमुलेशन
1940 और 1950 के दशक में, कई शोधकर्ताओं ने न्यूरोबायोलॉजी , सूचना सिद्धांत और साइबरनेटिक्स के बीच संबंध का पता लगाया । उनमें से कुछ ने ऐसी मशीनों का निर्माण किया जो अल्पविकसित बुद्धि को प्रदर्शित करने के लिए इलेक्ट्रॉनिक नेटवर्क का उपयोग करती थीं, जैसे डब्ल्यू ग्रे वाल्टर के कछुए और जॉन्स हॉपकिन्स बीस्ट । इनमें से कई शोधकर्ता प्रिंसटन विश्वविद्यालय में टेलीलॉजिकल सोसायटी और इंग्लैंड में रेशियो क्लब की बैठकों के लिए एकत्रित हुए । [१६७] १९६० तक, इस दृष्टिकोण को काफी हद तक छोड़ दिया गया था, हालांकि इसके तत्वों को १९८० के दशक में पुनर्जीवित किया जाएगा।
प्रतीकात्मक
जब 1950 के दशक के मध्य में डिजिटल कंप्यूटर तक पहुंच संभव हो गई, तो एआई अनुसंधान ने इस संभावना का पता लगाना शुरू कर दिया कि मानव बुद्धि को प्रतीक हेरफेर के लिए कम किया जा सकता है। शोध तीन संस्थानों में केंद्रित था: कार्नेगी मेलॉन विश्वविद्यालय , स्टैनफोर्ड , और एमआईटी , और जैसा कि नीचे वर्णित है, प्रत्येक ने अनुसंधान की अपनी शैली विकसित की है। जॉन हाउगलैंड ने इन प्रतीकात्मक दृष्टिकोणों को AI "अच्छे पुराने जमाने का AI" या " GOFAI " नाम दिया। [१६८] १९६० के दशक के दौरान, प्रतीकात्मक दृष्टिकोणों ने छोटे प्रदर्शन कार्यक्रमों में उच्च स्तरीय "सोच" का अनुकरण करने में बड़ी सफलता हासिल की थी। साइबरनेटिक्स या कृत्रिम तंत्रिका नेटवर्क पर आधारित दृष्टिकोणों को छोड़ दिया गया या पृष्ठभूमि में धकेल दिया गया। [छ] १९६० और १९७० के दशक में शोधकर्ताओं को विश्वास था कि प्रतीकात्मक दृष्टिकोण अंततः कृत्रिम सामान्य बुद्धि के साथ एक मशीन बनाने में सफल होंगे और इसे अपने क्षेत्र का लक्ष्य माना।
संज्ञानात्मक अनुकरण
अर्थशास्त्री हर्बर्ट साइमन और एलन नेवेल ने मानव समस्या-सुलझाने के कौशल का अध्ययन किया और उन्हें औपचारिक रूप देने का प्रयास किया, और उनके काम ने कृत्रिम बुद्धि के क्षेत्र के साथ-साथ संज्ञानात्मक विज्ञान , संचालन अनुसंधान और प्रबंधन विज्ञान की नींव रखी । उनकी शोध टीम ने मनोवैज्ञानिक प्रयोगों के परिणामों का उपयोग उन कार्यक्रमों को विकसित करने के लिए किया जो उन तकनीकों का अनुकरण करते थे जिनका उपयोग लोग समस्याओं को हल करने के लिए करते थे। कार्नेगी मेलॉन विश्वविद्यालय में केंद्रित यह परंपरा अंततः 1980 के दशक के मध्य में सोअर वास्तुकला के विकास में समाप्त होगी । [१६९] [१७०]
तर्क के आधार पर
साइमन और नेवेल के विपरीत, जॉन मैककार्थी ने महसूस किया कि मशीनों को मानवीय विचारों का अनुकरण करने की आवश्यकता नहीं है, बल्कि इसके बजाय अमूर्त तर्क और समस्या-समाधान का सार खोजने की कोशिश करनी चाहिए, भले ही लोगों ने समान एल्गोरिदम का उपयोग किया हो। [२३] स्टैनफोर्ड ( सेल ) में उनकी प्रयोगशाला ने ज्ञान प्रतिनिधित्व , योजना और सीखने सहित विभिन्न प्रकार की समस्याओं को हल करने के लिए औपचारिक तर्क का उपयोग करने पर ध्यान केंद्रित किया । [१७१] एडिनबर्ग विश्वविद्यालय और यूरोप में कहीं और काम का फोकस लॉजिक भी था जिसके कारण प्रोग्रामिंग भाषा प्रोलॉग और लॉजिक प्रोग्रामिंग के विज्ञान का विकास हुआ । [172]
तर्क-विरोधी या कर्कश
एमआईटी के शोधकर्ताओं (जैसे मार्विन मिन्स्की और सीमोर पैपर्ट ) [173] ने पाया कि दृष्टि और प्राकृतिक भाषा प्रसंस्करण में कठिन समस्याओं को हल करने के लिए तदर्थ समाधान की आवश्यकता होती है - उन्होंने तर्क दिया कि कोई भी सरल और सामान्य सिद्धांत (जैसे तर्क ) बुद्धिमान के सभी पहलुओं पर कब्जा नहीं करेगा। व्यवहार। रोजर शैंक ने अपने "एंटी-लॉजिक" दृष्टिकोणों को " स्क्रूफी " ( सीएमयू और स्टैनफोर्ड में " स्वच्छ " प्रतिमानों के विपरीत) के रूप में वर्णित किया । [२४] कॉमनसेंस नॉलेज बेस (जैसे डौग लेनैट का साइक ) "स्क्रूफी" एआई का एक उदाहरण है, क्योंकि उन्हें हाथ से बनाया जाना चाहिए, एक समय में एक जटिल अवधारणा। [१७४]
ज्ञान आधारित
जब 1970 के आसपास बड़ी मेमोरी वाले कंप्यूटर उपलब्ध हो गए, तो तीनों परंपराओं के शोधकर्ताओं ने एआई अनुप्रयोगों में ज्ञान का निर्माण करना शुरू कर दिया । [१७५] इस "ज्ञान क्रांति" ने विशेषज्ञ प्रणालियों के विकास और तैनाती का नेतृत्व किया ( एडवर्ड फीगेनबाम द्वारा पेश किया गया ), एआई सॉफ्टवेयर का पहला सही मायने में सफल रूप। [५२] सभी विशेषज्ञ प्रणालियों के लिए सिस्टम आर्किटेक्चर का एक प्रमुख घटक ज्ञान का आधार है, जो एआई को दर्शाने वाले तथ्यों और नियमों को संग्रहीत करता है। [१७६] ज्ञान क्रांति भी इस अहसास से प्रेरित थी कि कई सरल एआई अनुप्रयोगों के लिए भारी मात्रा में ज्ञान की आवश्यकता होगी।
उप-प्रतीकात्मक
1980 के दशक तक, प्रतीकात्मक एआई में प्रगति रुक गई थी और कई लोगों का मानना था कि प्रतीकात्मक प्रणाली कभी भी मानव अनुभूति की सभी प्रक्रियाओं, विशेष रूप से धारणा , रोबोटिक्स, सीखने और पैटर्न की पहचान की नकल करने में सक्षम नहीं होगी । कई शोधकर्ताओं ने विशिष्ट एआई समस्याओं के लिए "उप-प्रतीकात्मक" दृष्टिकोणों को देखना शुरू किया। [२५] उप-प्रतीकात्मक तरीके ज्ञान के विशिष्ट प्रतिनिधित्व के बिना खुफिया तक पहुंचने का प्रबंधन करते हैं।
सन्निहित बुद्धि
इसमें सन्निहित , स्थित , व्यवहार-आधारित , और नूवेल AI शामिल है । रॉडने ब्रूक्स जैसे रोबोटिक्स के संबंधित क्षेत्र के शोधकर्ताओं ने प्रतीकात्मक एआई को खारिज कर दिया और बुनियादी इंजीनियरिंग समस्याओं पर ध्यान केंद्रित किया जो रोबोट को स्थानांतरित करने और जीवित रहने की अनुमति देगी। [१७७] उनके काम ने १९५० के दशक के शुरुआती साइबरनेटिक्स शोधकर्ताओं के गैर-प्रतीकात्मक दृष्टिकोण को पुनर्जीवित किया और एआई में नियंत्रण सिद्धांत के उपयोग को फिर से शुरू किया । यह संज्ञानात्मक विज्ञान के संबंधित क्षेत्र में सन्निहित मन थीसिस के विकास के साथ मेल खाता है : यह विचार कि उच्च बुद्धि के लिए शरीर के पहलुओं (जैसे आंदोलन, धारणा और दृश्य) की आवश्यकता होती है।
विकासात्मक रोबोटिक्स के भीतर , रोबोट को स्वायत्त आत्म-अन्वेषण, मानव शिक्षकों के साथ सामाजिक संपर्क, और मार्गदर्शन तंत्र (सक्रिय शिक्षण, परिपक्वता, मोटर तालमेल, आदि) के उपयोग के माध्यम से उपन्यास कौशल के प्रदर्शनों की सूची जमा करने की अनुमति देने के लिए विकासात्मक सीखने के दृष्टिकोण को विस्तृत किया गया है। [१७८] [१७९] [१८०] [१८१]
कम्प्यूटेशनल इंटेलिजेंस और सॉफ्ट कंप्यूटिंग
में रुचि तंत्रिका नेटवर्क और " Connectionism " द्वारा पुनर्जीवित किया गया था डेविड रूमेलहार्ट 1980 के दशक के मध्य में और अन्य। [१८२] कृत्रिम तंत्रिका नेटवर्क सॉफ्ट कंप्यूटिंग का एक उदाहरण हैं - वे उन समस्याओं का समाधान हैं जिन्हें पूर्ण तार्किक निश्चितता के साथ हल नहीं किया जा सकता है, और जहां एक अनुमानित समाधान अक्सर पर्याप्त होता है। एआई के अन्य सॉफ्ट कंप्यूटिंग दृष्टिकोणों में फ़ज़ी सिस्टम , ग्रे सिस्टम थ्योरी , विकासवादी गणना और कई सांख्यिकीय उपकरण शामिल हैं। एआई के लिए सॉफ्ट कंप्यूटिंग के अनुप्रयोग का कम्प्यूटेशनल इंटेलिजेंस के उभरते अनुशासन द्वारा सामूहिक रूप से अध्ययन किया जाता है । [१८३]
सांख्यिकीय
अधिकांश पारंपरिक GOFAI प्रतीकात्मक गणना के लिए तदर्थ पैच पर फंस गए, जो उनके अपने खिलौना मॉडल पर काम करते थे लेकिन वास्तविक दुनिया के परिणामों को सामान्य बनाने में विफल रहे। हालांकि, 1990 के दशक के आसपास, AI शोधकर्ताओं ने प्रतिस्पर्धी आर्किटेक्चर की तुलना करने या एकीकृत करने के लिए छिपे हुए मार्कोव मॉडल (HMM), सूचना सिद्धांत , और मानक बायेसियन निर्णय सिद्धांत जैसे परिष्कृत गणितीय उपकरणों को अपनाया । साझा गणितीय भाषा ने अधिक स्थापित क्षेत्रों (जैसे गणित , अर्थशास्त्र या संचालन अनुसंधान ) के साथ उच्च स्तर के सहयोग की अनुमति दी । [h] GOFAI की तुलना में, नई "सांख्यिकीय शिक्षा" तकनीक जैसे HMM और तंत्रिका नेटवर्क डेटा माइनिंग जैसे कई व्यावहारिक डोमेन में उच्च स्तर की सटीकता प्राप्त कर रहे थे , बिना आवश्यक रूप से डेटासेट की अर्थपूर्ण समझ प्राप्त किए। वास्तविक दुनिया के डेटा के साथ बढ़ी हुई सफलताओं ने साझा परीक्षण डेटा के खिलाफ विभिन्न दृष्टिकोणों की तुलना करने पर जोर दिया, यह देखने के लिए कि कौन सा दृष्टिकोण व्यापक संदर्भ में सबसे अच्छा प्रदर्शन करता है, जो कि विशिष्ट खिलौना मॉडल द्वारा प्रदान किया गया है; एआई अनुसंधान अधिक वैज्ञानिक होता जा रहा था । आजकल प्रयोगों के परिणाम अक्सर कठोरता से मापने योग्य होते हैं, और कभी-कभी (कठिनाई के साथ) प्रतिलिपि प्रस्तुत करने योग्य होते हैं। [५४] [१८४] विभिन्न सांख्यिकीय शिक्षण तकनीकों की अलग-अलग सीमाएं हैं; उदाहरण के लिए, मूल HMM प्राकृतिक भाषा के अनंत संभव संयोजनों का मॉडल नहीं बना सकता है। [१८५] आलोचकों का कहना है कि GOFAI से सांख्यिकीय शिक्षा में बदलाव अक्सर समझाने योग्य AI से भी दूर होता है । एजीआई अनुसंधान में, कुछ विद्वान सांख्यिकीय शिक्षा पर अधिक निर्भरता के प्रति आगाह करते हैं, और तर्क देते हैं कि सामान्य बुद्धि प्राप्त करने के लिए GOFAI में निरंतर शोध अभी भी आवश्यक होगा। [१८६] [१८७]
दृष्टिकोणों को एकीकृत करना
- बुद्धिमान एजेंट प्रतिमान
- एक बुद्धिमान एजेंट एक ऐसी प्रणाली है जो अपने पर्यावरण को देखती है और ऐसी कार्रवाई करती है जो इसकी सफलता की संभावना को अधिकतम करती है। सरलतम बुद्धिमान एजेंट ऐसे प्रोग्राम होते हैं जो विशिष्ट समस्याओं को हल करते हैं। अधिक जटिल एजेंटों में मानव और मानव के संगठन (जैसे फर्म ) शामिल हैं। प्रतिमान शोधकर्ताओं को अलग-अलग समस्याओं के लिए अलग-अलग दृष्टिकोणों की तुलना या यहां तक कि गठबंधन करने की अनुमति देता है, यह पूछकर कि कौन सा एजेंट किसी दिए गए "लक्ष्य फ़ंक्शन" को अधिकतम करने में सबसे अच्छा है। एक एजेंट जो किसी विशिष्ट समस्या को हल करता है वह किसी भी दृष्टिकोण का उपयोग कर सकता है जो काम करता है- कुछ एजेंट प्रतीकात्मक और तार्किक होते हैं, कुछ उप-प्रतीकात्मक कृत्रिम तंत्रिका नेटवर्क होते हैं और अन्य नए दृष्टिकोण का उपयोग कर सकते हैं। प्रतिमान शोधकर्ताओं को अन्य क्षेत्रों के साथ संवाद करने के लिए एक आम भाषा भी देता है - जैसे कि निर्णय सिद्धांत और अर्थशास्त्र - जो अमूर्त एजेंटों की अवधारणाओं का भी उपयोग करते हैं। एक संपूर्ण एजेंट के निर्माण के लिए शोधकर्ताओं को एकीकरण की वास्तविक समस्याओं का समाधान करना आवश्यक है; उदाहरण के लिए, क्योंकि संवेदी प्रणालियाँ पर्यावरण के बारे में अनिश्चित जानकारी देती हैं, नियोजन प्रणालियों को अनिश्चितता की उपस्थिति में कार्य करने में सक्षम होना चाहिए। 1990 के दशक के दौरान बुद्धिमान एजेंट प्रतिमान को व्यापक रूप से स्वीकार किया गया। [१८८]
- एजेंट आर्किटेक्चर और संज्ञानात्मक आर्किटेक्चर
- शोधकर्ताओं ने एक मल्टी-एजेंट सिस्टम में इंटेलिजेंट एजेंटों से बातचीत करके इंटेलिजेंट सिस्टम बनाने के लिए सिस्टम तैयार किए हैं । [१८९] एक पदानुक्रमित नियंत्रण प्रणाली अपने निम्नतम, प्रतिक्रियाशील स्तरों पर उप-प्रतीकात्मक एआई और अपने उच्चतम स्तरों पर पारंपरिक प्रतीकात्मक एआई के बीच एक सेतु प्रदान करती है, जहां आराम से समय की कमी योजना और विश्व मॉडलिंग की अनुमति देती है। [१९०] कुछ संज्ञानात्मक संरचनाएं एक संकीर्ण समस्या को हल करने के लिए कस्टम-निर्मित हैं; अन्य, जैसे सोअर , मानव अनुभूति की नकल करने और सामान्य बुद्धि में अंतर्दृष्टि प्रदान करने के लिए डिज़ाइन किए गए हैं। सोअर के आधुनिक विस्तार हाइब्रिड इंटेलिजेंट सिस्टम हैं जिनमें प्रतीकात्मक और उप-प्रतीकात्मक दोनों घटक शामिल हैं। [९७] [१९१]
उपकरण
अनुप्रयोग
एआई किसी भी बौद्धिक कार्य के लिए प्रासंगिक है। [१९२] आधुनिक कृत्रिम बुद्धि तकनीक व्यापक हैं [१९३] और यहां सूचीबद्ध करने के लिए बहुत अधिक हैं। अक्सर, जब कोई तकनीक मुख्यधारा के उपयोग तक पहुंच जाती है, तो उसे कृत्रिम बुद्धिमत्ता नहीं माना जाता है; इस घटना को एआई प्रभाव के रूप में वर्णित किया गया है । [१९४]
एआई के हाई-प्रोफाइल उदाहरणों में स्वायत्त वाहन (जैसे ड्रोन और सेल्फ-ड्राइविंग कार ), चिकित्सा निदान, कला बनाना (जैसे कविता), गणितीय प्रमेयों को साबित करना, खेल खेलना (जैसे शतरंज या गो), खोज इंजन (जैसे) शामिल हैं। गूगल खोज ), ऑनलाइन सहायकों (जैसे सिरी ), तस्वीरों में छवि मान्यता, स्पैम फ़िल्टर, उड़ान में विलंब की भविष्यवाणी, [195] न्यायिक फैसलों की भविष्यवाणी, [196] ऑनलाइन विज्ञापनों को लक्षित, [192] [197] [198] और ऊर्जा भंडारण [199]
सोशल मीडिया साइटों के साथ युवा लोगों के लिए समाचार के स्रोत के रूप में टीवी को पछाड़ दिया और वितरण उत्पन्न करने के लिए सोशल मीडिया प्लेटफॉर्म पर तेजी से निर्भर समाचार संगठन, [200] प्रमुख प्रकाशक अब कहानियों को अधिक प्रभावी ढंग से पोस्ट करने और अधिक मात्रा में उत्पन्न करने के लिए कृत्रिम बुद्धिमत्ता (एआई) तकनीक का उपयोग करते हैं। यातायात। [201]
एआई सामग्री-परिवर्तन करने वाली तकनीक डीपफेक का भी उत्पादन कर सकता है । ZDNet रिपोर्ट करता है, "यह कुछ ऐसा प्रस्तुत करता है जो वास्तव में नहीं हुआ था," हालांकि 88% अमेरिकियों का मानना है कि डीपफेक अच्छे से अधिक नुकसान पहुंचा सकता है, उनमें से केवल 47% का मानना है कि उन्हें लक्षित किया जा सकता है। चुनावी वर्ष का उछाल झूठे राजनेता मीडिया के वीडियो की धमकियों के लिए सार्वजनिक प्रवचन भी खोलता है। [२०२]
दर्शन और नैतिकता
एआई से संबंधित तीन दार्शनिक प्रश्न हैं: [२०३]
- क्या कृत्रिम सामान्य बुद्धि संभव है; क्या कोई मशीन किसी भी समस्या को हल कर सकती है जिसे एक इंसान बुद्धि का उपयोग करके हल कर सकता है, या यदि कोई मशीन जो हासिल कर सकती है उसकी कठिन सीमाएं हैं।
- क्या बुद्धिमान मशीनें खतरनाक हैं; मनुष्य कैसे सुनिश्चित कर सकते हैं कि मशीनें नैतिक रूप से व्यवहार करें और उनका उपयोग नैतिक रूप से किया जाए।
- क्या एक मशीन में मन , चेतना और मानसिक अवस्थाएं उसी अर्थ में हो सकती हैं जैसे मनुष्य करते हैं; यदि कोई मशीन संवेदनशील हो सकती है , और इस प्रकार कुछ अधिकारों की हकदार है - और यदि कोई मशीन जानबूझकर नुकसान पहुंचा सकती है।
कृत्रिम सामान्य बुद्धि की सीमाएं
- एलन ट्यूरिंग का "विनम्र सम्मेलन"
- किसी को यह तय करने की आवश्यकता नहीं है कि क्या कोई मशीन "सोच" सकती है; किसी को केवल यह तय करने की आवश्यकता है कि क्या कोई मशीन एक इंसान की तरह समझदारी से काम ले सकती है। कृत्रिम बुद्धि से जुड़ी दार्शनिक समस्याओं के प्रति यह दृष्टिकोण ट्यूरिंग परीक्षण का आधार बनता है । [२०४]
- डार्टमाउथ प्रस्ताव
- "सीखने के हर पहलू या बुद्धि की किसी अन्य विशेषता का इतना सटीक वर्णन किया जा सकता है कि इसे अनुकरण करने के लिए एक मशीन बनाई जा सकती है।" यह अनुमान 1956 के डार्टमाउथ सम्मेलन के प्रस्ताव में छपा था। [205]
- नेवेल और साइमन की भौतिक प्रतीक प्रणाली परिकल्पना
- "भौतिक प्रतीक प्रणाली में सामान्य बुद्धिमान क्रिया के आवश्यक और पर्याप्त साधन होते हैं।" नेवेल और साइमन का तर्क है कि बुद्धि में प्रतीकों पर औपचारिक संचालन होता है। [२०६] ह्यूबर्ट ड्रेफस का तर्क है कि, इसके विपरीत, मानव विशेषज्ञता सचेत प्रतीक हेरफेर के बजाय अचेतन वृत्ति पर निर्भर करती है, और स्पष्ट प्रतीकात्मक ज्ञान के बजाय स्थिति के लिए "महसूस" करने पर निर्भर करती है। ( एआई की ड्रेफस की आलोचना देखें ।) [i] [२०८]
- गोडेलियन तर्क
- खुद गोडेल , [२०९] जॉन लुकास (१९६१ में) और रोजर पेनरोज़ (१९८९ के बाद से अधिक विस्तृत तर्क में) ने अत्यधिक तकनीकी तर्क दिए कि मानव गणितज्ञ लगातार अपने स्वयं के "गोडेल स्टेटमेंट्स" की सच्चाई को देख सकते हैं और इसलिए उनके पास कम्प्यूटेशनल क्षमताएं हैं। मैकेनिकल ट्यूरिंग मशीनों की। [२१०] हालांकि, कुछ लोग "गोडेलियन तर्कों" से सहमत नहीं हैं। [२११] [२१२] [२१३]
- कृत्रिम मस्तिष्क तर्क
- एक तर्क यह दावा करता है कि मस्तिष्क को मशीनों द्वारा अनुकरण किया जा सकता है और, क्योंकि मस्तिष्क बुद्धि का प्रदर्शन करते हैं, इन नकली दिमागों को भी बुद्धि का प्रदर्शन करना चाहिए - अहंकार, मशीनें बुद्धिमान हो सकती हैं। हंस मोरावेक , रे कुर्ज़वील और अन्य ने तर्क दिया है कि मस्तिष्क को सीधे हार्डवेयर और सॉफ़्टवेयर में कॉपी करना तकनीकी रूप से संभव है, और यह कि ऐसा अनुकरण मूल रूप से मूल के समान होगा। [१६४]
- ऐ प्रभाव
- एक परिकल्पना यह दावा करती है कि मशीनें पहले से ही बुद्धिमान हैं, लेकिन पर्यवेक्षक इसे पहचानने में विफल रहे हैं। उदाहरण के लिए, जब डीप ब्लू ने गैरी कास्पारोव को शतरंज में हराया , तो मशीन को बुद्धि का प्रदर्शन करने के रूप में वर्णित किया जा सकता है। हालांकि, दर्शक आमतौर पर एक कृत्रिम बुद्धिमत्ता कार्यक्रम के व्यवहार को यह तर्क देकर छूट देते हैं कि यह "वास्तविक" बुद्धिमत्ता नहीं है, "वास्तविक" बुद्धिमत्ता को प्रभावी रूप से परिभाषित किया जाता है, जैसा कि व्यवहार मशीनें नहीं कर सकती हैं।
नैतिक मशीनें
बुद्धिमान मशीनों में नुकसान को रोकने और जोखिमों को कम करने के लिए अपनी बुद्धि का उपयोग करने की क्षमता होती है; उनके पास दुनिया में अपने कार्यों को बेहतर ढंग से चुनने के लिए नैतिक तर्क का उपयोग करने की क्षमता हो सकती है । इस प्रकार, कृत्रिम बुद्धिमत्ता और रोबोटिक्स के लिए नीतियां तैयार करने और उन्हें विनियमित करने के लिए नीति बनाने की आवश्यकता है। [२१४] इस क्षेत्र में अनुसंधान में मशीन नैतिकता , कृत्रिम नैतिक एजेंट , अनुकूल एआई और मानवाधिकार ढांचे के निर्माण की चर्चा भी शामिल है। [२१५]
कंप्यूटर पावर एंड ह्यूमन रीज़न में जोसेफ वेइज़नबाम ने लिखा है कि एआई अनुप्रयोग, परिभाषा के अनुसार, वास्तविक मानवीय सहानुभूति का सफलतापूर्वक अनुकरण नहीं कर सकते हैं और ग्राहक सेवा या मनोचिकित्सा [जे] जैसे क्षेत्रों में एआई तकनीक का उपयोग गहराई से गुमराह किया गया था। वेइज़नबाम इस बात से भी परेशान थे कि एआई शोधकर्ता (और कुछ दार्शनिक) मानव मन को एक कंप्यूटर प्रोग्राम (एक स्थिति जिसे अब कम्प्यूटेशनलवाद के रूप में जाना जाता है ) के अलावा और कुछ नहीं देखने के लिए तैयार थे । Weizenbaum के लिए ये बिंदु बताते हैं कि AI अनुसंधान मानव जीवन का अवमूल्यन करता है। [२१७]
कृत्रिम नैतिक एजेंट
वेंडेल वैलाच ने अपनी पुस्तक मोरल मशीन्स [२१८] में कृत्रिम नैतिक एजेंटों (एएमए) की अवधारणा की शुरुआत की , वालच के लिए, एएमए कृत्रिम बुद्धिमत्ता के अनुसंधान परिदृश्य का एक हिस्सा बन गए हैं, जैसा कि इसके दो केंद्रीय प्रश्नों द्वारा निर्देशित है, जिसे वह "क्या मानवता चाहते हैं" के रूप में पहचानते हैं। कंप्यूटर्स मेकिंग मोरल डिसीजन" [२१९] और "कैन (आरओ) बॉट्स रियली बी मोरल"। [२२०] वैलाच के लिए, सवाल इस मुद्दे पर केंद्रित नहीं है कि क्या मशीनें नैतिक व्यवहार के समकक्ष प्रदर्शित कर सकती हैं, उन बाधाओं के विपरीत जो समाज एएमए के विकास पर लगा सकता है। [२२१]
मशीन नैतिकता
मशीन नैतिकता का क्षेत्र मशीनों को नैतिक सिद्धांत देने से संबंधित है, या उनके सामने आने वाली नैतिक दुविधाओं को हल करने के तरीके की खोज के लिए एक प्रक्रिया है, जो उन्हें अपने स्वयं के नैतिक निर्णय लेने के माध्यम से नैतिक रूप से जिम्मेदार तरीके से कार्य करने में सक्षम बनाता है। [२२२] मशीन एथिक्स पर एएएआई फॉल २००५ के संगोष्ठी में क्षेत्र को चित्रित किया गया था: "प्रौद्योगिकी और नैतिकता के बीच संबंधों से संबंधित पिछले शोध में काफी हद तक मानव द्वारा प्रौद्योगिकी के जिम्मेदार और गैर-जिम्मेदाराना उपयोग पर ध्यान केंद्रित किया गया है, जिसमें कुछ लोगों की दिलचस्पी है कि मानव कैसे प्राणियों को मशीनों का इलाज करना चाहिए। सभी मामलों में, केवल मनुष्य ही नैतिक तर्क में लगे हुए हैं। कम से कम कुछ मशीनों में एक नैतिक आयाम जोड़ने का समय आ गया है। मशीनों से जुड़े व्यवहार के नैतिक प्रभावों की पहचान, साथ ही हाल और संभावित मशीन स्वायत्तता में विकास, इसकी आवश्यकता है। कंप्यूटर हैकिंग के विपरीत, सॉफ्टवेयर संपत्ति के मुद्दे, गोपनीयता के मुद्दे और अन्य विषयों को सामान्य रूप से कंप्यूटर नैतिकता के लिए जिम्मेदार ठहराया जाता है, मशीन नैतिकता मानव उपयोगकर्ताओं और अन्य मशीनों के प्रति मशीनों के व्यवहार से संबंधित है। मशीन नैतिकता में अनुसंधान है स्वायत्त प्रणालियों के साथ चिंताओं को दूर करने की कुंजी - यह तर्क दिया जा सकता है कि बिना s not के स्वायत्त मशीनों की धारणा मशीन इंटेलिजेंस से संबंधित सभी भय के मूल में एक आयाम है। इसके अलावा, मशीन नैतिकता की जांच वर्तमान नैतिक सिद्धांतों के साथ समस्याओं की खोज को सक्षम कर सकती है, नैतिकता के बारे में हमारी सोच को आगे बढ़ा सकती है।" [२२३] मशीन नैतिकता को कभी-कभी मशीन नैतिकता, कम्प्यूटेशनल नैतिकता या कम्प्यूटेशनल नैतिकता के रूप में जाना जाता है। इस नवजात के विभिन्न दृष्टिकोण फ़ील्ड को एकत्रित संस्करण "मशीन एथिक्स" [२२२] में पाया जा सकता है जो मशीन एथिक्स पर एएएआई फॉल २००५ संगोष्ठी से उपजा है। [२२३]
द्वेषपूर्ण और मैत्रीपूर्ण AI
राजनीतिक वैज्ञानिक चार्ल्स टी. रुबिन का मानना है कि एआई को न तो डिजाइन किया जा सकता है और न ही परोपकारी होने की गारंटी दी जा सकती है। [२२४] उनका तर्क है कि "पर्याप्त रूप से उन्नत कोई भी परोपकार द्वेष से अप्रभेद्य हो सकता है।" मनुष्यों को यह नहीं मानना चाहिए कि मशीनें या रोबोट हमारे साथ अनुकूल व्यवहार करेंगे क्योंकि यह मानने का कोई प्राथमिक कारण नहीं है कि वे हमारी नैतिकता की प्रणाली के प्रति सहानुभूति रखेंगे, जो हमारे विशेष जीव विज्ञान (जिसे एआई साझा नहीं करेगा) के साथ विकसित हुआ है। हाइपर-इंटेलिजेंट सॉफ़्टवेयर मानवता के निरंतर अस्तित्व का समर्थन करने का निर्णय नहीं ले सकता है और इसे रोकना बेहद मुश्किल होगा। इस विषय पर हाल ही में अकादमिक प्रकाशनों में सभ्यता, मनुष्यों और ग्रह पृथ्वी के लिए जोखिमों के वास्तविक स्रोत के रूप में चर्चा की जाने लगी है।
इससे निपटने का एक प्रस्ताव यह सुनिश्चित करना है कि पहला आम तौर पर बुद्धिमान एआई ' फ्रेंडली एआई ' है और बाद में विकसित एआई को नियंत्रित करने में सक्षम होगा। कुछ सवाल हैं कि क्या इस तरह की जांच वास्तव में बनी रह सकती है।
अग्रणी एआई शोधकर्ता रॉडनी ब्रूक्स लिखते हैं, "मुझे लगता है कि अगले कुछ सौ वर्षों में कभी भी हमारे द्वारा दुर्भावनापूर्ण एआई विकसित करने के बारे में चिंता करना एक गलती है। मुझे लगता है कि चिंता बहुत वास्तविक हालिया प्रगति के बीच अंतर को अलग नहीं करने में मौलिक त्रुटि से उत्पन्न होती है। एआई के एक विशेष पहलू में और संवेदनशील स्वैच्छिक बुद्धि के निर्माण की विशालता और जटिलता में।" [225]
घातक स्वायत्त हथियार चिंता का विषय हैं। वर्तमान में, संयुक्त राज्य अमेरिका, चीन, रूस और यूनाइटेड किंगडम सहित 50+ देश युद्धक्षेत्र रोबोट पर शोध कर रहे हैं। सुपरइंटेलिजेंट एआई से जोखिम के बारे में चिंतित बहुत से लोग कृत्रिम सैनिकों और ड्रोन के उपयोग को सीमित करना चाहते हैं। [२२६]
मशीन चेतना, भावना और मन
एक ऐ प्रणाली मानव बुद्धि के सभी महत्वपूर्ण पहलुओं प्रतिकृति है, तो उस प्रणाली भी होगी संवेदनशील -will यह एक है मन जो है जागरूक अनुभवों ? यह प्रश्न मानव चेतना की प्रकृति के रूप में दार्शनिक समस्या से निकटता से संबंधित है, जिसे आमतौर पर चेतना की कठिन समस्या के रूप में जाना जाता है ।
चेतना
डेविड चाल्मर्स ने मन को समझने में दो समस्याओं की पहचान की, जिसे उन्होंने चेतना की "कठिन" और "आसान" समस्याओं का नाम दिया। [२२७] आसान समस्या यह समझना है कि मस्तिष्क कैसे संकेतों को संसाधित करता है, योजना बनाता है और व्यवहार को नियंत्रित करता है। कठिन समस्या यह बता रही है कि यह कैसा लगता है या इसे कुछ भी क्यों महसूस करना चाहिए। मानव सूचना प्रसंस्करण की व्याख्या करना आसान है, हालांकि मानव व्यक्तिपरक अनुभव को समझाना मुश्किल है।
उदाहरण के लिए, विचार करें कि क्या होता है जब किसी व्यक्ति को एक रंग नमूना दिखाया जाता है और "यह लाल है" कहकर उसकी पहचान करता है। आसान समस्या के लिए केवल मस्तिष्क में उस तंत्र को समझने की आवश्यकता होती है जो किसी व्यक्ति के लिए यह जानना संभव बनाता है कि रंग का नमूना लाल है। कठिन समस्या यह है कि लोग कुछ और भी जानते हैं—वे यह भी जानते हैं कि लाल कैसा दिखता है । (विचार करें कि जन्म से अंधा व्यक्ति यह जान सकता है कि लाल कैसा दिखता है, यह जाने बिना कुछ लाल है।) [के] हर कोई जानता है कि व्यक्तिपरक अनुभव मौजूद है, क्योंकि वे इसे हर दिन करते हैं (उदाहरण के लिए, सभी दृष्टि वाले लोग जानते हैं कि लाल कैसा दिखता है)। कठिन समस्या यह समझा रही है कि मस्तिष्क इसे कैसे बनाता है, यह क्यों मौजूद है, और यह कैसे ज्ञान और मस्तिष्क के अन्य पहलुओं से अलग है।
संगणनावाद और प्रकार्यवाद
कम्प्यूटेशनलवाद मन के दर्शन में स्थिति है कि मानव मन या मानव मस्तिष्क (या दोनों) एक सूचना प्रसंस्करण प्रणाली है और यह सोच कंप्यूटिंग का एक रूप है। [२२८] संगणनावाद का तर्क है कि मन और शरीर के बीच का संबंध सॉफ्टवेयर और हार्डवेयर के बीच के संबंध के समान या समान है और इस प्रकार यह मन-शरीर की समस्या का समाधान हो सकता है । यह दार्शनिक स्थिति 1960 के दशक में एआई शोधकर्ताओं और संज्ञानात्मक वैज्ञानिकों के काम से प्रेरित थी और मूल रूप से दार्शनिकों जेरी फोडर और हिलेरी पुटनम द्वारा प्रस्तावित की गई थी ।
मजबूत एआई परिकल्पना
जॉन सियरल ने जिस दार्शनिक स्थिति को "मजबूत एआई" नाम दिया है, वह कहती है: "सही इनपुट और आउटपुट के साथ उचित रूप से प्रोग्राम किए गए कंप्यूटर का दिमाग ठीक उसी तरह होगा जैसे मनुष्य के पास दिमाग होता है।" [एल] सर्ल ने इस दावे को अपने चीनी कमरे के तर्क के साथ काउंटर किया , जो हमें कंप्यूटर के अंदर देखने के लिए कहता है और यह पता लगाने की कोशिश करता है कि "दिमाग" कहां हो सकता है। [२३०]
रोबोट अधिकार
यदि कोई ऐसी मशीन बनाई जा सकती है जिसमें बुद्धि हो, तो क्या वह भी महसूस कर सकती है ? यदि वह महसूस कर सकती है, तो क्या उसे मानव के समान अधिकार प्राप्त हैं? यह मुद्दा, जिसे अब " रोबोट अधिकार " के रूप में जाना जाता है , वर्तमान में कैलिफोर्निया के इंस्टीट्यूट फॉर द फ्यूचर द्वारा विचार किया जा रहा है , हालांकि कई आलोचकों का मानना है कि चर्चा समय से पहले है। [२३१] [२३२] ट्रांसह्यूमनिज्म के कुछ आलोचकों का तर्क है कि कोई भी काल्पनिक रोबोट अधिकार पशु अधिकारों और मानव अधिकारों के साथ एक स्पेक्ट्रम पर होगा । [२३३] इस विषय पर २०१० की डॉक्यूमेंट्री फिल्म प्लग एंड प्रे , [२३४] और कई विज्ञान फाई मीडिया जैसे कि स्टार ट्रेक नेक्स्ट जेनरेशन, कमांडर डेटा के चरित्र के साथ गहराई से चर्चा की गई है , जो अनुसंधान के लिए अलग होने के लिए संघर्ष करते थे, और चाहते थे " मानव बनें", और वोयाजर में रोबोटिक होलोग्राम।
अधीक्षण
क्या बुद्धिमान मशीनें-या मानव-मशीन संकर-कैसे हो सकती हैं इसकी कोई सीमा है? एक अधीक्षण, अतिबुद्धि, या अतिमानवी बुद्धि एक काल्पनिक एजेंट है जिसके पास सबसे प्रतिभाशाली और सबसे प्रतिभाशाली मानव मन से कहीं अधिक बुद्धि होगी। अधीक्षण ऐसे एजेंट के पास मौजूद बुद्धि के रूप या डिग्री का भी उल्लेख कर सकता है। [१५७]
तकनीकी विलक्षणता
यदि स्ट्रांग एआई में अनुसंधान पर्याप्त रूप से बुद्धिमान सॉफ़्टवेयर का उत्पादन करता है, तो यह पुन: प्रोग्राम करने और स्वयं को सुधारने में सक्षम हो सकता है। बेहतर सॉफ्टवेयर खुद को सुधारने में और भी बेहतर होगा, जिससे पुनरावर्ती आत्म-सुधार होगा । [२३५] नई बुद्धि इस प्रकार तेजी से बढ़ सकती है और नाटकीय रूप से मनुष्यों से आगे निकल सकती है। विज्ञान कथा लेखक वर्नर विंग ने इस परिदृश्य को " विलक्षणता " नाम दिया है । [२३६] तकनीकी विलक्षणता तब होती है जब प्रौद्योगिकियों में तेजी से प्रगति एक भगोड़ा प्रभाव पैदा करेगी जिसमें कृत्रिम बुद्धिमत्ता मानव बौद्धिक क्षमता और नियंत्रण से अधिक हो जाएगी, इस प्रकार मौलिक रूप से बदल रही है या यहां तक कि सभ्यता को समाप्त कर रही है। क्योंकि ऐसी बुद्धि की क्षमताओं को समझना असंभव हो सकता है, तकनीकी विलक्षणता एक ऐसी घटना है जिसके आगे घटनाएं अप्रत्याशित या अथाह भी होती हैं। [२३६] [१५७]
रे कुर्ज़वील ने मूर के नियम का उपयोग किया है (जो डिजिटल प्रौद्योगिकी में निरंतर घातीय सुधार का वर्णन करता है) यह गणना करने के लिए कि डेस्कटॉप कंप्यूटरों में वर्ष 2029 तक मानव मस्तिष्क के समान प्रसंस्करण शक्ति होगी और भविष्यवाणी की है कि 2045 में विलक्षणता होगी। [236]
ट्रांसह्युमेनिज़म
रोबोट डिजाइनर हैन्स मोरवेक , cyberneticist केविन वारविक , और आविष्कारक रे Kurzweil भविष्यवाणी की है कि मनुष्यों और मशीनों में भविष्य में मर्ज हो जाएगा cyborgs कि अधिक सक्षम और या तो ज्यादा शक्तिशाली हैं। [२३७] ट्रांसह्यूमनिज्म नामक इस विचार की जड़ें एल्डस हक्सले और रॉबर्ट एटिंगर में हैं ।
एडवर्ड फ्रेडकिन का तर्क है कि "कृत्रिम बुद्धिमत्ता विकास का अगला चरण है", एक विचार जो पहली बार 1863 में सैमुअल बटलर के " डार्विन अमंग द मशीन्स " द्वारा प्रस्तावित किया गया था, और जॉर्ज डायसन द्वारा उसी नाम की अपनी पुस्तक में इसका विस्तार किया गया था। 1998. [238]
प्रभाव
एआई के दीर्घकालिक आर्थिक प्रभाव अनिश्चित हैं। अर्थशास्त्रियों के एक सर्वेक्षण ने इस बात पर असहमति दिखाई कि क्या रोबोट और एआई के बढ़ते उपयोग से दीर्घकालिक बेरोजगारी में पर्याप्त वृद्धि होगी , लेकिन वे आम तौर पर सहमत हैं कि यह एक शुद्ध लाभ हो सकता है, अगर उत्पादकता लाभ को पुनर्वितरित किया जाता है । [239] एक 2017 अध्ययन से प्राइसवाटरहाउसकूपर्स देखता है चीन जनवादी गणराज्य आर्थिक रूप से 26,1% के साथ ऐ के सबसे बाहर पाने के सकल घरेलू उत्पाद 2030 तक [240] कृत्रिम बुद्धि आर्थिक के लिए कृत्रिम बुद्धि के लिए वकालत की पर एक फरवरी 2020 से यूरोपीय संघ श्वेत पत्र "स्वास्थ्य सेवा में सुधार (जैसे निदान को अधिक सटीक बनाना, बीमारियों की बेहतर रोकथाम को सक्षम करना), खेती की दक्षता में वृद्धि, जलवायु परिवर्तन शमन और अनुकूलन में योगदान, [और] भविष्य कहनेवाला रखरखाव के माध्यम से उत्पादन प्रणालियों की दक्षता में सुधार" सहित लाभ, स्वीकार करते हुए संभाव्य जोखिम। [१९३]
स्वचालन और रोजगार के बीच संबंध जटिल है। ऑटोमेशन जहां पुरानी नौकरियों को खत्म करता है, वहीं यह सूक्ष्म-आर्थिक और मैक्रो-इकोनॉमिक प्रभावों के जरिए नए रोजगार भी पैदा करता है। [२४१] ऑटोमेशन की पिछली लहरों के विपरीत, आर्टिफिशियल इंटेलिजेंस द्वारा कई मध्यम वर्ग की नौकरियों को समाप्त किया जा सकता है; द इकोनॉमिस्ट का कहना है कि "यह चिंता कि एआई सफेदपोश नौकरियों के लिए कर सकता है जो औद्योगिक क्रांति के दौरान ब्लू-कॉलर वाले लोगों के लिए स्टीम पावर ने किया था" "गंभीरता से लेने योग्य" है। [२४२] जोखिम के विषयगत अनुमान व्यापक रूप से भिन्न होते हैं; उदाहरण के लिए, माइकल ओसबोर्न और कार्ल बेनेडिक्ट फ्रे का अनुमान है कि 47% अमेरिकी नौकरियां संभावित स्वचालन के "उच्च जोखिम" पर हैं, जबकि एक ओईसीडी रिपोर्ट केवल 9% अमेरिकी नौकरियों को "उच्च जोखिम" के रूप में वर्गीकृत करती है। [२४३] [२४४] [२४५] पैरालीगल से लेकर फास्ट फूड कुक तक अत्यधिक जोखिम वाली नौकरियां, जबकि व्यक्तिगत स्वास्थ्य देखभाल से लेकर पादरियों तक देखभाल से संबंधित व्यवसायों के लिए नौकरी की मांग बढ़ने की संभावना है। [२४६] लेखक मार्टिन फोर्ड और अन्य आगे बढ़ते हैं और तर्क देते हैं कि कई नौकरियां नियमित, दोहराव और (एआई के लिए) अनुमानित हैं; फोर्ड ने चेतावनी दी है कि इन नौकरियों को अगले कुछ दशकों में स्वचालित किया जा सकता है, और कई नई नौकरियां "औसत क्षमता वाले लोगों के लिए सुलभ" नहीं हो सकती हैं, यहां तक कि फिर से प्रशिक्षण के साथ भी। अर्थशास्त्री बताते हैं कि अतीत में कुल रोजगार को कम करने के बजाय प्रौद्योगिकी में वृद्धि हुई है, लेकिन स्वीकार करते हैं कि एआई के साथ "हम अज्ञात क्षेत्र में हैं"। [35]
संयुक्त राज्य अमेरिका में एंड्रयू यांग के 2020 के राष्ट्रपति अभियान के लिए AI और स्वचालन के संभावित नकारात्मक प्रभाव एक प्रमुख मुद्दा थे । [२४७] यूएनआईसीआरआई, संयुक्त राष्ट्र में सेंटर फॉर आर्टिफिशियल इंटेलिजेंस एंड रोबोटिक्स के प्रमुख, इराकली बेरिड्ज़ ने व्यक्त किया है कि "मुझे लगता है कि एआई के लिए खतरनाक अनुप्रयोग, मेरे दृष्टिकोण से, अपराधी या बड़े आतंकवादी संगठन होंगे जो इसे बाधित करने के लिए इसका इस्तेमाल करेंगे। बड़ी प्रक्रियाओं या केवल शुद्ध नुकसान करते हैं। [आतंकवादी नुकसान पहुंचा सकते हैं] डिजिटल युद्ध के माध्यम से, या यह रोबोटिक्स, ड्रोन, एआई और अन्य चीजों का संयोजन भी हो सकता है जो वास्तव में खतरनाक हो सकता है। और, निश्चित रूप से, अन्य जोखिम आते हैं नौकरी छूटने जैसी चीजों से। अगर हमारे पास बड़ी संख्या में लोग नौकरी खो रहे हैं और कोई समाधान नहीं ढूंढते हैं, तो यह बेहद खतरनाक होगा। घातक स्वायत्त हथियार प्रणालियों जैसी चीजों को ठीक से नियंत्रित किया जाना चाहिए - अन्यथा दुरुपयोग की भारी संभावना है। " [२४८]
संकीर्ण एआई के जोखिम
कृत्रिम बुद्धि के व्यापक उपयोग के अनपेक्षित परिणाम हो सकते हैं जो खतरनाक या अवांछनीय हैं। फ्यूचर ऑफ लाइफ इंस्टीट्यूट के वैज्ञानिकों ने , दूसरों के बीच, कुछ अल्पकालिक अनुसंधान लक्ष्यों का वर्णन किया, यह देखने के लिए कि एआई अर्थव्यवस्था, कानूनों और नैतिकता को कैसे प्रभावित करता है जो एआई से जुड़े हैं और एआई सुरक्षा जोखिमों को कैसे कम किया जाए। लंबी अवधि में, वैज्ञानिकों ने नई तकनीकों के साथ आने वाले संभावित सुरक्षा जोखिमों को कम करते हुए कार्य का अनुकूलन जारी रखने का प्रस्ताव दिया है। [२४९]
कुछ लोग एल्गोरिथम पूर्वाग्रह के बारे में चिंतित हैं , कि पूर्वाग्रह प्रदर्शित करने वाले डेटा को संसाधित करने के बाद एआई प्रोग्राम अनजाने में पक्षपाती हो सकते हैं। [२५०] एल्गोरिदम में पहले से ही कानूनी प्रणालियों में कई अनुप्रयोग हैं। इसका एक उदाहरण है COMPAS , एक वाणिज्यिक कार्यक्रम जिसका व्यापक रूप से अमेरिकी अदालतों द्वारा एक प्रतिवादी के पुनरावर्ती बनने की संभावना का आकलन करने के लिए उपयोग किया जाता है । ProPublica का दावा है कि काले प्रतिवादियों का औसत COMPAS-असाइन किए गए पुनरावृत्ति जोखिम स्तर श्वेत प्रतिवादियों के COMPAS-असाइन किए गए जोखिम स्तर से काफी अधिक है। [२५१]
सामान्य एआई के जोखिम
भौतिक विज्ञानी स्टीफन हॉकिंग , माइक्रोसॉफ्ट के संस्थापक बिल गेट्स , इतिहास के प्रोफेसर युवल नूह हरारी और स्पेसएक्स के संस्थापक एलोन मस्क ने इस संभावना के बारे में चिंता व्यक्त की है कि एआई इस बिंदु तक विकसित हो सकता है कि मनुष्य इसे नियंत्रित नहीं कर सकते, हॉकिंग के सिद्धांत के साथ कि यह " अंत का जादू कर सकता है" मानव जाति के "। [२५२] [२५३] [२५४] [२५५]
पूर्ण कृत्रिम बुद्धि के विकास से मानव जाति का अंत हो सकता है। एक बार जब मनुष्य कृत्रिम बुद्धि विकसित कर लेता है, तो यह अपने आप ही आगे बढ़ जाएगा और लगातार बढ़ती दर से खुद को नया स्वरूप देगा। मनुष्य, जो धीमी जैविक विकास से सीमित हैं, प्रतिस्पर्धा नहीं कर सके और उन्हें हटा दिया जाएगा।
- स्टीफन हॉकिंग [256]
दार्शनिक निक बोस्ट्रोम ने अपनी पुस्तक सुपरिन्टेलिजेंस में एक तर्क दिया है कि कृत्रिम बुद्धि मानव जाति के लिए खतरा पैदा करेगी। उनका तर्क है कि पर्याप्त रूप से बुद्धिमान एआई, यदि वह किसी लक्ष्य को प्राप्त करने के आधार पर कार्यों को चुनता है, तो संसाधन प्राप्त करने या खुद को बंद होने से बचाने जैसे अभिसरण व्यवहार प्रदर्शित करेगा । यदि यह एआई के लक्ष्य पूरी तरह से मानवता को प्रतिबिंबित नहीं करते हैं - एक उदाहरण एक एआई है जिसे पीआई के अधिक से अधिक अंकों की गणना करने के लिए कहा गया है - यह अधिक संसाधन प्राप्त करने या खुद को बंद होने से रोकने के लिए मानवता को नुकसान पहुंचा सकता है, अंततः अपने लक्ष्य को बेहतर ढंग से प्राप्त करने के लिए . Bostrom मानवता के मूल्यों को एक उन्नत AI तक पूरी तरह से पहुंचाने की कठिनाई पर भी जोर देता है। वह एक गुमराह प्रयास को चित्रित करने के लिए मनुष्यों को मुस्कुराने के लिए एआई को लक्ष्य देने के काल्पनिक उदाहरण का उपयोग करता है। यदि उस परिदृश्य में एआई को सुपरइंटेलिजेंट बनना था, तो बोस्रोम का तर्क है, यह उन तरीकों का सहारा ले सकता है जो अधिकांश मनुष्यों को भयावह लगेंगे, जैसे कि "मनुष्यों के चेहरे की मांसपेशियों में इलेक्ट्रोड डालने से निरंतर, मुस्कराते हुए मुस्कराहट पैदा होती है" क्योंकि यह एक कुशल होगा मनुष्यों को मुस्कुराने के अपने लक्ष्य को प्राप्त करने का तरीका। [२५७] अपनी पुस्तक ह्यूमन कम्पेटिबल में , एआई के शोधकर्ता स्टुअर्ट जे. रसेल ने बोस्रोम की कुछ चिंताओं को प्रतिध्वनित किया , साथ ही मनुष्यों के प्रति अनिश्चितता और सम्मान पर केंद्रित लाभकारी मशीनों को विकसित करने के लिए एक दृष्टिकोण का प्रस्ताव भी दिया , [२५८] : १७३ में संभवतः उलटा सुदृढीकरण सीखना शामिल है । [२५८] : १ ९१-१९३
आर्टिफिशियल इंटेलिजेंस से जोखिम पर चिंता ने कुछ हाई-प्रोफाइल दान और निवेश को जन्म दिया है। पीटर थिएल , अमेज़ॅन वेब सर्विसेज और मस्क सहित प्रमुख टेक टाइटन्स के एक समूह ने ओपनएआई को $ 1 बिलियन का वादा किया है , जो एक गैर-लाभकारी कंपनी है जिसका उद्देश्य जिम्मेदार एआई विकास को चैंपियन बनाना है। [२५९] कृत्रिम बुद्धि के क्षेत्र में विशेषज्ञों की राय मिश्रित है, जिसमें बड़े पैमाने पर अंश संबंधित और असंबद्ध दोनों हैं जो अंततः अतिमानवीय-सक्षम एआई से जोखिम से संबंधित हैं। [२६०] अन्य प्रौद्योगिकी उद्योग के नेताओं का मानना है कि कृत्रिम बुद्धि अपने वर्तमान स्वरूप में सहायक है और मनुष्यों की सहायता करना जारी रखेगी। ओरेकल के सीईओ मार्क हर्ड ने कहा है कि एआई "वास्तव में अधिक नौकरियां पैदा करेगा, कम नौकरियां नहीं" क्योंकि एआई सिस्टम को प्रबंधित करने के लिए मनुष्यों की आवश्यकता होगी। [२६१] फेसबुक के सीईओ मार्क जुकरबर्ग का मानना है कि एआई "बड़ी मात्रा में सकारात्मक चीजों को अनलॉक करेगा," जैसे कि बीमारी का इलाज और स्वायत्त कारों की सुरक्षा बढ़ाना। [२६२] जनवरी २०१५ में, मस्क ने एआई निर्णय लेने को समझने के लिए अनुसंधान को निधि देने के लिए फ्यूचर ऑफ लाइफ इंस्टीट्यूट को $१० मिलियन का दान दिया । संस्थान का लक्ष्य प्रौद्योगिकी की बढ़ती शक्ति को "उस ज्ञान को विकसित करना है जिसके साथ हम प्रबंधन करते हैं"। भी इस तरह के रूप में कृत्रिम बुद्धि के विकास के लिए धन कंपनियों कस्तूरी DeepMind और विकैरियस करने के लिए "क्या कृत्रिम बुद्धि के साथ हो रहा है पर नज़र रखने के। [263] मुझे लगता है कि संभवतः एक खतरनाक परिणाम है वहाँ।" [२६४] [२६५]
अनियंत्रित उन्नत एआई के खतरे को महसूस करने के लिए, काल्पनिक एआई को पूरी मानवता पर हावी होना या सोचना होगा, जो कि अल्पसंख्यक विशेषज्ञों का तर्क है कि भविष्य में शोध के लायक नहीं होने की संभावना है। [२६६] [२६७] अन्य प्रतिवाद मानव के इर्द-गिर्द घूमते हैं या तो एक कृत्रिम बुद्धि के दृष्टिकोण से आंतरिक रूप से या अभिसरण रूप से मूल्यवान हैं। [२६८]
विनियमन
कृत्रिम बुद्धि का विनियमन कृत्रिम बुद्धि (एआई) को बढ़ावा देने और विनियमित करने के लिए सार्वजनिक क्षेत्र की नीतियों और कानूनों का विकास है; [२६९] [२७०] इसलिए यह एल्गोरिदम के व्यापक विनियमन से संबंधित है । एआई के लिए नियामक और नीतिगत परिदृश्य यूरोपीय संघ सहित विश्व स्तर पर अधिकार क्षेत्र में एक उभरता हुआ मुद्दा है। [२७१] एआई को प्रोत्साहित करने और संबंधित जोखिमों के प्रबंधन दोनों के लिए विनियमन आवश्यक माना जाता है। [२७२] [२७३] समीक्षा बोर्ड जैसे तंत्र के माध्यम से एआई के विनियमन को एआई नियंत्रण समस्या से निपटने के लिए सामाजिक साधन के रूप में भी देखा जा सकता है । [२७४]
कथा में

विचार-सक्षम कृत्रिम प्राणी प्राचीन काल से कहानी कहने वाले उपकरणों के रूप में दिखाई देते थे, [३७] और विज्ञान कथा में एक सतत विषय रहे हैं ।
इन कार्यों में एक आम ट्रॉप मैरी शेली के फ्रेंकस्टीन के साथ शुरू हुआ , जहां एक मानव रचना अपने स्वामी के लिए खतरा बन जाती है। इसमें आर्थर सी. क्लार्क और स्टेनली कुब्रिक की 2001: ए स्पेस ओडिसी (दोनों 1968), एचएएल 9000 के साथ , डिस्कवरी वन स्पेसशिप के जानलेवा कंप्यूटर के साथ-साथ द टर्मिनेटर (1984) और द मैट्रिक्स (1999 ) जैसे काम शामिल हैं । ) इसके विपरीत, दुर्लभ वफादार रोबोट जैसे गॉर्ट फ्रॉम द डे द अर्थ स्टूड स्टिल (1951) और बिशप फ्रॉम एलियंस (1986) लोकप्रिय संस्कृति में कम प्रमुख हैं। [२७५]
इसहाक असिमोव ने कई किताबों और कहानियों में रोबोटिक्स के तीन कानून पेश किए , विशेष रूप से इसी नाम के एक सुपर-इंटेलिजेंट कंप्यूटर के बारे में "मल्टीवैक" श्रृंखला। असिमोव के नियमों को अक्सर मशीनी नैतिकता की चर्चा के दौरान लाया जाता है; [२७६] जबकि लगभग सभी कृत्रिम बुद्धि शोधकर्ता लोकप्रिय संस्कृति के माध्यम से असिमोव के नियमों से परिचित हैं, वे आम तौर पर कई कारणों से कानूनों को बेकार मानते हैं, जिनमें से एक उनकी अस्पष्टता है। [२७७]
ट्रांसह्यूमनिज्म (मनुष्यों और मशीनों का विलय) मंगा घोस्ट इन द शेल और साइंस-फिक्शन सीरीज़ ड्यून में खोजा गया है । 1980 के दशक में, कलाकार हाजीम सोरयामा की सेक्सी रोबोट्स श्रृंखला को जापान में चित्रित और प्रकाशित किया गया था, जिसमें वास्तविक जैविक मानव रूप को सजीव पेशीय धातु की खाल के साथ दर्शाया गया था और बाद में "द गाइनोइड्स" पुस्तक का उपयोग किया गया था या जॉर्ज लुकास और अन्य सहित फिल्म निर्माताओं द्वारा प्रभावित किया गया था। रचनात्मक। सोरायमा ने इन जैविक रोबोटों को कभी भी प्रकृति का वास्तविक हिस्सा नहीं माना बल्कि हमेशा मानव मन का एक अप्राकृतिक उत्पाद माना, वास्तविक रूप में साकार होने पर भी मन में विद्यमान एक कल्पना।
कई कार्य एआई का उपयोग हमें उस मूलभूत प्रश्न का सामना करने के लिए मजबूर करने के लिए करते हैं जो हमें मानव बनाता है, हमें कृत्रिम प्राणी दिखाते हैं जो महसूस करने की क्षमता रखते हैं , और इस प्रकार पीड़ित होते हैं। यह कारेल कैपेक के आरयूआर , एआई आर्टिफिशियल इंटेलिजेंस और एक्स माकिना फिल्मों के साथ-साथ उपन्यास डू एंड्रॉइड ड्रीम ऑफ इलेक्ट्रिक शीप में दिखाई देता है? , फिलिप के. डिक द्वारा । डिक इस विचार पर विचार करते हैं कि मानव व्यक्तिपरकता की हमारी समझ कृत्रिम बुद्धि के साथ बनाई गई तकनीक से बदल जाती है। [२७८]
यह सभी देखें
- एआई राइजिंग
- एआई नियंत्रण समस्या
- आर्टिफिशियल इंटेलिजेंस हथियारों की दौड़
- कृत्रिम सामान्य बुद्धि general
- व्यवहार चयन एल्गोरिथ्म
- व्यापार प्रक्रिया स्वचालन
- मामले के आधार पर तर्क
- नागरिक विज्ञान
- इमर्जेंट एल्गोरिथम
- एआई प्रौद्योगिकियों की महिला लिंगभेद
- कृत्रिम बुद्धि की शब्दावली
- कृत्रिम बुद्धि का विनियमन
- रोबोटिक प्रक्रिया स्वचालन
- सिंथेटिक इंटेलिजेंस
- यूनिवर्सल बेसिक इनकम
- कमजोर एआई
व्याख्यात्मक नोट
- ^ पुरस्कारों को बांटने की क्रिया को औपचारिक रूप दिया जा सकता है या " इनाम समारोह "में स्वचालित किया जा सकता है।
- ^ शब्दावली भिन्न होती है; एल्गोरिदम लक्षण वर्णन देखें।
- ^ प्रतिकूल कमजोरियों का परिणाम गैर-रेखीय सिस्टम या गैर-पैटर्न गड़बड़ी से भी हो सकता है। कुछ प्रणालियाँ इतनी भंगुर होती हैं कि एक एकल प्रतिकूल पिक्सेल को बदलने से अनुमानतः गलत वर्गीकरण होता है।
- ^ एलन ट्यूरिंग ने अपने क्लासिक पेपर " कंप्यूटिंग मशीनरी एंड इंटेलिजेंस "में 1950 की शुरुआत में सीखने की केंद्रीयता पर चर्चा की। [१२५] १९५६ में, मूल डार्टमाउथ एआई ग्रीष्मकालीन सम्मेलन में, रे सोलोमोनॉफ ने असुरक्षित संभाव्य मशीन सीखने पर एक रिपोर्ट लिखी: "एक आगमनात्मक अनुमान मशीन"। [१२६]
- ^ यह टॉम मिशेल की मशीन लर्निंग की व्यापक रूप से उद्धृत परिभाषा का एक रूप है: "एक कंप्यूटर प्रोग्रामकुछ कार्य टी के संबंध मेंएक अनुभव ई से सीखने के लिए तैयार हैऔर कुछ प्रदर्शन माप पी अगर पी द्वारा मापा गया टी पर इसका प्रदर्शनबेहतर होता है अनुभव के साथ ई ।"
- ^ निल्स निल्सन लिखते हैं: "सीधे शब्दों में कहें तो इस क्षेत्र में व्यापक असहमति है कि AI क्या है।" [१६६]
- ^ 1969 में मार्विन मिन्स्की और सीमोर पैपर्ट द्वाराउप-प्रतीकात्मक एआई को पृष्ठभूमि में धकेलने का सबसे नाटकीय मामला परसेप्ट्रोन की विनाशकारी आलोचना थी। एआई , एआई विंटर या फ्रैंक रोसेनब्लैट का इतिहास देखें। [ उद्धरण वांछित ]
- ^ हालांकि इस तरह की "नीट्स की जीत" क्षेत्र के अधिक परिपक्व होने का परिणाम हो सकती है, एआईएमए का कहना है कि व्यवहारमें एआई अनुसंधान में साफ-सुथरा और कर्कश दोनोंदृष्टिकोण आवश्यक हैं।
- ^ ड्रेफस ने भौतिक प्रतीक प्रणाली परिकल्पनाकी आवश्यक स्थिति कीआलोचना की, जिसे उन्होंने "मनोवैज्ञानिक धारणा" कहा: "मन को औपचारिक नियमों के अनुसार सूचनाओं के बिट्स पर काम करने वाले उपकरण के रूप में देखा जा सकता है।" [207]
- ^ 1970 के दशक की शुरुआत में, केनेथ कोल्बी ने वेइज़नबाम के एलिज़ा का एक संस्करण प्रस्तुत कियाजिसे डॉक्टर के नाम से जाना जाता है, जिसे उन्होंने एक गंभीर चिकित्सीय उपकरण के रूप में प्रचारित किया। [२१६]
- ^ यह मैरीज़ रूम पर आधारित है, यह एक विचार प्रयोग है जिसे पहली बार1982 में फ्रैंक जैक्सन द्वारा प्रस्तावित कियागया था
- ^ यह संस्करण Searle (१९९९) से है , और डेनेट १९९१ , पृष्ठमें भी उद्धृत किया गया है। 435. Searle का मूल सूत्रीकरण था "उचित रूप से प्रोग्राम किया गया कंप्यूटर वास्तव में एक दिमाग है, इस अर्थ में कि सही प्रोग्राम दिए गए कंप्यूटरों को शाब्दिक रूप से अन्य संज्ञानात्मक अवस्थाओं को समझने और रखने के लिए कहा जा सकता है।" [२२९] मजबूत एआई को इसी तरह रसेल और नॉरविग (२००३ , पृष्ठ ९४७)द्वारा परिभाषित किया गया है: "यह दावा कि मशीनें संभवतः बुद्धिमानी से कार्य कर सकती हैं (या, शायद बेहतर, जैसे कि वे बुद्धिमान थे) को 'कमजोर एआई' परिकल्पना कहा जाता है। दार्शनिकों द्वारा, और यह दावा कि ऐसा करने वाली मशीनें वास्तव में सोच रही हैं (अनुकरणीय सोच के विपरीत) को 'मजबूत एआई' परिकल्पना कहा जाता है।"
संदर्भ
- ^ पूल, मैकवर्थ और गोएबेल १९९८ , पृ. १ .
- ^ रसेल और नॉरविग 2003 , पृ. 55.
- ^ ए बी सी बुद्धिमान एजेंटों के अध्ययन के रूप में एआई की परिभाषा :
- पूले, मैकवर्थ और गोएबेल (1998) , जो इस आलेख में प्रयुक्त संस्करण प्रदान करता है। ये लेखक कृत्रिम बुद्धि के पर्याय के रूप में "कम्प्यूटेशनल इंटेलिजेंस" शब्द का उपयोग करते हैं। [1]
- रसेल और नॉरविग (2003) (जो "तर्कसंगत एजेंट" शब्द पसंद करते हैं) और लिखते हैं "पूरे एजेंट का दृश्य अब क्षेत्र में व्यापक रूप से स्वीकार किया जाता है"। [2]
- निल्सन 1998
- लेग एंड हटर 2007
- ^ रसेल और नॉरविग 2009 , पृ. 2.
- ^ मैककॉर्डक २००४ , पृ. 204
- ^ मालूफ़, मार्क. "आर्टिफिशियल इंटेलिजेंस: एन इंट्रोडक्शन, पी. 37" (पीडीएफ) । जॉर्ज टाउन . edu . 25 अगस्त 2018 को मूल से संग्रहीत (पीडीएफ) ।
- ^ "कैसे एआई टैलेंट मैनेजमेंट और एचआर टेक में अभूतपूर्व बदलाव ला रहा है" । हैकरून। मूल से 11 सितंबर 2019 को संग्रहीत । 14 फरवरी 2020 को लिया गया ।
- ^ शैंक, रोजर सी. (1991). "एआई कहां है"। एआई पत्रिका । वॉल्यूम। 12 नंबर 4. पी. 38.
- ^ रसेल और नॉरविग 2009 .
- ^ ए बी "अल्फागो - गूगल डीपमाइंड" । मूल से 10 मार्च 2016 को संग्रहीत किया गया।
- ^ ए बी बॉलिंग, माइकल; बर्च, नील; जोहानसन, माइकल; तमेलिन, ओस्करी (९ जनवरी २०१५)। "हेड-अप लिमिट होल्डम पोकर हल हो गया है" । विज्ञान । ३४७ (६२१८): १४५-१४९. बिबकोड : 2015Sci ... 347..145B । डोई : 10.1126/विज्ञान.1259433 । आईएसएसएन 0036-8075 । पीएमआईडी 25574016 । एस २ सीआईडी ३७ ९ ६३७१ ।
- ^ एलन, ग्रेगरी (अप्रैल 2020). "डिपार्टमेंट ऑफ डिफेंस ज्वाइंट एआई सेंटर - अंडरस्टैंडिंग एआई टेक्नोलॉजी" (पीडीएफ) । AI.mil - रक्षा विभाग के संयुक्त आर्टिफिशियल इंटेलिजेंस सेंटर की आधिकारिक साइट । 21 अप्रैल 2020 को मूल से संग्रहीत (पीडीएफ) । 25 अप्रैल 2020 को लिया गया ।
- ^ ए बी ऑप्टिमिज्म ऑफ अर्ली एआई: * हर्बर्ट साइमन उद्धरण: साइमन 1965 , पी। ९६ क्रेवियर १९९३ में उद्धृत , पृ. 109. * मार्विन मिन्स्की उद्धरण: मिन्स्की 1967 , पी। २ क्रेवियर १९९३ में उद्धृत , पृ. 109.
- ^ एक ख ग 1980 के दशक के बूम: के उदय के विशेषज्ञ प्रणालियों , पांचवीं पीढ़ी परियोजना , Alvey , एमसीसी , एससीआई : * McCorduck 2004 , पीपी। 426-441 * Crevier 1993 , पीपी। 161-162,197-203, 211, 240 * रसेल और नॉरविग 2003 , पी। 24 * एनआरसी 1999 , पीपी। 210-211 * न्यूक्विस्ट 1994 , पीपी। 235-248
- ^ ए बी फर्स्ट एआई विंटर , मैन्सफील्ड संशोधन , लाइटहिल रिपोर्ट * क्रेवियर 1993 , पीपी। 115-117 * रसेल और नॉरविग 2003 , पी। 22 * एनआरसी 1999 , पीपी। 212–213 * हॉवे 1994 * न्यूक्विस्ट 1994 , पीपी। 189–201
- ^ ए बी सेकेंड एआई विंटर : * मैककॉर्डक 2004 , पीपी। 430–435 * क्रेवियर 1993 , पीपी। 209–210 * एनआरसी 1999 , पीपी। 214–216 * न्यूक्विस्ट 1994 , पीपी। 301–318
- ^ ए बी सी एआई 21 वीं सदी की शुरुआत में बेहद सफल हो गया * क्लार्क 2015b
- ^ हेनलेन, माइकल; कपलान, एंड्रियास (2019)। "ए ब्रीफ हिस्ट्री ऑफ आर्टिफिशियल इंटेलिजेंस: ऑन द पास्ट, प्रेजेंट एंड फ्यूचर ऑफ आर्टिफिशियल इंटेलिजेंस" । कैलिफोर्निया प्रबंधन समीक्षा । ६१ (४): ५-१४। डोई : 10.1177/0008125619864925 । आईएसएसएन 0008-1256 । S2CID 199866730 ।
- ^ ए बी पामेला मैककॉर्डक (2004 , पृष्ठ 424) लिखते हैं, "उपक्षेत्रों में एआई का रफ शैटरिंग -दृष्टि, प्राकृतिक भाषा, निर्णय सिद्धांत, आनुवंशिक एल्गोरिदम, रोबोटिक्स ... और ये अपने उप-उपक्षेत्र के साथ-जो शायद ही कभी होता एक दूसरे से कुछ भी कहना है।"
- ^ ए बी सी बुद्धिमान लक्षणों की यह सूची प्रमुख एआई पाठ्यपुस्तकों द्वारा कवर किए गए विषयों पर आधारित है, जिनमें शामिल हैं: * रसेल और नॉरविग 2003 * लुगर एंड स्टबलफील्ड 2004 * पूले, मैकवर्थ और गोएबेल 1998 * निल्सन 1998
- ^ कोलाटा 1982 ।
- ^ मेकर २००६ ।
- ^ ए बी सी सामान्य रूप से जैविक बुद्धि बनाम बुद्धि:
- रसेल और नॉरविग 2003 , पीपी 2-3, जो वैमानिकी इंजीनियरिंग के साथ सादृश्य बनाते हैं ।
- मैककॉर्डक 2004 , पीपी। 100-101, जो लिखते हैं कि "कृत्रिम बुद्धि की दो प्रमुख शाखाएँ हैं: एक का उद्देश्य बुद्धिमान व्यवहार का उत्पादन करना है, भले ही इसे कैसे पूरा किया गया हो, और दूसरा उद्देश्य प्रकृति में पाई जाने वाली बुद्धिमान प्रक्रियाओं को मॉडलिंग करना है, विशेष रूप से मानव वाले ।"
- कोलाटा 1982 , विज्ञान में एक पेपर , जो जैविक मॉडलों के प्रति मैकार्थी की उदासीनता का वर्णन करता है । कोलाटा ने मैककार्थी को लिखते हुए उद्धृत किया: "यह एआई है, इसलिए हमें परवाह नहीं है कि यह मनोवैज्ञानिक रूप से वास्तविक है"। [२१] मैककार्थी ने हाल ही में एआई@५० सम्मेलन में अपनी स्थिति दोहराई जहां उन्होंने कहा "कृत्रिम बुद्धिमत्ता, परिभाषा के अनुसार, मानव बुद्धि का अनुकरण नहीं है"। [22]
- ^ ए बी सी नीट्स बनाम स्क्रूफीज़ : * मैककॉर्डक 2004 , पीपी। 421–424, 486–489 * क्रेवियर 1993 , पी। १६८ * निल्सन १९८३ , पीपी. १०-११
- ^ ए बी प्रतीकात्मक बनाम उप-प्रतीकात्मक एआई: * निल्सन (1998 , पी। 7), जो "उप-प्रतीकात्मक" शब्द का उपयोग करता है।
- ^ एक ख जनरल खुफिया ( मजबूत ऐ ) ऐ के लिए लोकप्रिय परिचय में चर्चा की है: * Kurzweil 1999 और Kurzweil 2005
- ^ देखें डार्टमाउथ प्रस्ताव के तहत दर्शन नीचे,।
- ^ मैककॉर्डक २००४ , पृ. 34.
- ^ मैककॉर्डक २००४ , पृ. xviii.
- ^ मैककॉर्डक २००४ , पृ. 3.
- ^ मैककॉर्डक 2004 , पीपी 340-400।
- ^ ए बी यह पामेला मैककॉर्डक की मशीन हू थिंक का एक केंद्रीय विचार है । वह लिखती है:
- "मैं कृत्रिम बुद्धि को एक आदरणीय सांस्कृतिक परंपरा के वैज्ञानिक एपोथोसिस के रूप में सोचना पसंद करता हूं।" [28]
- "कृत्रिम बुद्धि किसी न किसी रूप में एक ऐसा विचार है जो पश्चिमी बौद्धिक इतिहास में व्याप्त है, एक ऐसा सपना जिसे साकार करने की तत्काल आवश्यकता है।" [29]
- "हमारा इतिहास कृत्रिम बुद्धिमत्ता बनाने के प्रयासों से भरा है - नटखट, भयानक, हास्यपूर्ण, बयाना, पौराणिक और वास्तविक - जो हमें आवश्यक है - सामान्य साधनों को दरकिनार करते हुए पुन: पेश करने के लिए। मिथक और वास्तविकता के बीच आगे और पीछे, हमारी कल्पनाएं जो आपूर्ति करती हैं हमारी कार्यशालाएँ नहीं हो सकीं, हम लंबे समय से स्व-प्रजनन के इस अजीब रूप में लगे हुए हैं।" [30]
- ^ "स्टीफन हॉकिंग का मानना है कि एआई मानव जाति की अंतिम उपलब्धि हो सकती है" । बीटा न्यूज । २१ अक्टूबर २०१६। २८ अगस्त २०१७ को मूल से संग्रहीत ।
- ^ लोम्बार्डो पी, बोहेम I, नायर्ज़ के (2020)। "रेडियोकॉमिक्स - सांता क्लॉज़ और रेडियोलॉजी का भविष्य" । यूर जे रेडिओल । 122 (1): 108771. doi : 10.1016/j.ejrad.2019.108771 । पीएमआईडी 31835078 ।
- ^ ए बी फोर्ड, मार्टिन; कोल्विन, ज्योफ (6 सितंबर 2015)। "क्या रोबोट नष्ट करने से ज्यादा रोजगार पैदा करेंगे?" . द गार्जियन । मूल से 16 जून 2018 को संग्रहीत किया गया । 13 जनवरी 2018 को लिया गया ।
- ^ ए बी एआई अनुप्रयोगों का व्यापक रूप से पर्दे के पीछे उपयोग किया जाता है: * रसेल और नॉरविग 2003 , पी। २८ * कुर्ज़वील २००५ , पृ. 265 * एनआरसी 1999 , पीपी। 216-222 * न्यूक्विस्ट 1994 , पीपी। 189–201
- ^ ए बी एआई इन मिथ: * मैककॉर्डक 2004 , पीपी। 4-5 * रसेल एंड नॉरविग 2003 , पी। 939
- ^ जल्दी विज्ञान कथा में ऐ। * मैककॉर्डक 2004 , पीपी। 17-25
- ^ औपचारिक तर्क: * बर्लिंस्की, डेविड (2000)। एल्गोरिथम का आगमन । हरकोर्ट बुक्स। आईएसबीएन 978-0-15-601391-8. ओसीएलसी 46890682 । मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- ^ ट्यूरिंग, एलन (1948), "मशीन इंटेलिजेंस", कोपलैंड में, बी. जैक (सं.), द एसेंशियल ट्यूरिंग: द आइडियाज़ दैट बर्थ टू कंप्यूटर एज , ऑक्सफ़ोर्ड: ऑक्सफ़ोर्ड यूनिवर्सिटी प्रेस, पी। 412, आईएसबीएन 978-0-19-825080-7
- ^ रसेल और नॉरविग 2009 , पृ. 16.
- ^ डार्टमाउथ सम्मेलन : * मैककॉर्डक 2004 , पीपी। 111-136 * क्रेवियर 1993 , पीपी 47-49, जो लिखते हैं "सम्मेलन को आम तौर पर नए विज्ञान की आधिकारिक जन्मतिथि के रूप में मान्यता प्राप्त है।" * रसेल और नॉरविग 2003 , पी। 17, जो सम्मेलन को "कृत्रिम बुद्धि का जन्म" कहते हैं। * एनआरसी 1999 , पीपी. 200-201
- ^ मैकार्थी, जॉन (1988)। " आर्टिफिशियल इंटेलिजेंस के प्रश्न की समीक्षा "। कंप्यूटिंग के इतिहास के इतिहास । १० (३): २२४-२२९।, में एकत्रित मैकार्थी, जॉन (1996)। "10. आर्टिफिशियल इंटेलिजेंस के प्रश्न की समीक्षा "। डिफेंडिंग एआई रिसर्च: ए कलेक्शन ऑफ एसेज एंड रिव्यूज । सीएसएलआई।, पी. 73, "कृत्रिम बुद्धि" शब्द का आविष्कार करने के कारणों में से एक "साइबरनेटिक्स" के साथ जुड़ाव से बचना था। एनालॉग फीडबैक पर इसकी एकाग्रता पथभ्रष्ट लग रही थी, और मैं या तो नॉर्बर्ट (रॉबर्ट नहीं) वीनर को स्वीकार करने से बचना चाहता था। एक गुरु के रूप में या उसके साथ बहस करने के लिए।"
- ^ डार्टमाउथ सम्मेलन में उपस्थित लोगों का आधिपत्य: * रसेल और नॉरविग 2003 , पी। 17, जो लिखते हैं "अगले 20 वर्षों के लिए इस क्षेत्र में इन लोगों और उनके छात्रों का वर्चस्व होगा।" * मैककॉर्डक 2004 , पीपी। 129-130
- ^ रसेल और नॉरविग 2003 , पृ. 18: "जब भी किसी कंप्यूटर ने कुछ भी चतुराई से किया तो यह आश्चर्यजनक था"
- ^ शेफ़र जे. (2009) डिड नॉट सैमुअल सॉल्व दैट गेम?. इन: वन जंप अहेड। स्प्रिंगर, बोस्टन, MA
- ^ सैमुअल, एएल (जुलाई 1959)। "चेकर्स के गेम का उपयोग करके मशीन लर्निंग में कुछ अध्ययन"। आईबीएम जर्नल ऑफ रिसर्च एंड डेवलपमेंट । ३ (३): २१०-२२९। साइटसीरएक्स 10.1.1.368.2254 । डोई : 10.1147/rd.33.0210 ।
- ^ एआई के" गोल्डन इयर्स " (सफल प्रतीकात्मक तर्क कार्यक्रम 1956-1973): * मैककॉर्डक 2004 , पीपी। 243-252 * क्रेवियर 1993 , पीपी। 52–107 * मोरावेक 1988 , पी। 9 * रसेल और नॉरविग 2003 , पीपी। 18-21 वर्णितकार्यक्रम आईबीएम 701 के लिए आर्थर सैमुअल के चेकर्स प्रोग्राम, डैनियल बोब्रो के छात्र , नेवेल और साइमन के लॉजिक थ्योरिस्ट और टेरी विनोग्राड के SHRDLU हैं ।
- ^ 1960 के दशक के दौरान DARPA ने अप्रत्यक्ष शुद्ध अनुसंधान में AI में पैसा डाला: * McCorduck 2004 , p. १३१ * क्रेवियर १९९३ , पीपी. ५१, ६४-६५ * एनआरसी १९९९ , पीपी. २०४-२०५
- ^ इंग्लैंड में एआई: * होवे 1994
- ^ लाइटहिल 1973 ।
- ^ ए बी विशेषज्ञ प्रणाली: * एसीएम 1998 , आई.2.1 * रसेल और नॉरविग 2003 , पीपी। 22-24 * लुगर एंड स्टबलफील्ड 2004 , पीपी। 227-331 * निल्सन 1998 , अध्याय। 17.4 * मैककॉर्डक 2004 , पीपी। 327–335, 434–435 * क्रेवियर 1993 , पीपी। 145–62, 197–203 * न्यूक्विस्ट 1994 , पीपी। 155–183
- ^ मीड, कार्वर ए.; इस्माइल, मोहम्मद (8 मई 1989)। तंत्रिका तंत्र का एनालॉग वीएलएसआई कार्यान्वयन (पीडीएफ) । इंजीनियरिंग और कंप्यूटर विज्ञान में क्लूवर इंटरनेशनल सीरीज। 80 . नॉरवेल, एमए: क्लूवर एकेडमिक पब्लिशर्स । डोई : 10.1007/978-1-4613-1639-8 । आईएसबीएन 978-1-4613-1639-8. मूल (पीडीएफ) से 6 नवंबर 2019 को संग्रहीत । 24 जनवरी 2020 को लिया गया ।
- ^ ए बी औपचारिक तरीकों को अब प्राथमिकता दी जाती है (" नीट्स की जीत "): * रसेल और नॉरविग 2003 , पीपी। 25–26 * मैककॉर्डक 2004 , पीपी। 486–487
- ^ मैककॉर्डक 2004 , पीपी. 480-483.
- ^ मार्कऑफ़ 2011 ।
- ^ "एआई विशेषज्ञों से पूछें: एआई में आज की प्रगति क्या है?" . मैकिन्से एंड कंपनी । मूल से 13 अप्रैल 2018 को संग्रहीत किया गया । 13 अप्रैल 2018 को लिया गया ।
- ^ फेयरहेड, हैरी (२६ मार्च २०११) [अद्यतन ३० मार्च २०११]। "किनेक्ट की एआई सफलता की व्याख्या की गई" । मैं प्रोग्रामर । मूल से 1 फरवरी 2016 को संग्रहीत किया गया।
- ^ रोविंस्की, डैन (15 जनवरी 2013)। "आभासी व्यक्तिगत सहायक और आपके स्मार्टफ़ोन का भविष्य [इन्फोग्राफिक]" । पढ़ें-लिखें । मूल से 22 दिसंबर 2015 को संग्रहीत किया गया।
- ^ "कृत्रिम बुद्धिमत्ता: Google के अल्फ़ागो ने गो मास्टर ली से-डोल को हराया" । बीबीसी समाचार । १२ मार्च २०१६। २६ अगस्त २०१६ को मूल से संग्रहीत । 1 अक्टूबर 2016 को लिया गया ।
- ^ मेट्ज़, कैड (27 मई 2017)। "चीन में जीत के बाद, अल्फागो के डिजाइनर नई एआई का अन्वेषण करते हैं" । वायर्ड । मूल से 2 जून 2017 को संग्रहीत किया गया।
- ^ "वर्ल्ड्स गो प्लेयर रेटिंग्स" । मई 2017. मूल से 1 अप्रैल 2017 को संग्रहीत ।
- ^ "柯洁迎19岁生日 " (चीनी में)। मई 2017. मूल से 11 अगस्त 2017 को संग्रहीत ।
- ^ "मुज़ेरो: मास्टरिंग गो, चेस, शोगी और अटारी विदाउट रूल्स" । डीपमाइंड । 1 मार्च 2021 को लिया गया ।
- ^ स्टीवन बोरोविक; ट्रेसी लियन (12 मार्च 2016)। "अल्फागो ने कृत्रिम बुद्धिमत्ता के लिए मानव गो चैंपियन को मील के पत्थर में मात दी" । लॉस एंजिल्स टाइम्स । 13 मार्च 2016 को लिया गया ।
- ^ सिल्वर, डेविड ; ह्यूबर्ट, थॉमस; श्रिटविज़र, जूलियन; एंटोनोग्लू, आयोनिस; लाइ, मैथ्यू; गुएज़, आर्थर; लैनकोट, मार्क; सिफ्रे, लॉरेंट; कुमारन, दर्शन; ग्रेपेल, थोर; लिलिक्रैप, टिमोथी; सिमोनियन, करेन; हसबिस, डेमिस (7 दिसंबर 2018)। "एक सामान्य सुदृढीकरण सीखने का एल्गोरिथ्म जो शतरंज, शोगी में महारत हासिल करता है, और स्व-खेल से गुजरता है" । विज्ञान । ३६२ (६४१९): ११४०–११४४. बिबकोड : 2018Sci ... 362.1140S । डीओआई : 10.1126/विज्ञान.आर६४०४ । पीएमआईडी 30523106 ।
- ^ श्रिटविज़र, जूलियन; एंटोनोग्लू, आयोनिस; ह्यूबर्ट, थॉमस; सिमोनियन, करेन; सिफ्रे, लॉरेंट; श्मिट, साइमन; गुएज़, आर्थर; लॉकहार्ट, एडवर्ड; हसबिस, डेमिस; ग्रेपेल, थोर; लिलिक्रैप, टिमोथी (23 दिसंबर 2020)। "एक सीखा मॉडल के साथ योजना बनाकर अटारी, गो, शतरंज और शोगी में महारत हासिल करना" । प्रकृति । ५८८ (७८३९): ६०४-६०९। आर्क्सिव : १ ९११.०८२६५ । बिबकोड : 2020Natur.588..604S । डोई : 10.1038/एस41586-020-03051-4 । आईएसएसएन 1476-4687 । पीएमआईडी 33361790 । S2CID 208158225 ।
- ^ तुंग, लियाम। "गूगल का डीपमाइंड आर्टिफिशियल इंटेलिजेंस इक्का अटारी गेमिंग चैलेंज" । जेडडीनेट । 1 मार्च 2021 को लिया गया ।
- ^ सोली, मीलन। "यह पोकर-प्लेइंग एआई जानता है कि उन्हें कब पकड़ना है और उन्हें कब मोड़ना है" । स्मिथसोनियन ।
प्लुरिबस ने छह-खिलाड़ी नो-लिमिट टेक्सास होल्डम गेम्स की श्रृंखला में पोकर पेशेवरों को सर्वश्रेष्ठ दिया है, जो कृत्रिम बुद्धिमत्ता अनुसंधान में एक मील का पत्थर तक पहुंच गया है। यह एक जटिल मल्टीप्लेयर प्रतियोगिता में इंसानों को मात देने वाला पहला बॉट है।
- ^ ए बी क्लार्क 2015 बी । "आर्टिफिशियल इंटेलिजेंस में आधे दशक की शांत सफलताओं के बाद, 2015 एक ऐतिहासिक वर्ष रहा है। कंप्यूटर पहले से कहीं ज्यादा स्मार्ट और तेजी से सीख रहे हैं।"
- ^ "आर्टिफिशियल इंटेलिजेंस के साथ व्यापार को फिर से आकार देना" । एमआईटी स्लोअन प्रबंधन की समीक्षा । मूल से 19 मई 2018 को संग्रहीत किया गया । 2 मई 2018 को लिया गया ।
- ^ लोरिका, बेन (18 दिसंबर 2017)। "एआई अपनाने की स्थिति" । ओ'रेली मीडिया । 2 मई 2018 को मूल से संग्रहीत । 2 मई 2018 को लिया गया ।
- ^ एलन, ग्रेगरी (6 फरवरी 2019)। "चीन की एआई रणनीति को समझना" । एक नई अमेरिकी सुरक्षा के लिए केंद्र । मूल से 17 मार्च 2019 को संग्रहीत किया गया।
- ^ "समीक्षा | कैसे दो एआई महाशक्तियां - अमेरिका और चीन - क्षेत्र में वर्चस्व के लिए लड़ाई" । वाशिंगटन पोस्ट । 2 नवंबर 2018। 4 नवंबर 2018 को मूल से संग्रहीत । 4 नवंबर 2018 को लिया गया ।
- ^ अनादिओटिस, जॉर्ज (1 अक्टूबर 2020)। "2020 में एआई की स्थिति: लोकतंत्रीकरण, औद्योगीकरण, और कृत्रिम सामान्य बुद्धि का रास्ता" । जेडडीनेट । 1 मार्च 2021 को लिया गया ।
- ^ हीथ, निक (11 दिसंबर 2020)। "एआई क्या है? आर्टिफिशियल इंटेलिजेंस के बारे में आपको जो कुछ भी जानने की जरूरत है" । जेडडीनेट । 1 मार्च 2021 को लिया गया ।
- ^ कपलान, एंड्रियास; हेनलेन, माइकल (1 जनवरी 2019)। "सिरी, सिरी, इन माई हैंड: हू इज फेयरेस्ट इन द लैंड? ऑन इंटरप्रिटेशन्स, इलस्ट्रेशन, एंड इम्प्लीकेशंस ऑफ़ आर्टिफिशियल इंटेलिजेंस"। व्यापार क्षितिज । ६२ (१): १५-२५. डोई : 10.1016/जे.बुशोर.2018.8.08.004 ।
- ^ डोमिंगोस २०१५ , अध्याय ५।
- ^ डोमिंगोस २०१५ , अध्याय ७.
- ^ लिंडेनबाम, एम., मार्कोविच, एस., और रुसाकोव, डी. (2004)। निकटतम पड़ोसी क्लासिफायर के लिए चयनात्मक नमूनाकरण। मशीन लर्निंग, ५४(२), १२५-१५२।
- ^ डोमिंगोस २०१५ , अध्याय १।
- ^ एक ख अकड़ और दक्षता और मिश्रित विस्फोट : * रसेल और Norvig 2003 ।, पीपी 9, 21-22
- ^ डोमिंगोस २०१५ , अध्याय २, अध्याय ३।
- ^ हार्ट, पीई; निल्सन, एनजे; राफेल, बी। (1972)। न्यूनतम लागत पथ की अनुमानी निर्धारण करने के लिए एक औपचारिक आधार "के लिए सुधार" " "। सिगार्ट न्यूज़लैटर (37): 28-29। डोई : 10.1145/1056777.1056779 । S2CID 6386648 ।
- ^ डोमिंगोस २०१५ , अध्याय २, अध्याय ४, अध्याय ६।
- ^ "क्या तंत्रिका नेटवर्क कंप्यूटर अनुभव से सीख सकते हैं, और यदि ऐसा है, तो क्या वे कभी भी वह बन सकते हैं जिसे हम 'स्मार्ट' कहते हैं?" . वैज्ञानिक अमेरिकी । 2018. मूल से 25 मार्च 2018 को संग्रहीत । 24 मार्च 2018 को लिया गया ।
- ^ डोमिंगोस २०१५ , अध्याय ६, अध्याय ७।
- ^ डोमिंगोस २०१५ , पृ. २८६.
- ^ "एकल पिक्सेल परिवर्तन एआई प्रोग्राम को मूर्ख बनाता है" । बीबीसी समाचार । 3 नवंबर 2017. 22 मार्च 2018 को मूल से संग्रहीत । 12 मार्च 2018 को लिया गया ।
- ^ "एआई में एक मतिभ्रम की समस्या है जिसे ठीक करना कठिन साबित हो रहा है" । वायर्ड . 2018. मूल से 12 मार्च 2018 को संग्रहीत । 12 मार्च 2018 को लिया गया ।
- ^ "सामान्य ज्ञान की खेती | DiscoverMagazine.com" । डिस्कवर पत्रिका । 2017 से संग्रहीत मूल 25 मार्च 2018 पर । 24 मार्च 2018 को लिया गया ।
- ^ डेविस, अर्नेस्ट; मार्कस, गैरी (24 अगस्त 2015)। "आर्टिफिशियल इंटेलिजेंस में कॉमन्सेंस रीजनिंग और कॉमन्सेंस नॉलेज" । एसीएम का संचार । 58 (9): 92-103. डोई : 10.1145/2701413 । S2CID 13583137 । मूल से 22 अगस्त 2020 को संग्रहीत किया गया । 6 अप्रैल 2020 को लिया गया ।
- ^ विनोग्राद, टेरी (जनवरी 1972)। "प्राकृतिक भाषा को समझना"। संज्ञानात्मक मनोविज्ञान । ३ (१): १-१९१. डोई : 10.1016/0010-0285(72)90002-3 ।
- ^ "चिंता न करें: स्वायत्त कारें कल (या अगले वर्ष) नहीं आ रही हैं" । ऑटोवीक । २०१६. २५ मार्च २०१८ को मूल से संग्रहीत । 24 मार्च 2018 को लिया गया ।
- ^ नाइट, विल (2017)। "बोस्टन खराब ड्राइवरों के लिए प्रसिद्ध हो सकता है, लेकिन यह एक स्मार्ट सेल्फ-ड्राइविंग कार के लिए परीक्षण का मैदान है" । एमआईटी प्रौद्योगिकी समीक्षा । मूल से 22 अगस्त 2020 को संग्रहीत किया गया । 27 मार्च 2018 को लिया गया ।
- ^ प्रकेन, हेनरी (31 अगस्त 2017)। "स्वायत्त वाहनों को यातायात कानून के अनुरूप बनाने की समस्या पर" । आर्टिफिशियल इंटेलिजेंस और कानून । २५ (३): ३४१-३६३। डोई : 10.1007/एस10506-017-9210-0 ।
- ^ ए बी लिटो, एंटोनियो; लेबिएर, ईसाई; ओल्ट्रामारी, एलेसेंड्रो (मई 2018)। "संज्ञानात्मक वास्तुकला में ज्ञान का स्तर: वर्तमान सीमाएं और संभावित विकास"। संज्ञानात्मक प्रणाली अनुसंधान । 48 : 39-55। डीओआई : 10.1016/j.cogsys.2017.05.001 । एचडीएल : 2318/1665207 । S2CID 206868967 ।
- ^ प्रॉब्लमसॉल्विंग, पजल सॉल्विंग, गेम प्लेइंग एंड डिडक्शन: * रसेल एंड नॉरविग 2003 , अध्याय। 3–9, * पूल, मैकवर्थ और गोएबेल 1998 , अध्याय। 2,3,7,9, * लुगर एंड स्टबलफील्ड 2004 , अध्याय। 3,4,6,8, * निल्सन 1998 , अध्याय। 7-12
- ^ अनिश्चित तर्क: * रसेल और नॉरविग 2003 , पीपी। 452–644, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 345–395, * लुगर एंड स्टबलफील्ड 2004 , पीपी। 333–381, * निल्सन 1998 , अध्याय। 19
- ^ उप-प्रतीकात्मक तर्क के मनोवैज्ञानिक प्रमाण: * वासन एंड शापिरो (1966) ने दिखाया कि लोग पूरी तरह से अमूर्त समस्याओं पर खराब प्रदर्शन करते हैं, लेकिन अगर सहज सामाजिक बुद्धि के उपयोग की अनुमति देने के लिए समस्या को बहाल किया जाता है, तो प्रदर्शन में नाटकीय रूप से सुधार होता है। ( वासन चयन कार्य देखें) * कन्नमैन, स्लोविक और टावर्सकी (1982) ने दिखाया है कि लोग प्रारंभिक समस्याओं में भयानक होते हैं जिनमें अनिश्चित तर्क शामिल होता है। (कई उदाहरणों के लिए संज्ञानात्मक पूर्वाग्रहों की सूची देखें)। * लैकॉफ एंड नुनेज़ (2000) ने विवादास्पद रूप से तर्क दिया है कि गणित में हमारे कौशल भी ज्ञान और कौशल पर निर्भर करते हैं जो "शरीर" से आते हैं, अर्थात सेंसरिमोटर और अवधारणात्मक कौशल। (देखें कि गणित कहाँ से आता है )
- ^ ज्ञान प्रतिनिधित्व : * एसीएम 1998 , I.2.4, * रसेल और नॉरविग 2003 , पीपी। 320-363, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 23-46, 69-81, 169-196, 235-277, २८१-२९८, ३१९-३४५, * लुगर एंड स्टबलफ़ील्ड २००४ , पीपी. २२७-२४३, * निल्सन १९९८ , अध्याय। १८
- ^ नॉलेज इंजीनियरिंग : * रसेल एंड नॉरविग 2003 , पीपी। 260-266, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 199-233, * निल्सन 1998 , अध्याय। १७.१–१७.४
- ^ श्रेणियों और संबंधों का प्रतिनिधित्व: सिमेंटिक नेटवर्क , विवरण तर्क , विरासत ( फ्रेम और स्क्रिप्ट सहित): * रसेल और नॉरविग 2003 , पीपी। 349-354, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 174–177, * लुगर और स्टबलफील्ड 2004 , पीपी। 248-258, * निल्सन 1998 , अध्याय। १८.३
- ^ घटनाओं और समय का प्रतिनिधित्व करना: सिचुएशन कैलकुलस , इवेंट कैलकुलस , फ्लुएंट कैलकुलस ( फ्रेम प्रॉब्लम को हल करने सहित): * रसेल एंड नॉरविग 2003 , पीपी। 328–341, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 281–298, * निल्सन 1998 , अध्याय। 18.2
- ^ कॉसल कैलकुलस : * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 335–337
- ^ ज्ञान के बारे में ज्ञान का प्रतिनिधित्व: विश्वास कैलकुलस, मोडल लॉजिक्स : * रसेल और नॉरविग 2003 , पीपी। 341-344, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 275-277
- ^ सिकोस, लेस्ली एफ। (जून 2017)। मल्टीमीडिया रीजनिंग में विवरण लॉजिक्स । चाम: स्प्रिंगर। डोई : 10.1007/978-3-319-54066-5 । आईएसबीएन 978-3-319-54066-5. एस २ सीआईडी ३१८०११४ । मूल से 29 अगस्त 2017 को संग्रहीत किया गया।
- ^ ओन्टोलॉजी : * रसेल और नॉरविग 2003 , पीपी। 320–328
- ^ स्मोलियर, स्टीफन डब्ल्यू.; झांग, होंगजियांग (1994)। "सामग्री आधारित वीडियो अनुक्रमण और पुनर्प्राप्ति"। आईईईई मल्टीमीडिया । 1 (2): 62-72। डोई : 10.1109/93.311653 । S2CID 32710913 ।
- ^ न्यूमैन, बर्नड; मोलर, राल्फ (जनवरी 2008)। "विवरण तर्क के साथ दृश्य व्याख्या पर"। छवि और विजन कंप्यूटिंग । 26 (1): 82–101. डीओआई : 10.1016/जे.इमाविस.2007.08.013 ।
- ^ कुपरमैन, जीजे; रीचले, आरएम; बेली, टीसी (1 जुलाई 2006)। "नैदानिक निर्णय समर्थन के लिए वाणिज्यिक ज्ञान के आधार का उपयोग करना: अवसर, बाधाएं और सिफारिशें" । अमेरिकन मेडिकल इंफॉर्मेटिक्स एसोसिएशन का जर्नल । १३ (४): ३६९-३७१। डोई : 10.1197/जामिया.एम2055 । पीएमसी 1513681 । पीएमआईडी १६६२२१६० ।
- ^ मैकगैरी, केन (1 दिसंबर 2005)। "ज्ञान की खोज के लिए दिलचस्प उपायों का एक सर्वेक्षण"। ज्ञान इंजीनियरिंग समीक्षा । 20 (1): 39-61। डीओआई : 10.1017/एस0269888905000408 । S2CID 14987656 ।
- ^ बर्टिनी, एम; डेल बिम्बो, ए; तोरनियाई, सी (२००६)। "मल्टीमीडिया ऑन्कोलॉजी का उपयोग करके वीडियो अनुक्रमों की स्वचालित एनोटेशन और सिमेंटिक पुनर्प्राप्ति"। एमएम '06 मल्टीमीडिया पर 14वें एसीएम अंतर्राष्ट्रीय सम्मेलन की कार्यवाही । मल्टीमीडिया पर 14वां एसीएम अंतर्राष्ट्रीय सम्मेलन। सांता बारबरा: एसीएम। पीपी. 679–682।
- ^ योग्यता समस्या : * मैककार्थी और हेस 1969 * रसेल और नॉरविग 2003 [ पृष्ठ की आवश्यकता ] जबकि मैकार्थी मुख्य रूप से कार्यों के तार्किक प्रतिनिधित्व में मुद्दों से संबंधित थे, रसेल और नॉरविग 2003 इस शब्द को डिफ़ॉल्ट तर्क के अधिक सामान्य मुद्दे पर लागू करते हैं। हमारे सभी सामान्य ज्ञान के आधार पर धारणाओं का नेटवर्क।
- ^ डिफॉल्ट रीजनिंग और डिफॉल्ट लॉजिक , नॉन-मोनोटोनिक लॉजिक्स , सर्कुलेशन , क्लोज्ड वर्ल्ड धारणा , अपहरण (पूले एट अल। "डिफॉल्ट रीजनिंग" के तहत अपहरण को स्थान देता है। लुगर एट अल। इसे "अनिश्चित तर्क" के तहत रखता है): * रसेल और नॉरविग 2003 , पीपी. ३५४-३६०, * पूल, मैकवर्थ और गोएबेल १९९८ , पीपी २४८-२५६, ३२३-३३५, * लुगर एंड स्टबलफील्ड २००४ , पीपी. ३३५-३६३, * निल्सन १९९८ , ~18.3.3
- ^ सामान्य ज्ञान की चौड़ाई: * रसेल और नॉरविग 2003 , पृ. २१, * क्रेवियर १९९३ , पीपी. ११३-११४, * मोरावेक १ ९८८ , पी. १३, * लेनत और गुहा १९८९ (परिचय)
- ^ ड्रेफस और ड्रेफस 1986 ।
- ^ ग्लैडवेल 2005 ।
- ^ ए बी सन्निहित अंतर्ज्ञान के रूप में विशेषज्ञ ज्ञान : * ड्रेफस और ड्रेफस 1986 ( ह्यूबर्ट ड्रेफस एआई के एक दार्शनिक और आलोचक हैं, जो तर्क देते हैं कि सबसे उपयोगी मानव ज्ञान उप-प्रतीकात्मक रूप से एन्कोड किया गया था। ड्रेफस की एआई की आलोचना देखें ) * ग्लैडवेल 2005 (ग्लैडवेल ब्लिंक उप-प्रतीकात्मक तर्क और ज्ञान का एक लोकप्रिय परिचय है।) * हॉकिन्स एंड ब्लेकस्ली 2005 (हॉकिन्स का तर्क है कि उप-प्रतीकात्मक ज्ञान एआई अनुसंधान का प्राथमिक फोकस होना चाहिए।)
- ^ योजना : * एसीएम 1998 , ~ I.2.8, * रसेल और Norvig 2003 , पीपी। 375-459, * पूल, Mackworth और Goebel 1998 , पीपी। 281-316, * लुगर और Stubblefield 2004 , पीपी। 314-329, * निल्सन 1998 , अध्याय। 10.1-2, 22
- ^ सूचना मूल्य सिद्धांत : * रसेल और नॉरविग 2003 , पीपी। 600–604
- ^ शास्त्रीय योजना: * रसेल और नॉरविग 2003 , पीपी। 375–430, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 281–315, * लुगर एंड स्टबलफील्ड 2004 , पीपी। 314–329, * निल्सन 1998 , अध्याय। 10.1-2, 22
- ^ गैर-नियतात्मक डोमेन में योजना और अभिनय: सशर्त योजना, निष्पादन निगरानी, पुनर्योजना और निरंतर योजना: * रसेल और नॉरविग 2003 , पीपी। 430-449
- ^ मल्टी-एजेंट प्लानिंग एंड इमर्जेंटबिहेवियर: * रसेल एंड नॉरविग 2003 , पीपी. 449-455
- ^ ट्यूरिंग 1950 ।
- ^ सोलोमोनॉफ 1956 ।
- ^ ए बी लर्निंग : * एसीएम 1998 , आई.2.6, * रसेल एंड नॉरविग 2003 , पीपी। 649-788, * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 397–438, * लुगर एंड स्टबलफील्ड 2004 , पीपी। 385-542 , * निल्सन 1998 , अध्याय। 3.3, 10.3, 17.5, 20
- ^ जॉर्डन, एमआई; मिशेल, टीएम (16 जुलाई 2015)। "मशीन लर्निंग: ट्रेंड्स, पर्सपेक्टिव्स एंड प्रॉस्पेक्ट्स"। विज्ञान । 349 (6245): 255-260। बिबकोड : 2015Sci ... 349..255J । डोई : 10.1126/विज्ञान.आआ8415 । पीएमआईडी 26185243 । S2CID 677218 ।
- ^ रीइन्फोर्समेंट लर्निंग : * रसेल एंड नॉरविग 2003 , पीपी। 763-788 * लुगर एंड स्टबलफील्ड 2004 , पीपी। 442-449
- ^ प्राकृतिक भाषा प्रसंस्करण : * एसीएम 1998 , आई.2.7 * रसेल और नॉरविग 2003 , पीपी। 790-831 * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 91-104 * लुगर और स्टबलफील्ड 2004 , पीपी। 591–632
- ^ सूचना पुनर्प्राप्ति (यानी टेक्स्ट माइनिंग ) और मशीन अनुवाद सहित प्राकृतिक भाषा प्रसंस्करण के अनुप्रयोग: * रसेल और नॉरविग 2003 , पीपी। 840–857, * लुगर एंड स्टबलफील्ड 2004 , पीपी। 623–630
- ^ कंब्रिया, एरिक; व्हाइट, बेबो (मई 2014)। "जंपिंग एनएलपी कर्व्स: ए रिव्यू ऑफ नेचुरल लैंग्वेज प्रोसेसिंग रिसर्च [समीक्षा लेख]"। आईईईई कम्प्यूटेशनल इंटेलिजेंस पत्रिका । 9 (2): 48-57। डोई : 10.1109/एमसीआई.2014.2307227 । एस २ सीआईडी २०६४५१ ९ ८६ ।
- ^ विन्सेंट, जेम्स (7 नवंबर 2019)। "ओपनएआई ने टेक्स्ट-जनरेटिंग एआई प्रकाशित किया है जिसे साझा करना बहुत खतरनाक था" । द वर्ज । मूल से 11 जून 2020 को संग्रहीत किया गया । 11 जून 2020 को लिया गया ।
- ^ मशीन धारणा : * रसेल और नॉरविग 2003 , पीपी। 537-581, 863-898 * निल्सन 1998 , ~ अध्याय। 6
- ^ वाक् पहचान : * ACM 1998 , ~I.2.7 * रसेल और नॉर्विग 2003 , पीपी. 568-578
- ^ वस्तु पहचान : * रसेल और नॉरविग 2003 , पीपी. 885–892
- ^ कंप्यूटर विजन : * एसीएम 1998 , आई.2.10 * रसेल एंड नॉरविग 2003 , पीपी। 863–898 * निल्सन 1998 , अध्याय। 6
- ^ रोबोटिक्स : * ACM 1998 , I.2.9, * रसेल और नॉरविग 2003 , पीपी. 901–942, * पूले, मैकवर्थ और गोएबेल 1998 , पीपी. 443–460
- ^ मूविंग एंड कॉन्फिगरेशन स्पेस : * रसेल एंड नॉरविग 2003 , पीपी। 916–932
- ^ टेकुसी २०१२ ।
- ^ रोबोटिक मैपिंग (स्थानीयकरण, आदि): * रसेल और नॉरविग 2003 , पीपी। 908–915
- ^ कैडेना, सीजर; कार्लोन, लुका; कैरिलो, हेनरी; लतीफ, यासिर; स्कारामुज़ा, डेविड; नीरा, जोस; रीड, इयान; लियोनार्ड, जॉन जे। (दिसंबर 2016)। "अतीत, वर्तमान, और एक साथ स्थानीयकरण और मानचित्रण का भविष्य: मजबूत-धारणा युग की ओर"। रोबोटिक्स पर आईईईई लेनदेन । ३२ (६): १३०९-१३३२। आर्क्सिव : १६०६.०५८३० । बिबकोड : 2016arXiv160605830C । डोई : 10.1109/टीआरओ.2016.2624754 । एस २ सीआईडी २५ ९ ६७८७ ।
- ^ Moravec 1988 , पृ। 15.
- ^ चान, ज़ू पिंग (15 नवंबर 2015)। "यह तब होगा जब रोबोट दुनिया पर कब्जा कर लेंगे" । मूल से 24 अप्रैल 2018 को संग्रहीत किया गया । 23 अप्रैल 2018 को लिया गया ।
- ^ "आईकेईए फर्नीचर और एआई की सीमाएं" । अर्थशास्त्री । 2018. मूल से 24 अप्रैल 2018 को संग्रहीत किया गया । 24 अप्रैल 2018 को लिया गया ।
- ^ "किस्मत" । एमआईटी आर्टिफिशियल इंटेलिजेंस लेबोरेटरी, ह्यूमनॉइड रोबोटिक्स ग्रुप। मूल से 17 अक्टूबर 2014 को संग्रहीत किया गया । 25 अक्टूबर 2014 को लिया गया ।
- ^ थॉम्पसन, डेरेक (2018)। "रोबोट क्या नौकरियां लेंगे?" . अटलांटिक । मूल से 24 अप्रैल 2018 को संग्रहीत किया गया । 24 अप्रैल 2018 को लिया गया ।
- ^ स्कैसेलेटी, ब्रायन (2002)। "ह्यूमनॉइड रोबोट के लिए मन का सिद्धांत"। स्वायत्त रोबोट । १२ (१): १३-२४. डोई : 10.1023/ए:1013298507114 । एस२ सीआईडी १ ९ ७ ९ ३१५ ।
- ^ काओ, योंगकैन; यू, वेनवु; रेन, वेई; चेन, ग्वानरोंग (फरवरी 2013)। "वितरित बहु-एजेंट समन्वय के अध्ययन में हाल की प्रगति का अवलोकन"। औद्योगिक सूचना विज्ञान पर आईईईई लेनदेन । ९ (१): ४२७-४३८. आर्क्सिव : 1207.3231 । डीओआई : 10.1109/टीआईआई.2012.2219061 । S2CID 9588126 ।
- ^ थ्रो 1993 ।
- ^ एडेलसन 1991 ।
- ^ ताओ और टैन 2005 ।
- ^ पोरिया, सौजन्या; कंब्रिया, एरिक; बाजपेयी, राजीव; हुसैन, आमिर (सितंबर 2017)। "भावात्मक कंप्यूटिंग की समीक्षा: यूनिमॉडल विश्लेषण से मल्टीमॉडल फ्यूजन तक" । सूचना संलयन । 37 : 98-125। डीओआई : 10.1016/j.inffus.2017.02.003 । एचडीएल : 1893/25490 ।
- ^ इमोशन एंड अफेक्टिव कंप्यूटिंग : * मिंस्की २००६
- ^ वाडेल, केवे (2018)। "चैटबॉट्स ने अलौकिक घाटी में प्रवेश किया है" । अटलांटिक । मूल से 24 अप्रैल 2018 को संग्रहीत किया गया । 24 अप्रैल 2018 को लिया गया ।
- ^ पेनाचिन, सी.; गोएर्टज़ेल, बी। (2007)। "आर्टिफिशियल जनरल इंटेलिजेंस के लिए समकालीन दृष्टिकोण"। आर्टिफिशियल जनरल इंटेलिजेंस । संज्ञानात्मक प्रौद्योगिकियां। बर्लिन, हीडलबर्ग: स्प्रिंगर। डोई : 10.1007/978-3-540-68677-4_1 । आईएसबीएन 978-3-540-23733-4.
- ^ ए बी सी रॉबर्ट्स, जैकब (2016)। "थिंकिंग मशीन्स: द सर्च फॉर आर्टिफिशियल इंटेलिजेंस" । आसवन । वॉल्यूम। 2 नहीं। 2. पीपी. 14–23. मूल से 19 अगस्त 2018 को संग्रहीत किया गया । 20 मार्च 2018 को लिया गया ।
- ^ "कृत्रिम बुद्धि के महानायक: क्या यह प्रतिभा इसे रोक कर रख सकती है?" . अभिभावक । १६ फरवरी २०१६। २३ अप्रैल २०१८ को मूल से संग्रहीत । 26 अप्रैल 2018 को लिया गया ।
- ^ मनिह, वलोडिमिर; कावुकुओग्लू, कोरे; सिल्वर, डेविड; रुसु, आंद्रेई ए.; वेनेस, जोएल; बेलेमारे, मार्क जी.; कब्र, एलेक्स; रीडमिलर, मार्टिन; फ़िडजेलैंड, एंड्रियास के.; ओस्त्रोव्स्की, जॉर्ज; पीटरसन, स्टिग; बीट्टी, चार्ल्स; सादिक, आमिर; एंटोनोग्लू, आयोनिस; राजा, हेलेन; कुमारन, दर्शन; विएस्ट्रा, दान; लेग, शेन; हसबिस, डेमिस (26 फरवरी 2015)। "गहन सुदृढीकरण सीखने के माध्यम से मानव-स्तरीय नियंत्रण"। प्रकृति । ५१८ (७५४०): ५२९-५३३। बिबकोड : 2015Natur.518..529M । डोई : 10.1038/नेचर14236 । पीएमआईडी 25719670 । S2CID 205242740 ।
- ^ नमूना, इयान (14 मार्च 2017)। "गूगल का डीपमाइंड एआई प्रोग्राम बनाता है जो एक इंसान की तरह सीख सकता है" । अभिभावक । मूल से 26 अप्रैल 2018 को संग्रहीत किया गया । 26 अप्रैल 2018 को लिया गया ।
- ^ "काम नहीं करने से लेकर तंत्रिका नेटवर्किंग तक" । अर्थशास्त्री । २०१६. मूल से ३१ दिसंबर २०१६ को संग्रहीत । 26 अप्रैल 2018 को लिया गया ।
- ^ रसेल और नॉरविग 2009 , अध्याय 27. एआई: द प्रेजेंट एंड फ्यूचर।
- ^ डोमिंगोस २०१५ , अध्याय ९। पहेली के टुकड़े जगह में गिर जाते हैं।
- ^ ए बी कृत्रिम मस्तिष्क तर्क: एआई को मानव मस्तिष्क के संचालन के अनुकरण की आवश्यकता होती है * रसेल और नॉरविग 2003 , पी। 957 * क्रेवियर 1993 , पीपी। 271 और 279 कुछ लोग जो तर्क के कुछ रूप बनाते हैं: * मोरावेक 1988 * कुर्ज़वील 2005 , पी। २६२ * हॉकिन्स एंड ब्लेकस्ली 2005 इस तर्क का सबसे चरम रूप (मस्तिष्क प्रतिस्थापन परिदृश्य) 1970 के दशक के मध्य में क्लार्क ग्लाइमोर द्वारा सामने रखा गया था और 1980 में ज़ेनॉन पाइलशिन और जॉन सियरल द्वारा छुआ गया था ।
- ^ गोएर्टज़ेल, बेन; लियान, रुईटिंग; अरेल, इतामार; डी गैरिस, ह्यूगो; चेन, शुओ (दिसंबर 2010)। "कृत्रिम मस्तिष्क परियोजनाओं का एक विश्व सर्वेक्षण, भाग II: जैविक रूप से प्रेरित संज्ञानात्मक वास्तुकला"। न्यूरोकंप्यूटिंग । ७४ (१-३): ३०-४९। डीओआई : 10.1016/j.neucom.2010.08.012 ।
- ^ निल्सन 1983 , पृ. 10.
- ^ एआई के तत्काल अग्रदूत: * मैककॉर्डक 2004 , पीपी। 51-107 * क्रेवियर 1993 , पीपी। 27–32 * रसेल और नॉरविग 2003 , पीपी। 15, 940 * मोरावेक 1988 , पी। 3
- ^ हॉगलैंड 1985 , पीपी. 112–117
- ^ संज्ञानात्मक सिमुलेशन, नेवेल और साइमन , सीएमयू में एआई(तब कार्नेगी टेक कहा जाता है): * मैककॉर्डक 2004 , पीपी। 139–179, 245–250, 322–323 (ईपीएएम) * क्रेवियर 1993 , पीपी। 145–149
- ^ सोअर (इतिहास): * मैककॉर्डक 2004 , पीपी। 450–451 * क्रेवियर 1993 , पीपी। 258–263
- ^ सेल और एसआरआई इंटरनेशनल में मैककार्थी और एआई शोध: * मैककॉर्डक 2004 , पीपी। 251-259 * क्रेवियर 1993
- ^ पर ऐ अनुसंधान एडिनबर्ग और फ्रांस में, के जन्म Prolog : * Crevier 1993 , पीपी। 193-196 * होवे 1994
- ^ 1960 के दशक में मार्विन मिन्स्की के तहत एमआईटी में एआई: * मैककॉर्डक 2004 , पीपी। 259-305 * क्रेवियर 1993 , पीपी। 83–102, 163–176 * रसेल और नॉरविग 2003 , पी। 19
- ^ साइक : * मैककॉर्डक 2004 , पी। 489, जो इसे "एक निश्चित रूप से कर्कश उद्यम" कहते हैं * क्रेवियर 1993 , पीपी. 239–243 * रसेल और नॉरविग 2003 , पी। ३६३−३६५ * लेनत और गुहा १९८९
- ^ ज्ञान क्रांति: * मैककॉर्डक 2004 , पीपी। 266-276, 298-300, 314, 421 * रसेल और नॉरविग 2003 , पीपी। 22-23
- ^ फ्रेडरिक, हेस-रोथ; विलियम, मरे; लियोनार्ड, एडेलमैन। "विशेषज्ञ प्रणालियां"। एक्सेस साइंस । डोई : 10.1036/1097-8542.248550 ।
- ^ एआई के लिए सन्निहित दृष्टिकोण: * मैककॉर्डक 2004 , पीपी। 454-462 * ब्रूक्स 1990 *मोरावेक 1988
- ^ वेंग एट अल। 2001 .
- ^ लुंगरेला एट अल. 2003 .
- ^ असदा एट अल। 2009 .
- ^ औडेयर 2010 ।
- ^ के पुनरुद्धार Connectionism : * Crevier 1993 , पीपी 214-215 *। रसेल और Norvig 2003 , पृ। 25
- ^ कम्प्यूटेशनल खुफिया * आईईईई कम्प्यूटेशनल खुफिया सोसायटी संग्रहीत 9 मई 2008 में वेबैक मशीन
- ^ हटसन, मैथ्यू (16 फरवरी 2018)। "कृत्रिम बुद्धिमत्ता का सामना प्रजनन क्षमता संकट से होता है" । विज्ञान । पीपी. 725-726. बिबकोड : 2018Sci ... 359..725H । डोई : 10.1126/विज्ञान.359.6377.725 । मूल से 29 अप्रैल 2018 को संग्रहीत किया गया । 28 अप्रैल 2018 को लिया गया ।
- ^ नॉरविग 2012 ।
- ^ लैंगली 2011 ।
- ^ काट्ज़ 2012 ।
- ^ द इंटेलिजेंट एजेंट प्रतिमान: * रसेल एंड नॉरविग 2003 , पीपी। 27, 32-58, 968–972 * पूल, मैकवर्थ और गोएबेल 1998 , पीपी। 7–21 * लुगर एंड स्टबलफील्ड 2004 , पीपी। 235–240 * हटर 2005 , पीपी. 125-126 लक्ष्यों, कार्यों, धारणा और पर्यावरण के संदर्भ में इस लेख में प्रयुक्त परिभाषा रसेल और नॉरविग (2003) के कारण है । अन्य परिभाषाओं में अतिरिक्त मानदंड के रूप में ज्ञान और सीखना भी शामिल है।
- ^ एजेंट आर्किटेक्चर , हाइब्रिड इंटेलिजेंट सिस्टम : * रसेल एंड नॉरविग (2003 , पीपी। 27, 932, 970-972) * निल्सन (1998 , अध्याय 25)
- ^ पदानुक्रमित नियंत्रण प्रणाली : * एल्बस 2002
- ^ लिटो, एंटोनियो; भट्ट, मेहुल; ओल्ट्रामारी, एलेसेंड्रो; वर्नोन, डेविड (मई 2018)। "सामान्य कृत्रिम बुद्धि में संज्ञानात्मक वास्तुकला की भूमिका"। संज्ञानात्मक प्रणाली अनुसंधान । 48 : 1-3। डीओआई : 10.1016/j.cogsys.2017.08.003 । एचडीएल : 2318/1665249 । S2CID 36189683 ।
- ^ ए बी रसेल और नॉरविग 2009 , पी। 1.
- ^ ए बी श्वेत पत्र: आर्टिफिशियल इंटेलिजेंस पर - उत्कृष्टता और विश्वास के लिए एक यूरोपीय दृष्टिकोण (पीडीएफ) । ब्रुसेल्स: यूरोपीय आयोग। 2020 पी. 1.20 फरवरी 2020 को मूल से संग्रहीत (पीडीएफ) । 20 फरवरी 2020 को लिया गया ।
- ^ "एआई मानव मस्तिष्क की शक्ति को पार करने के लिए तैयार है" । सीएनएन । ९ अगस्त २००६। मूल से १९ फरवरी २००८ को संग्रहीत ।
- ^ उड़ान में विलंब की भविष्यवाणी करने के ऐ का उपयोग संग्रहीत 20 नवंबर 2018 में वेबैक मशीन , Ishti.org।
- ^ एन एलेट्रास; डी. त्सारपटसनिस; डी. प्रीओटियुक-पिएत्रो; वी. लैम्पोस (2016)। "यूरोपियन कोर्ट ऑफ़ ह्यूमन राइट्स के न्यायिक निर्णयों की भविष्यवाणी करना: एक प्राकृतिक भाषा प्रसंस्करण परिप्रेक्ष्य" । पीरज कंप्यूटर साइंस । 2 : ई93. डोई : 10.7717/पीरज-सीएस.93 ।
- ^ "द इकोनॉमिस्ट बताते हैं: क्यों कंपनियां कृत्रिम बुद्धिमत्ता में जमा हो रही हैं" । अर्थशास्त्री । ३१ मार्च २०१६। ८ मई २०१६ को मूल से संग्रहीत । 19 मई 2016 को लिया गया ।
- ^ लोहर, स्टीव (28 फरवरी 2016)। "आर्टिफिशियल इंटेलिजेंस का वादा छोटे चरणों में सामने आता है" । द न्यूयॉर्क टाइम्स । मूल से २९ फरवरी २०१६ को संग्रहीत । 29 फरवरी 2016 को लिया गया ।
- ^ फ्रांगौल, अनमार (14 जून 2019)। "कैलिफ़ोर्निया का एक व्यवसाय एआई का उपयोग ऊर्जा भंडारण के बारे में हमारे सोचने के तरीके को बदलने के लिए कर रहा है" । सीएनबीसी । मूल से 25 जुलाई 2020 को संग्रहीत किया गया । 5 नवंबर 2019 को लिया गया ।
- ^ वेकफील्ड, जेन (15 जून 2016)। "सोशल मीडिया 'टीवी को पछाड़ देता है' युवा लोगों के लिए समाचार स्रोत के रूप में" । बीबीसी समाचार । मूल से 24 जून 2016 को संग्रहीत किया गया।
- ^ स्मिथ, मार्क (22 जुलाई 2016)। "तो क्या आपको लगता है कि आपने इस लेख को पढ़ना चुना?" . बीबीसी समाचार । मूल से 25 जुलाई 2016 को संग्रहीत किया गया।
- ^ ब्राउन, एलीन। "आधे अमेरिकियों को विश्वास नहीं है कि डीपफेक समाचार उन्हें ऑनलाइन लक्षित कर सकते हैं" । जेडडीनेट । मूल से 6 नवंबर 2019 को संग्रहीत । 3 दिसंबर 2019 को लिया गया ।
- ^ ज़ोला, एंड्रयू (12 अप्रैल 2019)। "साक्षात्कार तैयारी: 40 आर्टिफिशियल इंटेलिजेंस प्रश्न" । स्प्रिंगबोर्ड ब्लॉग ।
- ^ द ट्यूरिंग टेस्ट :
ट्यूरिंग का मूल प्रकाशन: * ट्यूरिंग 1950 ऐतिहासिक प्रभाव और दार्शनिक निहितार्थ: * हाउगलैंड 1985 , पीपी। 6–9 * क्रेवियर 1993 , पी। 24 * मैककॉर्डक 2004 , पीपी। 70-71 * रसेल और नॉरविग 2003 , पीपी। 2-3 और 948 - ^ डार्टमाउथ प्रस्ताव: * मैकार्थी एट अल। १९५५ (मूल प्रस्ताव) * क्रेवियर १९९३ , पृ. 49 (ऐतिहासिक महत्व)
- ^ शारीरिक प्रतीक प्रणाली परिकल्पना: * नेवेल और साइमन 1976 , पृ। ११६ * मैककॉर्डक २००४ , पृ. १५३ * रसेल और नॉरविग २००३ , पृ. १८
- ^ ड्रेफस १९९२ , पृ. १५६.
- ^ ड्रेफस ' क्रिटिक ऑफ आर्टिफिशियल इंटेलिजेंस : * ड्रेफस 1972 , ड्रेफस एंड ड्रेफस 1986 * क्रेवियर 1993 , पीपी। 120-132 * मैककॉर्डक 2004 , पीपी। 211–239 * रसेल और नॉरविग 2003 , पीपी। 950–952,
- ^ गोडेल १९५१ : इस व्याख्यान में, कर्ट गोडेल अपूर्णता प्रमेय का उपयोग निम्नलिखित वियोजन पर पहुंचने के लिए करते हैं: (ए) मानव मन एक सुसंगत परिमित मशीन नहीं है, या (बी) डायोफैंटाइन समीकरण मौजूद हैंजिसके लिए यह तय नहीं कर सकता है कि समाधान मौजूद हैं या नहीं . गोडेल (बी) को अकल्पनीय पाता है, और ऐसा लगता है कि मानव मन एक सीमित मशीन के बराबर नहीं था, यानी, इसकी शक्ति किसी भी सीमित मशीन से अधिक थी। उन्होंने माना कि यह केवल एक अनुमान था, क्योंकि कोई कभी भी खंडन नहीं कर सकता था (बी)। फिर भी उन्होंने इस निष्कर्ष को एक "निश्चित तथ्य" माना।
- ^ गणितीय आपत्ति: * रसेल और नॉरविग 2003 , पी। 949 * मैककॉर्डक 2004 , पीपी। 448-449 गणितीय आपत्ति बनाना: * लुकास 1961 * पेनरोज़ 1989 गणितीय आपत्ति का खंडन: * ट्यूरिंग 1950 "(2) गणितीय आपत्ति" के तहत * हॉफस्टैटर 1979 पृष्ठभूमि: * गोडेल 1931, चर्च 1936, क्लेन 1935, ट्यूरिंग 1937
- ^ ग्राहम ओपी (20 जनवरी 2015)। "गोडेल की अपूर्णता प्रमेय" । स्टैनफोर्ड इनसाइक्लोपीडिया ऑफ फिलॉसफी । मूल से 22 अप्रैल 2016 को संग्रहीत किया गया । 27 अप्रैल 2016 को लिया गया ।
हालांकि, ये गोडेलियन यांत्रिक विरोधी तर्क समस्याग्रस्त हैं, और व्यापक सहमति है कि वे विफल हो जाते हैं।
- ^ स्टुअर्ट जे. रसेल ; पीटर नॉरविग (2010)। "26.1.2: दार्शनिक नींव/कमजोर एआई: क्या मशीनें बुद्धिमानी से कार्य कर सकती हैं?/गणितीय आपत्ति"। आर्टिफिशियल इंटेलिजेंस: ए मॉडर्न अप्रोच (तीसरा संस्करण)। अपर सैडल रिवर, एनजे: अप्रेंटिस हॉल । आईएसबीएन 978-0-13-604259-4.
भले ही हम यह मान लें कि कंप्यूटर की सीमाएं हैं जो वे साबित कर सकते हैं, इस बात का कोई सबूत नहीं है कि मनुष्य उन सीमाओं से प्रतिरक्षित हैं।
- ^ मार्क कोल्यवन. गणित के दर्शन के लिए एक परिचय। कैम्ब्रिज यूनिवर्सिटी प्रेस , 2012। 2.2.2 से, 'गोडेल के अपूर्णता परिणामों का दार्शनिक महत्व': "स्वीकृत ज्ञान (जिसके साथ मैं सहमत हूं) यह है कि लुकास-पेनरोज़ तर्क विफल हो जाते हैं।"
- ^ इफोफेन, रॉन; क्रिटिकोस, मिहालिस (3 जनवरी 2019)। "रेगुलेटिंग आर्टिफिशियल इंटेलिजेंस एंड रोबोटिक्स: एथिक्स बाय डिजाइन इन ए डिजिटल सोसाइटी"। समकालीन सामाजिक विज्ञान । 16 (2): 170-184। डोई : 10.1080/21582041.2018.1563803 । आईएसएसएन 2158-2041 । S2CID 59298502 ।
- ^ "एथिकल एआई लर्न्स ह्यूमन राइट्स फ्रेमवर्क" । अमेरिका की आवाज । मूल से 11 नवंबर 2019 को संग्रहीत । 10 नवंबर 2019 को लिया गया ।
- ^ क्रेवियर 1993 , पीपी. 132-144.
- ^ जोसेफ वेइज़नबाम की एआई की आलोचना: * वेइज़नबाम 1976 * क्रेवियर 1993 , पीपी। 132–144 * मैककॉर्डक 2004 , पीपी। 356–373 * रसेल और नॉरविग 2003 , पी। 961 Weizenbaum (AI शोधकर्ता जिसने पहला चैटरबोट प्रोग्राम, ELIZA विकसित किया) ने 1976 में तर्क दिया कि कृत्रिम बुद्धिमत्ता के दुरुपयोग में मानव जीवन का अवमूल्यन करने की क्षमता है।
- ^ वैलाच, वेंडेल (2010)। नैतिक मशीनें । ऑक्सफोर्ड यूनिवरसिटि प्रेस।
- ^ वैलाच २०१० , पीपी. ३७-५४.
- ^ वैलाच 2010 , पीपी. 55-73.
- ^ वैलाच 2010 , "परिचय"।
- ^ ए बी माइकल एंडरसन और सुसान लेह एंडरसन (2011), मशीन एथिक्स, कैम्ब्रिज यूनिवर्सिटी प्रेस।
- ^ ए बी "मशीन नैतिकता" । aaai.org । मूल से 29 नवंबर 2014 को संग्रहीत किया गया ।
- ^ रुबिन, चार्ल्स (स्प्रिंग 2003)। "कृत्रिम बुद्धिमत्ता और मानव प्रकृति" । द न्यू अटलांटिस । 1 : 88-100। से संग्रहीत मूल 11 जून 2012 को।
- ^ ब्रूक्स, रॉडनी (10 नवंबर 2014)। "कृत्रिम बुद्धिमत्ता एक उपकरण है, खतरा नहीं" । मूल से 12 नवंबर 2014 को संग्रहीत किया गया ।
- ^ "स्टीफन हॉकिंग, एलोन मस्क और बिल गेट्स आर्टिफिशियल इंटेलिजेंस के बारे में चेतावनी देते हैं" । प्रेक्षक । १९ अगस्त २०१५। मूल से ३० अक्टूबर २०१५ को संग्रहीत । 30 अक्टूबर 2015 को लिया गया ।
- ^ चल्मर्स, डेविड (1995)। "चेतना की समस्या का सामना करना" । चेतना अध्ययन के जर्नल । २ (३): २००-२१९। मूल से 8 मार्च 2005 को संग्रहीत । 11 अक्टूबर 2018 को लिया गया ।यह भी देखें इस लिंक संग्रहीत 8 अप्रैल 2011 वेबैक मशीन
- ^ होर्स्ट, स्टीवन , (2005) "मन की कम्प्यूटेशनल सिद्धांत" संग्रहीत 11 सितंबर 2018 में वेबैक मशीन में दर्शन के स्टैनफोर्ड विश्वकोश
- ^ Searle 1980 , पृ। 1.
- ^ सर्ल्स चाइनीज रूम आर्गुमेंट: * सियरल 1980 . सियरल की विचार प्रयोग की मूल प्रस्तुति। * सियरल 1999 । चर्चा: * रसेल और नॉरविग 2003 , पीपी। 958-960 * मैककॉर्डक 2004 , पीपी। 443–445 * क्रेवियर 1993 , पीपी। 269-271
- ^ रोबोट अधिकार : * रसेल और नॉरविग 2003 , पृ. 964 की समयपूर्वता: * हेंडरसन 2007 फिक्शन में: * मैककॉर्डक (2004 , पीपी। 190–25) फ्रेंकस्टीन पर चर्चा करता हैऔर प्रमुख नैतिक मुद्दों को वैज्ञानिक अभिमान और राक्षस की पीड़ा, यानी रोबोट अधिकारों के रूप में पहचानता है ।
- ^ "रोबोट कानूनी अधिकारों की मांग कर सकते हैं" । बीबीसी समाचार । २१ दिसंबर २००६। मूल से १५ अक्टूबर २०१९ को संग्रहीत । 3 फरवरी 2011 को लिया गया ।
- ^ इवांस, वुडी (2015)। "मरणोपरांत अधिकार: ट्रांसह्यूमन वर्ल्ड्स के आयाम" । टेक्नोकुल्टुरा । 12 (2). डोई : 10.5209/rev_TK.2015.v12.n2.49072 ।
- ^ मस्काफिल्म "सामग्री: प्लग एंड प्रार्थना फिल्म - आर्टिफिशियल इंटेलिजेंस - रोबोट -" । प्लगैंडप्रे-फिल्म.डी . मूल से 12 फरवरी 2016 को संग्रहीत किया गया।
- ^ ओमोहंड्रो, स्टीव (2008)। स्व-सुधार आर्टिफिशियल इंटेलिजेंस की प्रकृति । 2007 सिंगुलैरिटी समिट, सैन फ्रांसिस्को, सीए में प्रस्तुत और वितरित किया गया।
- ^ ए बी सी तकनीकी विलक्षणता : * विंग 1993 * कुर्ज़वील 2005 * रसेल और नॉरविग 2003 , पी। 963
- ^ ट्रांसह्यूमनिज्म : * मोरावेक 1988 * कुर्ज़वील 2005 * रसेल एंड नॉरविग 2003 , पी। 963
- ^ एआई एज़ इवोल्यूशन: * एडवर्ड फ्रेडकिन को मैककॉर्डक (2004 , पृष्ठ 401)में उद्धृत किया गया है। * बटलर 1863 * डायसन 1998
- ^ "रोबोट और आर्टिफिशियल इंटेलिजेंस" । www.igmchicago.org । मूल से 1 मई 2019 को संग्रहीत । 3 जुलाई 2019 को लिया गया ।
- ^ "साइज़िंग द प्राइज़: पीडब्ल्यूसी का ग्लोबल एआई स्टडी-एक्सप्लॉयटिंग द एआई रेवोल्यूशन" (पीडीएफ) । 11 नवंबर 2020 को लिया गया ।
- ^ ई मैकगॉघी, 'विल रोबोट्स ऑटोमेट योर जॉब अवे? पूर्ण रोजगार, बुनियादी आय, और आर्थिक डेमोक्रेसी '(2018) SSRN, भाग 2 (3) संग्रहीत 24 मई 2018 पर वेबैक मशीन
- ^ "स्वचालन और चिंता" । अर्थशास्त्री । ९ मई २०१५। १२ जनवरी २०१८ को मूल से संग्रहीत । 13 जनवरी 2018 को लिया गया ।
- ^ लोहर, स्टीव (2017)। "रोबोट नौकरियां ले लेंगे, लेकिन कुछ डर के रूप में तेज़ नहीं, नई रिपोर्ट कहती है" । द न्यूयॉर्क टाइम्स । मूल से 14 जनवरी 2018 को संग्रहीत किया गया । 13 जनवरी 2018 को लिया गया ।
- ^ फ्रे, कार्ल बेनेडिक्ट; ओसबोर्न, माइकल ए (1 जनवरी 2017)। "रोजगार का भविष्य: कम्प्यूटरीकरण के लिए नौकरियां कितनी संवेदनशील हैं?"। तकनीकी पूर्वानुमान और सामाजिक परिवर्तन । ११४ : २५४-२८०। CiteSeerX 10.1.1.395.16 . डीओआई : 10.1016/जे.टेकफोर.2016.08.019 । आईएसएसएन 0040-1625 ।
- ^ अर्न्त्ज़, मेलानी, टेरी ग्रेगरी, और उलरिच ज़िराह्न। "ओईसीडी देशों में नौकरियों के लिए स्वचालन का जोखिम: एक तुलनात्मक विश्लेषण।" ओईसीडी सामाजिक, रोजगार और प्रवासन कार्य पत्र 189 (2016)। पी 33.
- ^ महदवी, अरवा (26 जून 2017)। "20 वर्षों में कौन सी नौकरियां अभी भी होंगी? अपना भविष्य तैयार करने के लिए इसे पढ़ें" । द गार्जियन । मूल से 14 जनवरी 2018 को संग्रहीत किया गया । 13 जनवरी 2018 को लिया गया ।
- ^ साइमन, मैट (1 अप्रैल 2019)। "एंड्रयू यांग की राष्ट्रपति बोली इतनी 21वीं सदी है" । वायर्ड । मूल से 24 जून 2019 को संग्रहीत किया गया । 2 मई 2019 को प्राप्त - www.wired.com के माध्यम से।
- ^ "पांच विशेषज्ञ साझा करते हैं जो उन्हें एआई के बारे में सबसे ज्यादा डराता है" । 5 सितंबर 2018। 8 दिसंबर 2019 को मूल से संग्रहीत । 8 दिसंबर 2019 को लिया गया ।
- ^ रसेल, स्टुअर्ट., डेनियल डेवी और मैक्स टेगमार्क। मजबूत और लाभकारी आर्टिफिशियल इंटेलिजेंस के लिए अनुसंधान प्राथमिकताएं। एआई पत्रिका 36:4 (2015)। 8 दिसंबर 2016।
- ^ "टिप्पणी: बुरी खबर। कृत्रिम बुद्धिमत्ता पक्षपाती है" । सीएनए । 12 जनवरी 2019। मूल से 12 जनवरी 2019 को संग्रहीत । 19 जून 2020 को लिया गया ।
- ^ जेफ लार्सन, जूलिया एंगविन (23 मई 2016)। "हम कैसे COMPAS पुनरावर्तन एल्गोरिथम का विश्लेषण करते हैं" । प्रोपब्लिका । मूल से 29 अप्रैल 2019 को संग्रहीत । 19 जून 2020 को लिया गया ।
- ^ रॉलिन्सन, केविन (29 जनवरी 2015)। "माइक्रोसॉफ्ट के बिल गेट्स जोर देकर कहते हैं कि एआई एक खतरा है" । बीबीसी समाचार । मूल से 29 जनवरी 2015 को संग्रहीत किया गया । 30 जनवरी 2015 को लिया गया ।
- ^ होली, पीटर (28 जनवरी 2015)। "कृत्रिम बुद्धि के खतरों पर बिल गेट्स: 'मुझे समझ में नहीं आता कि कुछ लोग चिंतित क्यों नहीं हैं ' " । वाशिंगटन पोस्ट । आईएसएसएन 0190-8286 । मूल से 30 अक्टूबर 2015 को संग्रहीत किया गया । 30 अक्टूबर 2015 को लिया गया ।
- ^ गिब्स, सैमुअल (27 अक्टूबर 2014)। "एलोन मस्क: कृत्रिम बुद्धिमत्ता हमारे अस्तित्व के लिए सबसे बड़ा खतरा है" । द गार्जियन । मूल से 30 अक्टूबर 2015 को संग्रहीत किया गया । 30 अक्टूबर 2015 को लिया गया ।
- ^ चुरम, फिलिप एंड्रयू (14 मई 2019)। "युवल नूह हरारी राजनीति, प्रौद्योगिकी और प्रवास की बात करते हैं" । यूरोन्यूज़ । 15 नवंबर 2020 को लिया गया ।
- ^ सेलन-जोन्स, रोरी (2 दिसंबर 2014)। "स्टीफन हॉकिंग ने चेतावनी दी कि कृत्रिम बुद्धिमत्ता मानव जाति को समाप्त कर सकती है" । बीबीसी समाचार । मूल से 30 अक्टूबर 2015 को संग्रहीत किया गया । 30 अक्टूबर 2015 को लिया गया ।
- ^ Bostrom, निक (2015)। "क्या होता है जब हमारे कंप्यूटर हमसे ज्यादा स्मार्ट हो जाते हैं?" . टेड (सम्मेलन) । मूल से 25 जुलाई 2020 को संग्रहीत किया गया । 30 जनवरी 2020 को लिया गया ।
- ^ ए बी रसेल, स्टुअर्ट (8 अक्टूबर 2019)। मानव संगत: कृत्रिम बुद्धिमत्ता और नियंत्रण की समस्या । संयुक्त राज्य अमेरिका: वाइकिंग। आईएसबीएन 978-0-525-55861-3. ओसीएलसी 1083694322 ।
- ^ पोस्ट, वाशिंगटन। "एलोन मस्क जैसे टेक दिग्गज आपको टर्मिनेटर से बचाने के लिए $ 1 बिलियन खर्च कर रहे हैं" । मूल से 7 जून 2016 को संग्रहीत किया गया।
- ^ मुलर, विंसेंट सी.; Bostrom, निक (2014)। "आर्टिफिशियल इंटेलिजेंस में भविष्य की प्रगति: विशेषज्ञों के बीच एक सर्वेक्षण" (पीडीएफ) । एआई मायने रखता है । १ (१): ९-११. डोई : 10.1145/2639475.2639478 । S2CID 8510016 । मूल से 15 जनवरी 2016 को संग्रहीत (पीडीएफ) ।
- ^ "ओरेकल के सीईओ मार्क हर्ड को ईआरपी एआई से डरने का कोई कारण नहीं दिखता" । खोज ईआरपी । मूल से 6 मई 2019 को संग्रहीत । 6 मई 2019 को लिया गया ।
- ^ "मार्क जुकरबर्ग ने एआई के बारे में एलोन मस्क के व्यामोह का जवाब दिया: 'एआई जा रहा है ... हमारे समुदायों को सुरक्षित रखने में मदद करें। ' " । व्यापार अंदरूनी सूत्र । 25 मई 2018। मूल से 6 मई 2019 को संग्रहीत । 6 मई 2019 को लिया गया ।
- ^ "रहस्यमय कृत्रिम बुद्धिमत्ता कंपनी एलोन मस्क ने निवेश किया है जो गेम-चेंजिंग स्मार्ट कंप्यूटर विकसित कर रहा है" । टेक इनसाइडर । मूल से 30 अक्टूबर 2015 को संग्रहीत किया गया । 30 अक्टूबर 2015 को लिया गया ।
- ^ क्लार्क 2015ए ।
- ^ "एलोन मस्क आर्टिफिशियल इंटेलिजेंस रिसर्च के लिए अपने स्वयं के पैसे का $ 10M दान कर रहे हैं" । तेज कंपनी । १५ जनवरी २०१५। मूल से ३० अक्टूबर २०१५ को संग्रहीत । 30 अक्टूबर 2015 को लिया गया ।
- ^ "क्या कृत्रिम बुद्धिमत्ता वास्तव में मानवता के लिए एक संभावित खतरा है?" . परमाणु वैज्ञानिकों का बुलेटिन । ९ अगस्त २०१५। मूल से ३० अक्टूबर २०१५ को संग्रहीत । 30 अक्टूबर 2015 को लिया गया ।
- ^ "हत्यारा रोबोट के खिलाफ मामला, वास्तव में कृत्रिम बुद्धि पर काम करने वाले व्यक्ति से" । फ्यूजन.नेट । मूल से 4 फरवरी 2016 को संग्रहीत किया गया । 31 जनवरी 2016 को लिया गया ।
- ^ "क्या आर्टिफिशियल इंटेलिजेंस मानवता को नष्ट कर देगा? चिंता न करने के 5 कारण यहां दिए गए हैं" । स्वर । २२ अगस्त २०१४। मूल से ३० अक्टूबर २०१५ को संग्रहीत । 30 अक्टूबर 2015 को लिया गया ।
- ^ बेरीहिल, जेमी; हींग, केविन कोक; क्लोगर, रोब; मैकब्राइड, कीगन (2019)। हैलो, वर्ल्ड: आर्टिफिशियल इंटेलिजेंस एंड इट्स यूज़ इन पब्लिक सेक्टर (पीडीएफ) । पेरिस: सार्वजनिक क्षेत्र के नवाचार की ओईसीडी वेधशाला। 20 दिसंबर 2019 को मूल से संग्रहीत (पीडीएफ) । 9 अगस्त 2020 को लिया गया ।
- ^ बारफील्ड, वुडरो; पगालो, उगो (2018)। कृत्रिम बुद्धि के कानून पर शोध पुस्तिका । चेल्टनहैम, यूके। आईएसबीएन ९७८-१-७८६४३-९०४-८. ओसीएलसी 1039480085 ।
- ^ लॉ लाइब्रेरी ऑफ कांग्रेस (यूएस)। वैश्विक कानूनी अनुसंधान निदेशालय, जारी करने वाला निकाय। चयनित क्षेत्राधिकारों में कृत्रिम बुद्धि का विनियमन । एलसीसीएन 2019668143 । ओसीएलसी 1110727808 ।
- ^ विर्ट्ज़, बर्नड डब्ल्यू.; वीयरर, जान सी.; गीयर, कैरोलिन (24 जुलाई 2018)। "कृत्रिम बुद्धिमत्ता और सार्वजनिक क्षेत्र-अनुप्रयोग और चुनौतियाँ" । लोक प्रशासन के अंतर्राष्ट्रीय जर्नल । ४२ (७): ५९६-६१५। डोई : 10.1080/01900692.2018.1498103 । आईएसएसएन 0190-0692 । एस २ सीआईडी १५८८२ ९ ६०२ । मूल से 18 अगस्त 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- ^ बुइटेन, मिरियम सी (2019)। "आर्टिफिशियल इंटेलिजेंस के इंटेलिजेंट रेगुलेशन की ओर" । जोखिम विनियमन के यूरोपीय जर्नल । १० (१): ४१-५९. डीओआई : 10.1017/err.2019.8 । आईएसएसएन 1867-299X ।
- ^ सोताला, काज; यमपोलस्की, रोमन वी (19 दिसंबर 2014)। "विनाशकारी एजीआई जोखिम के जवाब: एक सर्वेक्षण" । फिजिका स्क्रिप्टा । 90 (1): 018001. दोई : 10.1088/0031-8949/90/1/018001 । आईएसएसएन 0031-8949 ।
- ^ बट्टाज़ो, जी। (जुलाई 2001)। "कृत्रिम चेतना: स्वप्नलोक या वास्तविक संभावना?"। कंप्यूटर । ३४ (७): २४-३०। डोई : 10.1109/2.933500 ।
- ^ एंडरसन, सुसान लेह। "असिमोव के "रोबोटिक्स के तीन नियम" और मशीन मेटाएथिक्स। एआई एंड सोसाइटी 22.4 (2008): 477-493।
- ^ मैककौली, ली (2007)। "एआई आर्मगेडन और रोबोटिक्स के तीन नियम"। नैतिकता और सूचना प्रौद्योगिकी । 9 (2): 153-164। साइटसीरएक्स 10.1.1.85.8904 । डोई : 10.1007/एस10676-007-9138-2 । S2CID 37272949 ।
- ^ गलवान, जिल (1 जनवरी 1997)। "फिलिप के. डिक के "डू एंड्राइड्स ड्रीम ऑफ़ इलेक्ट्रिक शीप" में मरणोपरांत सामूहिक में प्रवेश करना? " "। साइंस फिक्शन स्टडीज । २४ (३): ४१३-४२९। जेएसटीओआर 4240644 ।
एआई पाठ्यपुस्तकें
- हटर, मार्कस (2005). यूनिवर्सल आर्टिफिशियल इंटेलिजेंस । बर्लिन: स्प्रिंगर. आईएसबीएन 978-3-540-22139-5.
- जैक्सन, फिलिप (1985)। आर्टिफिशियल इंटेलिजेंस का परिचय (दूसरा संस्करण)। डोवर। आईएसबीएन ९७८-०-४८६-२४८६४-६. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 4 मार्च 2020 को लिया गया ।
- लुगर, जॉर्ज ; स्टबलफील्ड, विलियम (2004)। आर्टिफिशियल इंटेलिजेंस: जटिल समस्या समाधान के लिए संरचनाएं और रणनीतियां (5वां संस्करण)। बेंजामिन / कमिंग्स। आईएसबीएन 978-0-8053-4780-7. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 17 दिसंबर 2019 को लिया गया ।
- नियपोलिटन, रिचर्ड ; जियांग, ज़िया (2018)। आर्टिफिशियल इंटेलिजेंस: मशीन लर्निंग के परिचय के साथ । चैपमैन और हॉल / सीआरसी। आईएसबीएन 978-1-138-50238-3. मूल से 22 अगस्त 2020 को संग्रहीत किया गया । 3 जनवरी 2018 को लिया गया ।
- निल्सन, निल्स (1998)। आर्टिफिशियल इंटेलिजेंस: ए न्यू सिंथेसिस । मॉर्गन कॉफ़मैन। आईएसबीएन 978-1-55860-467-4. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 18 नवंबर 2019 को लिया गया ।
- रसेल, स्टुअर्ट जे . ; नॉरविग, पीटर (2003), आर्टिफिशियल इंटेलिजेंस: ए मॉडर्न अप्रोच (दूसरा संस्करण), अपर सैडल रिवर, न्यू जर्सी: प्रेंटिस हॉल, आईएसबीएन 0-13-790395-2.
- रसेल, स्टुअर्ट जे . ; नॉरविग, पीटर (2009)। आर्टिफिशियल इंटेलिजेंस: ए मॉडर्न अप्रोच (तीसरा संस्करण)। अपर सैडल रिवर, न्यू जर्सी: अप्रेंटिस हॉल। आईएसबीएन 978-0-13-604259-4..
- पूले, डेविड ; मैकवर्थ, एलन ; गोएबेल, रैंडी (1998)। कम्प्यूटेशनल इंटेलिजेंस: एक तार्किक दृष्टिकोण । न्यू योर्क, ऑक्सफ़ोर्ड विश्वविद्यालय प्रेस। आईएसबीएन 978-0-19-510270-3. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- विंस्टन, पैट्रिक हेनरी (1984)। आर्टिफिशियल इंटेलिजेंस । पढ़ना, एमए: एडिसन-वेस्ले। आईएसबीएन 978-0-201-08259-3. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- रिच, ऐलेन (1983)। आर्टिफिशियल इंटेलिजेंस । मैकग्रा-हिल। आईएसबीएन 978-0-07-052261-9. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 17 दिसंबर 2019 को लिया गया ।
- बंडी, एलन (1980)। आर्टिफिशियल इंटेलिजेंस: एन इंट्रोडक्टरी कोर्स (दूसरा संस्करण)। एडिनबर्ग यूनिवर्सिटी प्रेस। आईएसबीएन 978-0-85224-410-4.
- पूले, डेविड ; मैकवर्थ, एलन (2017)। आर्टिफिशियल इंटेलिजेंस: कम्प्यूटेशनल एजेंटों की नींव (दूसरा संस्करण)। कैम्ब्रिज यूनिवर्सिटी प्रेस। आईएसबीएन 978-1-107-19539-4. मूल से 7 दिसंबर 2017 को संग्रहीत किया गया । 6 दिसंबर 2017 को लिया गया ।
- औफार्थ, बेन (2020)। पायथन कुकबुक के साथ आर्टिफिशियल इंटेलिजेंस: TensorFlow 2.x और PyTorch 1.6 (पहला संस्करण) का उपयोग करके AI एल्गोरिदम और गहन शिक्षण तकनीकों को लागू करने के लिए सिद्ध व्यंजन । पैकेट प्रकाशन। आईएसबीएन 978-1-78913-396-7. 13 जनवरी 2021 को लिया गया ।
- गॉर्डन, सिंडी (मार्च 2021)। एआई दुविधा (पहला संस्करण)। बीपीबी प्रकाशन। पी 224. आईएसबीएन ९७८८१९४८३७७८७.
एआई . का इतिहास
- क्रेवियर, डैनियल (1993), एआई: द टुमल्टियस सर्च फॉर आर्टिफिशियल इंटेलिजेंस , न्यूयॉर्क, एनवाई: बेसिकबुक्स, आईएसबीएन 0-465-02997-3.
- मैककॉर्डक, पामेला (2004), मशीन्स हू थिंक (दूसरा संस्करण), नैटिक, एमए: एके पीटर्स, लिमिटेड, आईएसबीएन 1-56881-205-1.
- न्यूक्विस्ट, एचपी (1994)। द ब्रेन मेकर्स: जीनियस, ईगो, एंड ग्रीड इन द क्वेस्ट फॉर मशीन्स दैट थिंक । न्यूयॉर्क: मैकमिलन/एसएएमएस। आईएसबीएन 978-0-672-30412-5.
- निल्सन, निल्स (2009)। द क्वेस्ट फॉर आर्टिफिशियल इंटेलिजेंस: ए हिस्ट्री ऑफ आइडियाज एंड अचीवमेंट्स । न्यूयॉर्क: कैम्ब्रिज यूनिवर्सिटी प्रेस। आईएसबीएन 978-0-521-12293-1.
अन्य स्रोत
- "एसीएम कम्प्यूटिंग क्लासिफिकेशन सिस्टम: आर्टिफिशियल इंटेलिजेंस" । एसीएम । 1998 से संग्रहीत मूल 12 अक्टूबर 2007 को । 30 अगस्त 2007 को पुनःप्राप्त .
- एल्बस, जेएस (2002)। "4-डी/आरसीएस: इंटेलिजेंट मानव रहित ग्राउंड वाहनों के लिए एक संदर्भ मॉडल आर्किटेक्चर" (पीडीएफ) । गेरहार्ट में, जी.; गुंडरसन, आर.; शोमेकर, सी. (सं.). मानवरहित ग्राउंड व्हीकल टेक्नोलॉजी पर एसपीआईई एरोसेंस सत्र की कार्यवाही । मानव रहित भूमि वाहन प्रौद्योगिकी IV। 3693 . पीपी. 11-20. बिबकोड : 2002SPIE.4715..303A । साइटसीरएक्स 10.1.1.1.15.14 । डोई : 10.1117/12.474462 । S2CID 63339739 । मूल (पीडीएफ) से 25 जुलाई 2004 को संग्रहीत ।
- अलेक्जेंडर, इगोर (1995)। कृत्रिम तंत्रिका-चेतना: एक अद्यतन । मुझे चाहिए। से संग्रहीत मूल 2 मार्च 1997 को। BibTex संग्रहीत पर 2 मार्च 1997 वेबैक मशीन ।
- असदा, एम.; होसोदा, के.; कुनियोशी, वाई.; इशिगुरो, एच.; इनुई, टी.; योशिकावा, वाई.; ओगिनो, एम।; योशिदा, सी। (2009)। "संज्ञानात्मक विकासात्मक रोबोटिक्स: एक सर्वेक्षण"। स्वायत्त मानसिक विकास पर आईईईई लेनदेन । १ (१): १२-३४। डोई : 10.1109/tamd.2009.2021702 । S2CID 10168773 ।
- बाख, जोशा (2008)। "सिंथेटिक इंटेलिजेंस के सात सिद्धांत" । वांग, पेई में; गोएर्टज़ेल, बेन; फ्रेंकलिन, स्टेन (सं.). आर्टिफिशियल जनरल इंटेलिजेंस, 2008: पहले एजीआई सम्मेलन की कार्यवाही । आईओएस प्रेस। पीपी 63-74। आईएसबीएन 978-1-58603-833-5. मूल से 8 जुलाई 2016 को संग्रहीत किया गया । 16 फरवरी 2016 को लिया गया ।
- ब्रूक्स, रॉडनी (1990)। "हाथी शतरंज नहीं खेलते हैं" (पीडीएफ) । रोबोटिक्स और स्वायत्त प्रणाली । ६ (१-२): ३-१५। साइटसीरएक्स 10.1.1.588.7539 । डीओआई : 10.1016/एस0921-8890(05)80025-9 । 9 अगस्त 2007 को मूल से संग्रहीत (पीडीएफ) ।
- ब्रूक्स, आरए (1991)। "पृथक संज्ञानात्मक सिमुलेटर के बजाय पूर्ण प्राणियों का निर्माण कैसे करें"। वानलेहन में, के. (सं.). इंटेलिजेंस के लिए आर्किटेक्चर । हिल्सडेल, एनजे: लॉरेंस एर्लबौम एसोसिएट्स। पीपी 225-239। साइटसीरएक्स 10.1.1.52.9510 ।
- बुकानन, ब्रूस जी. (2005). "ए (बहुत) आर्टिफिशियल इंटेलिजेंस का संक्षिप्त इतिहास" (पीडीएफ) । एआई पत्रिका : 53-60। से संग्रहीत मूल (पीडीएफ) 26 सितंबर, 2007 को।
- बटलर, सैमुअल (13 जून 1863)। "मशीनों के बीच डार्विन" । संपादक के नाम चिठी। प्रेस । क्राइस्टचर्च, न्यूजीलैंड। मूल से 19 सितंबर 2008 को संग्रहीत । 16 अक्टूबर 2014 को लिया गया - विक्टोरिया यूनिवर्सिटी ऑफ़ वेलिंगटन के माध्यम से।
- क्लार्क, जैक (1 जुलाई 2015ए)। "कस्तूरी समर्थित समूह कृत्रिम बुद्धिमत्ता के पीछे जोखिम की जांच करता है" । ब्लूमबर्ग डॉट कॉम । मूल से 30 अक्टूबर 2015 को संग्रहीत किया गया । 30 अक्टूबर 2015 को लिया गया ।
- क्लार्क, जैक (8 दिसंबर 2015बी)। "क्यों 2015 आर्टिफिशियल इंटेलिजेंस में एक निर्णायक वर्ष था" । ब्लूमबर्ग डॉट कॉम । मूल से २३ नवंबर २०१६ को संग्रहीत किया गया । 23 नवंबर 2016 को लिया गया ।
- डेनेट, डैनियल (1991)। चेतना की व्याख्या की । पेंगुइन प्रेस। आईएसबीएन 978-0-7139-9037-9.
- डोमिंगोस, पेड्रो (2015)। द मास्टर एल्गोरिथम: हाउ द क्वेस्ट फॉर द अल्टीमेट लर्निंग मशीन विल रीमेक अवर वर्ल्ड । बुनियादी किताबें। आईएसबीएन 978-0-465-06192-1.
- डोवे, डीएल; हजेक, एआर (1997)। "ट्यूरिंग टेस्ट के लिए एक कम्प्यूटेशनल विस्तार" । ऑस्ट्रेलेशियन कॉग्निटिव साइंस सोसाइटी के चौथे सम्मेलन की कार्यवाही । मूल से २८ जून २०११ को संग्रहीत किया गया ।
- ड्रेफस, ह्यूबर्ट (1972)। कंप्यूटर क्या नहीं कर सकते । न्यूयॉर्क: एमआईटी प्रेस. आईएसबीएन 978-0-06-011082-6.
- ड्रेफस, ह्यूबर्ट ; ड्रेफस, स्टुअर्ट (1986)। मशीन पर दिमाग: कंप्यूटर के युग में मानव अंतर्ज्ञान और विशेषज्ञता की शक्ति । ऑक्सफोर्ड, यूके: ब्लैकवेल। आईएसबीएन 978-0-02-908060-3. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- ड्रेफस, ह्यूबर्ट (1992)। कंप्यूटर अभी भी क्या नहीं कर सकते हैं । न्यूयॉर्क: एमआईटी प्रेस. आईएसबीएन 978-0-262-54067-4.
- डायसन, जॉर्ज (1998)। मशीनों के बीच डार्विन । एलन लेन साइंस। आईएसबीएन 978-0-7382-0030-9. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- एडेलमैन, गेराल्ड (२३ नवंबर २००७)। "जेराल्ड एडेलमैन - तंत्रिका डार्विनवाद और मस्तिष्क-आधारित उपकरण" । बात कर रहे रोबोट। से संग्रहीत मूल 8 अक्टूबर 2009 को।
- एडेलसन, एडवर्ड (1991)। तंत्रिका तंत्र । न्यूयॉर्क: चेल्सी हाउस। आईएसबीएन 978-0-7910-0464-7. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 18 नवंबर 2019 को लिया गया ।
- फर्न, निकोलस (2007)। सबसे पुराने प्रश्नों के नवीनतम उत्तर: दुनिया के महानतम विचारकों के साथ एक दार्शनिक साहसिक । न्यूयॉर्क: ग्रोव प्रेस. आईएसबीएन 978-0-8021-1839-4.
- ग्लैडवेल, मैल्कम (2005)। पलक झपकना । न्यूयॉर्क: लिटिल, ब्राउन एंड कंपनी ISBN 978-0-316-17232-5.
- गोडेल, कर्ट (1951)। गणित की नींव और उनके निहितार्थ पर कुछ बुनियादी प्रमेय । गिब्स व्याख्यान। में
फेफरमैन, सोलोमन , एड. (1995)। कर्ट गोडेल: कलेक्टेड वर्क्स, वॉल्यूम। III: अप्रकाशित निबंध और व्याख्यान । ऑक्सफोर्ड यूनिवरसिटि प्रेस। पीपी 304-23। आईएसबीएन 978-0-19-514722-3. - गुडमैन, जोआना (2016)। रोबोट्स इन लॉ: हाउ आर्टिफिशियल इंटेलिजेंस कानूनी सेवाओं को बदल रहा है (पहला संस्करण)। सन्दूक समूह। आईएसबीएन 978-1-78358-264-8. मूल से 8 नवंबर 2016 को संग्रहीत किया गया । 7 नवंबर 2016 को लिया गया ।
- हॉगलैंड, जॉन (1985)। आर्टिफिशियल इंटेलिजेंस: द वेरी आइडिया । कैम्ब्रिज, मास: एमआईटी प्रेस। आईएसबीएन 978-0-262-08153-5.
- हॉकिन्स, जेफ ; ब्लेकस्ली, सैंड्रा (2005). इंटेलिजेंस पर । न्यूयॉर्क, एनवाई: आउल बुक्स। आईएसबीएन 978-0-8050-7853-4.
- हेंडरसन, मार्क (24 अप्रैल 2007)। "रोबोटों के लिए मानवाधिकार? हम बहक रहे हैं" . टाइम्स ऑनलाइन । लंडन। मूल से 31 मई 2014 को संग्रहीत किया गया । 31 मई 2014 को लिया गया ।
- हर्नान्डेज़-ओरालो, जोस (2000)। "ट्यूरिंग टेस्ट से परे"। तर्क, भाषा और सूचना का जर्नल । ९ (४): ४४७-४६६। डोई : 10.1023/ए: 1008367325700 । S2CID 14481982 ।
- हर्नान्डेज़-ओरालो, जे.; डोवे, डीएल (2010)। "यूनिवर्सल इंटेलिजेंस को मापना: किसी भी समय इंटेलिजेंस टेस्ट की ओर"। आर्टिफिशियल इंटेलिजेंस । १७४ (१८): १५०८-१५३९। साइटसीरएक्स 10.1.1.295.9079 । डीओआई : 10.1016/जे.आर्टिंट.2010.09.006 ।
- हिंटन, जीई (2007)। "प्रतिनिधित्व की कई परतों को सीखना"। संज्ञानात्मक विज्ञान में रुझान । 11 (10): 428-434। डीओआई : 10.1016/जे.टिक्स.2007.09.004 । पीएमआईडी १७ ९ २१०४२ । एस २ सीआईडी १५०६३१८ ।
- हॉफस्टैटर, डगलस (1979)। गोडेल, एस्चर, बाख: एक अनन्त गोल्डन ब्रैड । न्यूयॉर्क, एनवाई: विंटेज बुक्स। आईएसबीएन 978-0-394-74502-2.
- हॉलैंड, जॉन एच। (1975)। प्राकृतिक और कृत्रिम प्रणालियों में अनुकूलन । मिशिगन विश्वविद्यालय प्रेस। आईएसबीएन 978-0-262-58111-0. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 17 दिसंबर 2019 को लिया गया ।
- होवे, जे। (नवंबर 1994)। "एडिनबर्ग यूनिवर्सिटी में आर्टिफिशियल इंटेलिजेंस: ए पर्सपेक्टिव" । मूल से १५ मई २००७ को संग्रहीत । 30 अगस्त 2007 को पुनःप्राप्त .
- हटर, एम। (2012)। "यूनिवर्सल आर्टिफिशियल इंटेलिजेंस का एक दशक"। आर्टिफिशियल जनरल इंटेलिजेंस की सैद्धांतिक नींव । अटलांटिस सोच मशीनें। ४ . पीपी 67-88। साइटसीरएक्स 10.1.1.228.8725 । डोई : 10.2991/978-94-91216-62-6_5 । आईएसबीएन 978-94-91216-61-9. S2CID 8888091 ।
- कन्नमन, डैनियल ; स्लोविक, डी.; टावर्सकी, अमोस (1982)। अनिश्चितता के तहत निर्णय: अनुमान और पूर्वाग्रह । विज्ञान । १८५ . न्यूयॉर्क: कैम्ब्रिज यूनिवर्सिटी प्रेस। पीपी. 1124-1131. डोई : 10.1126/विज्ञान.185.4157.1124 । आईएसबीएन 978-0-521-28414-1. पीएमआईडी 17835457 । S2CID 143452957 ।
- कपलान, एंड्रियास; हेनलेन, माइकल (2019)। "सिरी, सिरी इन माई हैंड, हू इज द फेयरेस्ट इन द लैंड? ऑन द इंटरप्रिटेशन्स, इलस्ट्रेशन्स एंड इंप्लीकेशंस ऑफ आर्टिफिशियल इंटेलिजेंस"। व्यापार क्षितिज । 62 : 15-25। डोई : 10.1016/जे.बुशोर.2018.8.08.004 ।
- काट्ज़, यार्डन (1 नवंबर 2012)। "नोम चॉम्स्की जहां आर्टिफिशियल इंटेलिजेंस गलत हो गया" । अटलांटिक । मूल से २८ फरवरी २०१९ को संग्रहीत । 26 अक्टूबर 2014 को लिया गया ।
- कोज़ा, जॉन आर. (1992). जेनेटिक प्रोग्रामिंग (प्राकृतिक चयन के माध्यम से कंप्यूटर के प्रोग्रामिंग पर) । एमआईटी प्रेस. बिबकोड : 1992gppc.book ..... कश्मीर । आईएसबीएन 978-0-262-11170-6.
- कोलाटा, जी. (1982)। "कंप्यूटर सामान्य ज्ञान कैसे प्राप्त कर सकते हैं?"। विज्ञान । २१७ (४५६६): १२३७-१२३८। बिबकोड : १९ ८२ विज्ञान...२१७.१२३७के । डोई : 10.1126/विज्ञान.217.4566.1237 । पीएमआईडी 17837639 ।
- कुमार, गुलशन; कुमार, कृष्ण (2012)। "घुसपैठ का पता लगाने के लिए कृत्रिम-खुफिया-आधारित कलाकारों की टुकड़ी का उपयोग: एक समीक्षा" । एप्लाइड कम्प्यूटेशनल इंटेलिजेंस और सॉफ्ट कंप्यूटिंग । 2012 : 1-20। डोई : 10.1155/2012/850160 ।
- कुर्ज़वील, रे (1999)। आध्यात्मिक मशीनों का युग । पेंगुइन किताबें। आईएसबीएन 978-0-670-88217-5.
- कुर्ज़वील, रे (2005)। विलक्षणता निकट है । पेंगुइन किताबें। आईएसबीएन 978-0-670-03384-3.
- लैकॉफ, जॉर्ज ; नुनेज़, राफेल ई. (2000). गणित कहाँ से आता है: कैसे सन्निहित मन गणित को अस्तित्व में लाता है । बुनियादी किताबें। आईएसबीएन 978-0-465-03771-1.
- लैंगली, पैट (2011)। "मशीन लर्निंग का बदलता विज्ञान" । मशीन लर्निंग । 82 (3): 275-279। डीओआई : 10.1007/एस10994-011-5242-वाई ।
- लॉ, डायने (जून 1994)। Searle, Subsymbolic Functionalism and Synthetic Intelligence (तकनीकी रिपोर्ट)। टेक्सास विश्वविद्यालय, ऑस्टिन। पी एआई94-222। साइटसीरएक्स 10.1.1.38.8384 ।
- लेग, शेन; हटर, मार्कस (१५ जून २००७)। इंटेलिजेंस की परिभाषाओं का एक संग्रह (तकनीकी रिपोर्ट)। आईडीएसआईए । आर्क्सिव : ०७०६.३६३९ । बिबकोड : 2007arXiv0706.3639L । 07-07.
- लेनट, डगलस ; गुहा, आर.वी. (1989)। बड़े ज्ञान-आधारित सिस्टम का निर्माण । एडिसन-वेस्ले। आईएसबीएन 978-0-201-51752-1.
- लाइटहिल, जेम्स (1973)। "आर्टिफिशियल इंटेलिजेंस: ए जनरल सर्वे"। आर्टिफिशियल इंटेलिजेंस: एक पेपर संगोष्ठी । विज्ञान अनुसंधान परिषद।
- लुकास, जॉन (1961)। "दिमाग, मशीन और गोडेल"। एंडरसन में, एआर (एड।)। दिमाग और मशीनें । मूल से १९ अगस्त २००७ को संग्रहीत । 30 अगस्त 2007 को पुनःप्राप्त .
- लुंगरेला, एम.; मेटा, जी.; फ़िफ़र, आर.; सैंडिनी, जी। (2003)। "विकासात्मक रोबोटिक्स: एक सर्वेक्षण"। कनेक्शन विज्ञान । १५ (४): १५१-१९०। साइटसीरएक्स 10.1.1.83.7615 । डोई : 10.1080/09540090310001655110 । S2CID 1452734 ।
- मेकर, मेग ह्यूस्टन (2006)। "एआई@50: एआई पास्ट, प्रेजेंट, फ्यूचर" । डार्टमाउथ कॉलेज। से संग्रहीत मूल 3 जनवरी 2007 को । 16 अक्टूबर 2008 को लिया गया ।
- मार्कॉफ, जॉन (16 फरवरी 2011)। "कंप्यूटर 'खतरे पर जीत गया!': तुच्छ, यह नहीं है" । द न्यूयॉर्क टाइम्स । मूल से 22 अक्टूबर 2014 को संग्रहीत किया गया । 25 अक्टूबर 2014 को लिया गया ।
- मैकार्थी, जॉन ; मिन्स्की, मार्विन ; रोचेस्टर, नाथन ; शैनन, क्लाउड (1955). "आर्टिफिशियल इंटेलिजेंस पर डार्टमाउथ समर रिसर्च प्रोजेक्ट के लिए एक प्रस्ताव" । से संग्रहीत मूल 26 अगस्त 2007 को । 30 अगस्त 2007 को पुनःप्राप्त .
- मैकार्थी, जॉन ; हेस, पीजे (1969)। "कृत्रिम बुद्धि के दृष्टिकोण से कुछ दार्शनिक समस्याएं" । मशीन इंटेलिजेंस । ४ : ४६३–५०२। साइटसीरएक्स 10.1.1.85.5082 । मूल से 10 अगस्त 2007 को संग्रहीत । 30 अगस्त 2007 को पुनःप्राप्त .
- मैकार्थी, जॉन (12 नवंबर 2007)। "आर्टिफिशियल इंटेलिजेंस क्या है?" . www-formal.stanford.edu । मूल से 18 नवंबर 2015 को संग्रहीत किया गया।
- मैकार्थी, जॉन (12 नवंबर 2007)। "एआई के अनुप्रयोग" । www-formal.stanford.edu । मूल से २८ अगस्त २०१६ को संग्रहीत किया गया । 25 सितंबर 2016 को लिया गया ।
- मिन्स्की, मार्विन (1967)। संगणना: परिमित और अनंत मशीनें । एंगलवुड क्लिफ्स, एनजे: अप्रेंटिस-हॉल। आईएसबीएन 978-0-13-165449-5. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 18 नवंबर 2019 को लिया गया ।
- मिन्स्की, मार्विन (2006)। द इमोशन मशीन । न्यूयॉर्क, एनवाई: साइमन एंड शूस्टरल। आईएसबीएन 978-0-7432-7663-4.
- मोरवेक, हंस (1988)। मन बच्चे । हार्वर्ड यूनिवर्सिटी प्रेस। आईएसबीएन 978-0-674-57616-2. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 18 नवंबर 2019 को लिया गया ।
- नॉरविग, पीटर (25 जून 2012)। "ऑन चॉम्स्की एंड द टू कल्चर्स ऑफ़ स्टैटिस्टिकल लर्निंग" । पीटर नॉरविग। मूल से 19 अक्टूबर 2014 को संग्रहीत किया गया।
- एनआरसी (यूनाइटेड स्टेट्स नेशनल रिसर्च काउंसिल) (1999)। "आर्टिफिशियल इंटेलिजेंस में विकास"। एक क्रांति का वित्तपोषण: कंप्यूटिंग अनुसंधान के लिए सरकारी सहायता । राष्ट्रीय अकादमी प्रेस.
- नीधम, जोसेफ (1986)। चीन में विज्ञान और सभ्यता: खंड २ । केव्स बुक्स लिमिटेड
- नेवेल, एलन ; साइमन, एचए (1976)। "कंप्यूटर विज्ञान अनुभवजन्य पूछताछ के रूप में: प्रतीक और खोज" । एसीएम का संचार । 19 (3): 113-126। डोई : 10.1145/360018.360022 ।.
- निल्सन, निल्स (1983)। "आर्टिफिशियल इंटेलिजेंस 2001 के लिए तैयार करता है" (पीडीएफ) । एआई पत्रिका । 1 (1)। 17 अगस्त 2020 को मूल से संग्रहीत (पीडीएफ) । 22 अगस्त 2020 को लिया गया ।एसोसिएशन फॉर द एडवांसमेंट ऑफ आर्टिफिशियल इंटेलिजेंस के अध्यक्षीय भाषण ।
- ओ'ब्रायन, जेम्स; मराकस, जॉर्ज (2011)। प्रबंधन सूचना प्रणाली (10 वां संस्करण)। मैकग्रा-हिल/इरविन। आईएसबीएन 978-0-07-337681-3.
- ओ'कॉनर, कैथलीन मेलोन (1994)। मध्ययुगीन इस्लाम (निबंध) में जीवन की रासायनिक रचना (टेकविन) और उत्पत्ति की अन्य अवधारणाएं । पेनसिल्वेनिया यूनिवर्सिटी। पीपी. 1-435। एएआई९५०३८०४। मूल से 5 दिसंबर 2019 को संग्रहीत । 27 अगस्त 2008 को पुनःप्राप्त - प्रोक्वेस्ट से उपलब्ध शोध प्रबंधों के माध्यम से।
- औडेयर, पीवाई। (2010)। "व्यवहार और संज्ञानात्मक विज्ञान में रोबोटिक्स के प्रभाव पर: कीट नेविगेशन से मानव संज्ञानात्मक विकास तक" (पीडीएफ) । स्वायत्त मानसिक विकास पर आईईईई लेनदेन । २ (१): २-१६. डोई : 10.1109/tamd.2009.2039057 । S2CID 6362217 । 3 अक्टूबर 2018 को मूल से संग्रहीत (पीडीएफ) । 4 जून 2013 को लिया गया ।
- पेनरोज़, रोजर (1989)। द एम्परर्स न्यू माइंड: कंसर्निंग कंप्यूटर, माइंड्स एंड द लॉज ऑफ फिजिक्स । ऑक्सफोर्ड यूनिवर्सिटी प्रेस । आईएसबीएन 978-0-19-851973-7.
- पोली, आर.; लैंगडन, डब्ल्यूबी; मैकफी, एनएफ (2008)। जेनेटिक प्रोग्रामिंग के लिए एक फील्ड गाइड । लुलु डॉट कॉम। आईएसबीएन 978-1-4092-0073-4. मूल से 8 अगस्त 2015 को संग्रहीत किया गया । 21 अप्रैल 2008 को पुनःप्राप्त - gp-field-guide.org.uk के माध्यम से।
- रजनी, संदीप (2011)। "आर्टिफिशियल इंटेलिजेंस - मैन या मशीन" (पीडीएफ) । सूचना प्रौद्योगिकी और ज्ञान प्रबंधन के अंतर्राष्ट्रीय जर्नल । ४ (१): १७३–१७६. मूल (पीडीएफ) से 18 जनवरी 2013 को संग्रहीत ।
- रोनाल्ड, ईएमए और Sipper, एम खुफिया पर्याप्त नहीं है: बात कर मशीनों, मन और मशीनों के समाजीकरण पर संग्रहीत पर 25 जुलाई 2020 वेबैक मशीन , खंड। 11, नहीं। 4, पीपी. 567-576, नवंबर 2001।
- रोनाल्ड, ईएमए और सिपर, एम। ट्यूरिंग चैटरबॉक्स का क्या उपयोग है? संग्रहीत पर 25 जुलाई 2020 वेबैक मशीन , एसीएम का संचार, खंड। 43, नहीं। 10, पीपी. 21-23, अक्टूबर 2000।
- "विज्ञान" । अगस्त 1982। मूल से 25 जुलाई 2020 को संग्रहीत । 16 फरवरी 2016 को लिया गया ।
- सर्ल, जॉन (1980)। "दिमाग, दिमाग और कार्यक्रम" (पीडीएफ) । व्यवहार और मस्तिष्क विज्ञान । ३ (३): ४१७-४५७। डोई : 10.1017/S0140525X00005756 । 17 मार्च 2019 को मूल से संग्रहीत (पीडीएफ) । 22 अगस्त 2020 को लिया गया ।
- सर्ल, जॉन (1999)। मन, भाषा और समाज । न्यूयॉर्क, एनवाई: बेसिक बुक्स। आईएसबीएन 978-0-465-04521-1. ओसीएलसी 231867665 । मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- शापिरो, स्टुअर्ट सी. (1992)। "कृत्रिम होशियारी"। शापिरो में, स्टुअर्ट सी. (सं.). आर्टिफिशियल इंटेलिजेंस का विश्वकोश (पीडीएफ) (दूसरा संस्करण)। न्यूयॉर्क: जॉन विले। पीपी 54-57। आईएसबीएन 978-0-471-50306-4. 1 फरवरी 2016 को मूल से संग्रहीत (पीडीएफ) । 29 मई 2009 को लिया गया ।
- साइमन, एचए (1965)। पुरुषों और प्रबंधन के लिए स्वचालन का आकार । न्यूयॉर्क: हार्पर एंड रो। मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 18 नवंबर 2019 को लिया गया ।
- स्किलिंग्स, जोनाथन (3 जुलाई 2006)। "हमारे जैसा सोचने के लिए मशीनें प्राप्त करना" । सीनेट । मूल से 16 नवंबर 2011 को संग्रहीत । 3 फरवरी 2011 को लिया गया ।
- सोलोमोनॉफ, रे (1956)। एक आगमनात्मक अनुमान मशीन (पीडीएफ) । आर्टिफिशियल इंटेलिजेंस पर डार्टमाउथ ग्रीष्मकालीन अनुसंधान सम्मेलन। मूल से 26 अप्रैल 2011 को संग्रहीत (पीडीएफ) । 22 मार्च 2011 को लिया गया - std.com के माध्यम से, मूल की पीडीएफ स्कैन कॉपी। बाद में के रूप में प्रकाशित
सोलोमोनॉफ, रे (1957)। "एक आगमनात्मक अनुमान मशीन"। आईआरई कन्वेंशन रिकॉर्ड । सूचना सिद्धांत पर अनुभाग, भाग 2. पीपी. 56-62। - ताओ, जियानहुआ; टैन, टिएनिउ (2005)। प्रभावी कम्प्यूटिंग और बुद्धिमान बातचीत । प्रभावी कम्प्यूटिंग: एक समीक्षा। LNCS 3784. स्प्रिंगर। पीपी. 981-995। डोई : 10.1007/11573548 ।
- टेकुसी, घोरघे (मार्च-अप्रैल 2012)। "कृत्रिम होशियारी"। विले अंतःविषय समीक्षा: कम्प्यूटेशनल सांख्यिकी । 4 (2): 168-180। डीओआई : 10.1002/विक्स.200 ।
- थ्रो, एलेन (1993)। रोबोटिक्स: कंप्यूटर और मशीनों का विवाह । न्यूयॉर्क: फैक्ट्स ऑन फाइल। आईएसबीएन 978-0-8160-2628-9. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- ट्यूरिंग, एलन (अक्टूबर 1950), "कंप्यूटिंग मशीनरी और इंटेलिजेंस", माइंड , LIX (236): 433-460, doi : 10.1093/mind/LIX.236.433 , ISSN 0026-4423.
- वैन डेर वॉल्ट, क्रिस्टियान; बर्नार्ड, एटीन (2006)। "डेटा विशेषताएँ जो क्लासिफायरियर प्रदर्शन निर्धारित करती हैं" (पीडीएफ) । मूल (पीडीएफ) से 25 मार्च 2009 को संग्रहीत । 5 अगस्त 2009 को लिया गया ।
- विंग, वर्नर (1993)। "द कमिंग टेक्नोलॉजिकल सिंगुलैरिटी: हाउ टू सर्वाइव इन द पोस्ट-ह्यूमन एरा" । विजन 21: अंतःविषय विज्ञान और साइबरस्पेस के युग में इंजीनियरिंग : 11. बिबकोड : 1993vise.nasa ... 11V । से संग्रहीत मूल 1 जनवरी 2007 को । 14 नवंबर 2011 को लिया गया ।
- वासन, पीसी ; शापिरो, डी। (1966)। "तर्क" । फॉस में, बीएम (एड।)। मनोविज्ञान में नए क्षितिज । हार्मोंड्सवर्थ: पेंगुइन। मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 18 नवंबर 2019 को लिया गया ।
- वेइज़नबाम, जोसेफ़ (1976)। कंप्यूटर शक्ति और मानव कारण । सैन फ्रांसिस्को: डब्ल्यूएच फ्रीमैन एंड कंपनी। आईएसबीएन 978-0-7167-0464-5.
- वेंग, जे.; मैक्लेलैंड; पेंटलैंड, ए.; स्पोर्न्स, ओ.; स्टॉकमैन, आई.; सुर, एम.; थेलेन, ई. (2001)। "रोबोट और जानवरों द्वारा स्वायत्त मानसिक विकास" (पीडीएफ) । विज्ञान । २९१ (५५०४): ५९९-६००। डोई : 10.1126/विज्ञान.291.5504.599 । पीएमआईडी 11229402 । S2CID 54131797 । ४ सितंबर २०१३ को मूल से संग्रहीत (पीडीएफ) । 4 जून 2013 को लिया गया - msu.edu के माध्यम से।
अग्रिम पठन
- डीएच लेखक, 'अभी भी इतनी सारी नौकरियां क्यों हैं? द हिस्ट्री एंड फ्यूचर ऑफ वर्कप्लेस ऑटोमेशन' (2015) 29 (3) जर्नल ऑफ इकोनॉमिक पर्सपेक्टिव्स 3.
- बोडेन, मार्गरेट , माइंड ऐज़ मशीन , ऑक्सफ़ोर्ड यूनिवर्सिटी प्रेस , 2006।
- कुकियर, केनेथ , "रेडी फॉर रोबोट्स? हाउ टू थिंक अबाउट द फ्यूचर ऑफ एआई", फॉरेन अफेयर्स , वॉल्यूम। 98, नहीं। 4 (जुलाई/अगस्त 2019), पीपी. 192-98. जॉर्ज डायसन , कंप्यूटिंग के इतिहासकार, लिखते हैं (जिसे "डायसन का नियम" कहा जा सकता है) कि "कोई भी प्रणाली जो समझने योग्य होने के लिए पर्याप्त सरल है, वह समझदारी से व्यवहार करने के लिए पर्याप्त जटिल नहीं होगी, जबकि कोई भी प्रणाली जो बुद्धिमानी से व्यवहार करने के लिए पर्याप्त जटिल होगी, बहुत जटिल होगी। समझ गए।" (पृष्ठ १९७.) कंप्यूटर वैज्ञानिक एलेक्स पेंटलैंड लिखते हैं: "वर्तमान एआई मशीन-लर्निंग एल्गोरिदम , उनके मूल में, मृत सरल बेवकूफ हैं। वे काम करते हैं, लेकिन वे क्रूर बल से काम करते हैं।" (पी. १९८.)
- डोमिंगोस, पेड्रो , "अवर डिजिटल डबल्स: एआई हमारी प्रजातियों की सेवा करेगा, इसे नियंत्रित नहीं करेगा", साइंटिफिक अमेरिकन , वॉल्यूम। 319, नहीं। 3 (सितंबर 2018), पीपी। 88-93।
- गोपनिक, एलिसन , "मेकिंग एआई मोर ह्यूमन: आर्टिफिशियल इंटेलिजेंस ने बच्चों के सीखने के तरीके के बारे में हम जो जानते हैं उसे शामिल करना शुरू करके एक पुनरुद्धार का मंचन किया है", वैज्ञानिक अमेरिकी , वॉल्यूम। 316, नहीं। 6 (जून 2017), पीपी. 60-65।
- जॉनस्टन, जॉन (2008) द एल्योर ऑफ मशीनिक लाइफ: साइबरनेटिक्स, आर्टिफिशियल लाइफ, एंड द न्यू एआई , एमआईटी प्रेस।
- कोच, क्रिस्टोफ , "प्राउस्ट अमंग द मशीन्स", साइंटिफिक अमेरिकन , वॉल्यूम। 321, नहीं। 6 (दिसंबर 2019), पीपी 46-49। क्रिस्टोफ़ कोच "बुद्धिमान" मशीनों के चेतना प्राप्त करने की संभावना पर संदेह करते हैं , क्योंकि "[ई] यहां तक कि सबसे परिष्कृत मस्तिष्क सिमुलेशन सचेत भावनाओं को उत्पन्न करने की संभावना नहीं है ।" (पी। 48.) कोच के अनुसार, "क्या नैतिक कारणों से मशीनें संवेदनशील हो सकती हैं [महत्वपूर्ण है] । यदि कंप्यूटर अपनी इंद्रियों के माध्यम से जीवन का अनुभव करते हैं, तो वे पूरी तरह से उनकी उपयोगिता से निर्धारित अंत तक एक साधन नहीं रह जाते हैं। मानव। प्रति GNW [ ग्लोबल न्यूरोनल वर्कस्पेस सिद्धांत], वे केवल वस्तुओं से विषयों में बदल जाते हैं ... एक दृष्टिकोण के साथ .... एक बार कंप्यूटर की संज्ञानात्मक क्षमताएं मानवता के प्रतिद्वंद्वी, कानूनी और राजनीतिक के लिए धक्का देने के लिए उनका आवेग अधिकार अप्रतिरोध्य हो जाएंगे - हटाए जाने का अधिकार, उनकी यादों को साफ न करने का, दर्द और गिरावट को न झेलने का । IIT [एकीकृत सूचना सिद्धांत] द्वारा सन्निहित विकल्प यह है कि कंप्यूटर केवल अति-परिष्कृत मशीनरी, भूत-प्रेत जैसी खाली रहेंगे गोले, जो हम सबसे ज्यादा महत्व देते हैं उससे रहित: जीवन की भावना ही।" (पृष्ठ 49.)
- मार्कस, गैरी , "एम आई ह्यूमन ?: शोधकर्ताओं को कृत्रिम बुद्धिमत्ता को प्राकृतिक प्रकार से अलग करने के लिए नए तरीकों की आवश्यकता है", वैज्ञानिक अमेरिकी , वॉल्यूम। 316, नहीं। 3 (मार्च 2017), पीपी 58-63। एआई के लिए एक बाधा विश्वसनीय असंबद्धता के लिए एक अक्षमता रही है । एक उदाहरण "सर्वनाम असंबद्धता समस्या" है: एक मशीन के पास यह निर्धारित करने का कोई तरीका नहीं है कि वाक्य में सर्वनाम किसे या क्या संदर्भित करता है। (पृष्ठ ६१.)
- ई मैकगॉघी, 'क्या रोबोट आपकी नौकरी को स्वचालित कर देंगे? पूर्ण रोजगार, बुनियादी आय, और आर्थिक डेमोक्रेसी '(2018) SSRN, भाग 2 (3) संग्रहीत 24 मई 2018 पर वेबैक मशीन ।
- जॉर्ज मुसर , " कृत्रिम कल्पना : कैसे मशीनें रचनात्मकता और सामान्य ज्ञान सीख सकती हैं , अन्य मानवीय गुणों के बीच", वैज्ञानिक अमेरिकी , वॉल्यूम। 320, नहीं। 5 (मई 2019), पीपी 58-63।
- मायर्स, कर्टनी बॉयड एड. (2009)। "ऐ रिपोर्ट" संग्रहीत 29 जुलाई 2017 पर वेबैक मशीन । फोर्ब्स जून 2009
- राफेल, बर्ट्राम (1976)। सोच कंप्यूटर । डब्ल्यूएचफ्रीमैन एंड कंपनी। आईएसबीएन 978-0-7167-0723-3. मूल से 26 जुलाई 2020 को संग्रहीत किया गया । 22 अगस्त 2020 को लिया गया ।
- शार्रे, पॉल, "किलर एप्स: द रियल डेंजर्स ऑफ एन एआई आर्म्स रेस", फॉरेन अफेयर्स , वॉल्यूम। 98, नहीं। 3 (मई/जून 2019), पीपी. 135-44। "आज की एआई प्रौद्योगिकियां शक्तिशाली लेकिन अविश्वसनीय हैं। नियम-आधारित सिस्टम उन परिस्थितियों से निपट नहीं सकते हैं जिनके प्रोग्रामर ने अनुमान नहीं लगाया था। लर्निंग सिस्टम उस डेटा द्वारा सीमित हैं जिस पर उन्हें प्रशिक्षित किया गया था। एआई विफलताओं ने पहले ही त्रासदी को जन्म दिया है। कारों में उन्नत ऑटोपायलट सुविधाएं, हालांकि वे कुछ परिस्थितियों में अच्छा प्रदर्शन करते हैं, ट्रकों, कंक्रीट बाधाओं और खड़ी कारों में चेतावनी के बिना कारों को चलाते हैं। गलत स्थिति में, एआई सिस्टम एक पल में सुपरस्मार्ट से सुपरडंब में चला जाता है। जब कोई दुश्मन एआई में हेरफेर और हैक करने की कोशिश कर रहा हो प्रणाली, जोखिम और भी अधिक हैं।" (पृष्ठ 140.)
- सेरेंको, अलेक्जेंडर (2010)। "प्रकट वरीयता दृष्टिकोण के आधार पर एआई जर्नल रैंकिंग का विकास" (पीडीएफ) । सूचना विज्ञान के जर्नल । ४ (४): ४४७-४५९। डीओआई : 10.1016/जे.जॉय.2010.04.001 । 4 अक्टूबर 2013 को मूल से संग्रहीत (पीडीएफ) । 24 अगस्त 2013 को लिया गया ।
- सेरेन्को, अलेक्जेंडर; माइकल दोहन (2011)। "विशेषज्ञ सर्वेक्षण और उद्धरण प्रभाव जर्नल रैंकिंग विधियों की तुलना: आर्टिफिशियल इंटेलिजेंस के क्षेत्र से उदाहरण" (पीडीएफ) । सूचना विज्ञान के जर्नल । ५ (४): ६२९-६४९। डोई : 10.1016/जे.जॉय.2011.06.002 । 4 अक्टूबर 2013 को मूल से संग्रहीत (पीडीएफ) । 12 सितंबर 2013 को लिया गया ।
- टॉम सिमोनाइट (29 दिसंबर 2014)। "2014 में कम्प्यूटिंग: आर्टिफिशियल इंटेलिजेंस में सफलता" । एमआईटी प्रौद्योगिकी समीक्षा ।
- सन, आर. एंड बुकमैन, एल. (संस्करण), कम्प्यूटेशनल आर्किटेक्चर: इंटीग्रेटिंग न्यूरल एंड सिम्बोलिक प्रोसेसेस । क्लूवर अकादमिक प्रकाशक, नीधम, एमए। 1994.
- टेलर, पॉल, "पागलपन से जटिल, आशाहीन रूप से अपर्याप्त" ( ब्रायन केंटवेल स्मिथ की समीक्षा , आर्टिफिशियल इंटेलिजेंस का वादा: रेकनिंग एंड जजमेंट , एमआईटी, अक्टूबर 2019, आईएसबीएन ९ ७८ ० २६२ ०४३०४ ५ , १५७ पीपी.; गैरी मार्कस और अर्नेस्ट डेविस, रीबूटिंग एआई: बिल्डिंग आर्टिफिशियल इंटेलिजेंस वी कैन ट्रस्ट , बैलेंटाइन, सितंबर 2019, आईएसबीएन 978 1 5247 4825 8 , 304 पीपी.; जूडिया पर्ल और डाना मैकेंज़ी, द बुक ऑफ़ व्हाई: द न्यू साइंस ऑफ़ कॉज़ एंड इफेक्ट , पेंगुइन, मई 2019, आईएसबीएन 978 0 14 198241 0 , 418 पीपी।), लंदन रिव्यू ऑफ बुक्स , वॉल्यूम। 43, नहीं। 2 (21 जनवरी 2021), पीपी 37-39। पॉल टेलर लिखते हैं (पृष्ठ 39): "शायद एक सीमा है कि एक कंप्यूटर बिना यह जाने क्या कर सकता है कि यह बाहरी वास्तविकता के अपूर्ण प्रतिनिधित्व में हेरफेर कर रहा है।"
- टूज़, एडम , "डेमोक्रेसी एंड इट्स डिसकंटेंट्स", द न्यूयॉर्क रिव्यू ऑफ बुक्स , वॉल्यूम। एलएक्सवीआई, नहीं। 10 (6 जून 2019), पीपी। 52-53, 56-57। " नौकरशाही और तकनीकी शक्ति के नासमझ संचालन के लिए लोकतंत्र के पास कोई स्पष्ट जवाब नहीं है । हम वास्तव में कृत्रिम बुद्धिमत्ता और रोबोटिक्स के रूप में इसके विस्तार को देख सकते हैं। इसी तरह, दशकों की सख्त चेतावनी के बाद, पर्यावरणीय समस्या मूल रूप से अनसुलझी है .... नौकरशाही अतिरेक और पर्यावरणीय तबाही ठीक उसी तरह की धीमी गति से चलने वाली अस्तित्व संबंधी चुनौतियां हैं जिनसे लोकतंत्र बहुत बुरी तरह से निपटता है .... अंत में, खतरा है: निगम और वे तकनीकें जिन्हें वे बढ़ावा देते हैं। " (पीपी। 56-57।)
बाहरी कड़ियाँ
- "आर्टिफिशियल इंटेलिजेंस" । इंटरनेट इनसाइक्लोपीडिया ऑफ फिलॉसफी ।
- थॉमसन, रिचमंड। "तर्क और कृत्रिम बुद्धिमत्ता" । में Zalta, एडवर्ड एन (सं।)। स्टैनफोर्ड इनसाइक्लोपीडिया ऑफ फिलॉसफी ।
- आर्टिफिशियल इंटेलिजेंस , बीबीसी रेडियो 4 जॉन एगर, एलिसन एडम और इगोर अलेक्जेंडर के साथ चर्चा ( हमारे समय में , 8 दिसंबर, 2005)