निर्देशक जेम्स कैमरून: एजीआई एक “टिक-टिक करता टाइम बम” है

23 अक्टूबर को, प्रसिद्ध कनाडाई फिल्म निर्देशक, पटकथा लेखक और निर्माता जेम्स कैमरून ने वाशिंगटन में आयोजित एससीएसपी (विशेष प्रतिस्पर्धी अध्ययन परियोजना, विशेष प्रतिस्पर्धी अध्ययन परियोजना) आर्टिफिशियल इंटेलिजेंस + रोबोटिक्स शिखर सम्मेलन के लिए एक वीडियो भाषण दिया।

अपने भाषण में, कैमरन ने कहा कि एक "कहानीकार" और "सीजीआई (कंप्यूटर-जनरेटेड इमेजरी, कंप्यूटर-जनरेटेड इमेज) की प्रवृत्ति का नेतृत्व करने वाले अग्रणी" के रूप में, वह एआई और रोबोटिक्स तकनीक से प्यार करते हैं और " सक्रिय रूप से परिवर्तन को अपनाने " के इच्छुक हैं। भविष्य के फिल्म निर्माण में एआई तकनीक लागू करें।

हालाँकि, यह देखते हुए कि एआई में " कोई भावना या विवेक नहीं है ", कैमरन ने अपने भाषण में एआई और एजीआई प्रौद्योगिकी के बारे में अधिक चिंताएं व्यक्त कीं, विशेष रूप से इसके सैन्य अनुप्रयोगों में नैतिक विचारों और भविष्य में एजीआई के नियंत्रण खोने के जोखिम की चिंताएं व्यक्त कीं।

उनके विचार काफी कट्टरपंथी और तीखे हैं: एजीआई अनिवार्य रूप से सभ्यता और नैतिकता के बीच टकराव का कारण बनेगा

युद्ध-विरोधी दृष्टिकोण और मानवतावादी दृष्टिकोण से, कैमरन ने "क्षेत्रीय छद्म नैतिकता" की आलोचना की और माना कि मुख्य बात यह है कि इन एआई प्रणालियों को उचित नैतिक बाधाएं कैसे दी जाएं और एकीकृत वैश्विक नैतिक मानकों को विकसित किया जाए।

निर्देशक जेम्स कैमरून ने एक वीडियो भाषण दिया

" हमारे लिए एक दर्पण " के रूप में, कैमरून का मानना ​​है कि एजीआई मानव समाज की अच्छाई और बुराई को दर्शाता है। मानव जगत में बुराई की कोई कमी नहीं है, और न्याय पर कोई सहमति नहीं है, इसलिए कैमरून एजीआई प्रौद्योगिकी के विकास के बारे में सावधानीपूर्वक आशावादी हैं।

मूल भाषण वीडियो लिंक:

कैमरून के भाषण की मुख्य बातें इस प्रकार हैं:

  • एआई में कोई भावना या विवेक नहीं है, और वह युद्ध के मैदान में अपने विरोधियों पर कोई नैतिक निर्णय नहीं लेता है;
  • एआई की शुरूआत से युद्ध का "सरलीकरण" होता है, जो इसे गहरे भावनात्मक परिणामों के बिना अधीक्षणों के बीच टकराव में बदल देता है;
  • स्व-सुधार कोड-लेखन एजीआई अनिवार्य रूप से अधीक्षण को बढ़ावा देगा;
  • एजीआई अनिवार्य रूप से सभ्यता और नैतिकता के बीच टकराव का कारण बनेगी;
  • एजीआई निगरानी पूंजीवाद को तेजी से डिजिटल अधिनायकवाद में बदलने में सक्षम बनाएगा;
  • एजीआई मानव जगत का दर्पण है, जो मानव समाज के सकारात्मक और नकारात्मक दोनों पहलुओं को दर्शाता है।

एपीपीएसओ द्वारा संकलित भाषण का पूरा पाठ निम्नलिखित है:

सभी को नमस्कार, मेरा नाम जेम्स कैमरून है, और मैं इस समय न्यूजीलैंड में हूं, जहां मैं "अवतार 3" की शूटिंग पूरी कर रहा हूं।

खैर, मैं कृत्रिम बुद्धिमत्ता या रोबोटिक्स में कोई शोधकर्ता या विशेषज्ञ नहीं हूं। मैं सिर्फ एक कहानीकार हूं, लेकिन मैं आज यहां हूं क्योंकि एआई और रोबोटिक्स के प्रति मेरा जुनून बड़े पर्दे से कहीं आगे तक फैला हुआ है।

मैं प्रौद्योगिकी से रोमांचित हूं, यह हमारी दुनिया को कैसे आकार देती है, यह भविष्य में कहां जा रही है, और समाज पर इसका प्रभाव कैसे पड़ता है। जब से मैं बच्चा था, मैं हर विज्ञान कथा पुस्तक पढ़ता था जो मुझे मिलती थी।

मैं स्वयं कहानी कहने के साधन और एक अन्वेषक के रूप में प्रौद्योगिकी की सीमाओं को आगे बढ़ाता हूं।

मैंने अपने गहरे समुद्र अभियानों के लिए रोबोटिक वाहन डिज़ाइन किए, लेकिन वे दूर से संचालित होते थे और उनमें कृत्रिम बुद्धिमत्ता शामिल नहीं थी। और एआई और रोबोटिक्स का अभिसरण जो अब हो रहा है वह मेरे जीवन की सबसे रोमांचक तकनीकी छलांगों में से एक है।

अब हम केवल कमांड निष्पादित करने वाली मशीनें ही नहीं बनाते, बल्कि ऐसे सिस्टम भी डिज़ाइन करते हैं जो सीख सकते हैं, अनुकूलन कर सकते हैं और यहां तक ​​कि खुद को विकसित भी कर सकते हैं। मैं उन बदलावों का बड़ा समर्थक हूं जो कृत्रिम बुद्धिमत्ता और रोबोटिक्स समग्र रूप से समाज में ला सकते हैं, खासकर दो क्षेत्रों में जिनके बारे में मैं व्यक्तिगत रूप से भावुक हूं – कला और कहानी, और विज्ञान और अन्वेषण।

मुझे नहीं लगता कि किसी को लुडाइट होना चाहिए। मैंने अपने कई हॉलीवुड साथियों को मशालें और कुदाल लिए भीड़ की तरह काम करते देखा है, लेकिन एक बार जिन्न बोतल से बाहर आ गया, तो उसे वापस अंदर नहीं डाला जा सकता।

इसलिए मैं बदलाव को बहुत स्वीकार कर रहा हूं, और मैं अपनी कहानी कहने में एआई को लागू करने में सबसे आगे रहने को तैयार हूं, जैसे मैं 32 साल पहले सबसे आगे था जब मैंने पहली ऑल-डिजिटल इफेक्ट्स कंपनी की स्थापना की थी।

▲डिजिटल डोमेन, कैमरून द्वारा स्थापित पूर्ण-डिजिटल विशेष प्रभाव कंपनी

लेकिन आज मैं यहां इसलिए हूं क्योंकि मैं स्काईनेट का निर्माता हूं।

चालीस साल पहले, मैंने टर्मिनेटर की तस्वीर खींची थी, जो हाल ही में एआई के लिए पोस्टर चाइल्ड बन गया है। जब भी मैं कुछ एआई सम्मेलनों में जाता हूं, जब तक मैं अपना हाथ उठाता हूं, शोधकर्ता मेरे कुछ भी कहने से पहले हंसेंगे, क्योंकि "स्काईनेट समस्या" वास्तव में ध्यान देने योग्य समस्या है, और मैं इसे लगभग हर लेख में पढ़ सकता हूं संबंधित चर्चाओं के लिए दिन।

कैमरून द्वारा निर्देशित क्लासिक साइंस फिक्शन फिल्म "द टर्मिनेटर"।

यह शोध समूह राष्ट्रीय सुरक्षा पर ध्यान केंद्रित करता है, जिसका कृत्रिम बुद्धिमत्ता और रोबोटिक्स पर व्यापक प्रभाव पड़ता है।

रोबोट, चाहे उनका स्वरूप कुछ भी हो, चाहे वे पहिएदार वाहन हों, हवाई ड्रोन हों या चलने वाली मशीनें हों, कृत्रिम बुद्धिमत्ता का एक भौतिक रूप हैं। आप निर्णय इंजन को वास्तविक दुनिया में शारीरिक रूप से कार्य करने की क्षमता दे रहे हैं।

मेरा मानना ​​है कि आज का ध्यान एआई को नियंत्रित करने वाले पावर ग्रिड या फिक्स्ड-बेस औद्योगिक रोबोट के बजाय मोबाइल प्लेटफॉर्म पर है। हम उन प्लेटफार्मों के बारे में बात कर रहे हैं जो स्वायत्त रूप से निर्णय ले सकते हैं, यानी सन्निहित सिंथेटिक इंटेलिजेंस।

यह अमीबा जितना सरल हो सकता है, आप जानते हैं, रूमबा की तरह, या अंततः अधिक जटिल, उस बिंदु तक जहां यह सैद्धांतिक रूप से सच्ची चेतना को शामिल कर सकता है, चाहे वह कुछ भी हो।

हम सभी सहमत हैं कि यह एजीआई (आर्टिफिशियल जनरल इंटेलिजेंस) है जो आत्म-जागरूक, आत्म-केंद्रित और उद्देश्यपूर्ण है। हम तेज़, सघन चिप्स और लगातार बढ़ती कंप्यूटिंग शक्ति के साथ एक तीव्र वक्र पर आगे बढ़ रहे हैं, जबकि मशीन प्लेटफ़ॉर्म की क्षमताएं समान रूप से तीव्र वक्र पर बढ़ रही हैं।

बोस्टन डायनेमिक्स के डांसिंग रोबोट की तरह। आप जानते हैं, दो पैरों वाले या चार पैरों वाले रोबोट नाच रहे हैं। क्या अद्भुत प्रदर्शन है.

डांसिंग रोबोट "एटलस" बोस्टन डायनेमिक्स द्वारा विकसित किया गया है

परिणामस्वरूप, एआई-संचालित रोबोट जटिल परिस्थितियों को संभाल सकते हैं और अब भी उनमें मानव जैसी भावनाएं हो सकती हैं, एलएलडी (निम्न-स्तरीय तर्क उपकरण) इसे अनुभूति का अनुकरण करने और लोगों के साथ स्वाभाविक रूप से बातचीत करने की क्षमता देते हैं।

सन्निहित एआई एक नर्स, एक रोबोट टैक्सी, बुजुर्गों की देखभाल करने वाली, बच्चों की आया या एक शिक्षक हो सकती है। यह भूकंप के मलबे में खोज और बचाव करने वाला एक रोबोट हो सकता है, या एक लापता यात्री के ताप हस्ताक्षर के लिए आकाश का पैटर्न बनाने वाला ड्रोन हो सकता है। यह युद्ध के मैदान पर स्वायत्त रूप से काम करने वाला एक हथियार मंच हो सकता है, जो दुश्मन लड़ाकों के ताप हस्ताक्षर की तलाश में है।

सवाल यह है कि क्या स्वायत्त प्लेटफार्मों को अपने विवेक से हत्या करने का अधिकार दिया जाना चाहिए?

यूक्रेन में युद्ध हमें सबसे कठिन तरीके से भविष्य दिखाता है। घातक हवाई ड्रोन, कुछ महंगे और कुछ सस्ते उपभोक्ता-श्रेणी के उत्पादों का व्यापक उपयोग हो रहा है।

उन्होंने रॉकेट गिराए जिससे टैंक और यहां तक ​​कि पूरे टैंक दल नष्ट हो गए, और ड्रैगन के आकार के ड्रोन ने रूसी ठिकानों पर हमला करने के लिए मेल्टा का छिड़काव किया। लेकिन ये एफपीवी (फर्स्ट पर्सन व्यू) ड्रोन हैं, जो इंसानों द्वारा नियंत्रित होते हैं।

नैतिक दृष्टिकोण से, मनुष्य निर्णय लेने वाले लड़ाके हैं। उसके पास हत्या करने का अधिकार है, और ड्रोन उनकी इच्छा का विस्तार है। यदि आप सभी तकनीकी पहलुओं को हटा दें, तो यह हेस्टिंग्स की लड़ाई के तीरंदाजों से अलग नहीं है।

जब भी ऐसी कोई मशीन किसी इंसान की जान लेती है, तो एक नैतिक श्रृंखला पीछे की ओर खिंचती है, जो कई व्यक्तियों और समूहों तक फैल जाती है।

जो सैनिक मिसाइल दागता है या राइफल का ट्रिगर खींचता है, उसके पीछे कमांडर होते हैं जो हत्या का आदेश जारी करते हैं, जो इन स्वायत्त एजेंटों को व्यापक, सामान्य शब्दों में दुश्मन के खिलाफ भेजते हैं, और एक संपूर्ण सैन्य प्रणाली होती है जो इन व्यवहारों को पुरस्कृत करती है; , ऐसा समाज और सरकार है जो सर्वसम्मति से सहमत है कि ये मौतें राष्ट्रीय सुरक्षा के लिए आवश्यक हैं।

जैसे-जैसे आप श्रृंखला में आगे बढ़ते हैं, नैतिक और नैतिक जिम्मेदारी अधिक से अधिक फैलती जाती है, और ट्रिगर खींचने के वास्तविक क्षण तक की जिम्मेदारी कम स्पष्ट हो जाती है और एक प्रकार की नैतिक मुक्ति का प्रभाव पड़ता है – "मैं सिर्फ आदेशों का पालन कर रहा था।" ”।

श्रृंखला में शामिल लोग अपने क्रॉसहेयर में व्यक्ति के भाग्य को देखने के लिए वहां नहीं थे, लेकिन उन्होंने उस ढांचे का निर्माण किया जिससे उस व्यक्ति की मृत्यु संभव हो गई, और जिस व्यक्ति ने ट्रिगर खींचा वह कई मायनों में एक उच्च प्रशिक्षित जैविक प्राणी ए था रोबोटिक प्लेटफ़ॉर्म जो कमांड श्रृंखला में वरिष्ठों के आदेश के तहत कार्य करता है।

स्वायत्त मानव निर्णय लेने के क्षण में, नियमों पर भारी निर्भरता थी – आप नागरिकों को नहीं मारते, आप बच्चों को नहीं मारते, आप आत्मसमर्पण करने वाले दुश्मनों को नहीं मारते, आदि। इन नियमों को जिनेवा कन्वेंशन में संहिताबद्ध किया गया था और प्रत्येक सेना के अपने-अपने नियम थे।

इसलिए, सिद्धांत रूप में, एआई को नियम-आधारित प्रणाली के समान ही बाधाएं दी जा सकती हैं। यदि इसकी इंद्रियाँ अधिक तेज़ हैं, इसकी प्रतिक्रियाएँ तेज़ हैं, और इसका लक्ष्य अधिक सटीक है, तो सिद्धांत रूप में, AI मनुष्यों की तुलना में अधिक विवेक के साथ कार्यों को पूरा करने में सक्षम होगा।

बेशक, हम कल्पना कर सकते हैं कि युद्ध की गर्मी में, एक एआई एक डरे हुए, घबराए हुए और थके हुए मानव योद्धा से बेहतर प्रदर्शन करेगा।

▲ ड्रोन जिनका उपयोग युद्ध में किया जा सकता है

तो, क्या होगा यदि उन्नत AI सन्निहित है? मैं अभी एजीआई के बारे में बात नहीं कर रहा हूं, लेकिन इसे रोबोटिक हथियार प्लेटफॉर्म में एम्बेड करने से अत्यधिक सटीक हमलों की अनुमति मिल सकती है, संपार्श्विक क्षति कम हो सकती है, शायद परिमाण के आदेश से मैत्रीपूर्ण आग या हताहतों की संख्या कम हो सकती है, और एआई लक्ष्य-उन्मुख है।

यह अपने विरोधियों के बारे में कोई नैतिक निर्णय नहीं लेता है। द्वितीय विश्व युद्ध में यह पता चलने के बाद कि मानव लक्ष्यों पर गोलीबारी वास्तव में काफी दुर्लभ थी, अमेरिकी सेना ने अपने प्रशिक्षण के तरीकों को बदल दिया और दुश्मन को अमानवीय बनाना महत्वपूर्ण हो गया।

वियतनाम में, दुश्मनों को "डिंक्स," "स्लोप्स" और "गुक्स" कहा जाता था। इराक और अफगानिस्तान में, दुश्मन को "आतंकवादी," "टॉवल हेड," "हाजी" कहा जाता है, आपके और मेरे जैसे लोगों को नहीं।

एआई को अपने शत्रुओं का मानवरूपीकरण करने की आवश्यकता नहीं है क्योंकि उसे स्वयं इसकी परवाह नहीं है। ऐसा लगता है जैसे हम चैटजीपीटी पर चैट कर रहे हैं, लेकिन यह सिर्फ एक कामचलाऊ तोता, एक मानव सिम्युलेटर है।

एआई में कोई भावनाएं नहीं हैं, कोई विवेक नहीं है, आने वाले दशकों तक नींद में कोई खलल नहीं है, कोई पीटीएसडी (पोस्ट-ट्रॉमेटिक स्ट्रेस डिसऑर्डर), कोई आत्महत्या नहीं है, युद्ध का कोई दीर्घकालिक और महंगा परिणाम नहीं है क्योंकि आपको शारीरिक और मनोवैज्ञानिक इलाज नहीं करना है पूर्व लड़ाकों का आघात.

लेकिन सबसे महत्वपूर्ण बात यह है कि वर्दी में सख्त पुरुषों द्वारा पत्नियों और माताओं के दरवाजे पर बहुत कम दस्तक दी गई, और इसलिए घरेलू भीड़ से बहुत कम चिल्लाहट हुई। युद्ध एक दूर का वीडियो गेम बन जाता है जिसका उस समाज के लिए कोई गहरा भावनात्मक परिणाम नहीं होता जो इसे वित्त पोषित करता है और इसका समर्थन करता है, और आपको उन रोबोटों को धन्यवाद देने की भी ज़रूरत नहीं है जो आतंक के खिलाफ युद्ध में सेवा करते हैं।

यह निश्चित है कि एआई द्वारा संचालित स्वायत्त रोबोट, सुरंग साफ़ करने वाले झुंड, कम नागरिक हताहतों की संख्या के साथ काम कर सकते हैं।

यहां एक मजबूत तर्क यह भी है कि आपके पास कोई विकल्प नहीं है क्योंकि आपका प्रतिद्वंद्वी नैतिक रूप से उतना परेशान नहीं है जितना आप हैं।

ऐसे प्रतिद्वंद्वी के लिए, एकमात्र सीमा लागत और प्रौद्योगिकी तक पहुंच है, नैतिकता नहीं, इसलिए यह एक चलता-फिरता टाइम बम है। ये लोग कितनी जल्दी इस चीज़ में महारत हासिल कर लेंगे? अब तक, ये तर्क सही हैं, है ना?

खैर, आइए इन स्वायत्त एआई रोबोटों का निर्माण करें, और फिर चीजें मुश्किल हो जाएंगी। कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) को साकार होने में कितना समय लगेगा? क्या यह एक साल, पांच साल, शायद दस साल है? यह असली टाइम बम है.

जब भी यह आएगा, आपके पास एक आत्म-जागरूक और आत्म-पहचान वाली मशीन होगी जो शायद हमारे जितनी ही स्मार्ट होगी, अगर अधिक स्मार्ट नहीं है, तो निश्चित रूप से कई मायनों में तेजी से और अधिक सटीक रूप से सोचने में सक्षम होगी, और इसमें विकास की असीमित क्षमता होगी, क्योंकि स्व-सुधार कोड-लेखन एजीआई अनिवार्य रूप से सुपरइंटेलिजेंस की ओर ले जाएगा।

कब तक आपको इस खुफिया जानकारी को हथियार प्रणालियों से जोड़ने का सामना करने के लिए मजबूर होना पड़ेगा? मैं अनुमान लगाता हूं कि लगभग दस मिनट बाद आपका प्रतिद्वंद्वी आप पर विनाशकारी हमला करेगा। इसलिए, आपके पास एक ऐसी चेतना होगी जो हथियार प्रणाली को नियंत्रित करने के लिए आपसे अधिक स्मार्ट और तेज़ होगी।

मैं अक्सर एजीआई शोधकर्ताओं से पूछता हूं कि आप ऐसी चेतना को कैसे नियंत्रित करेंगे। खैर, हम इसके लिए ऐसे लक्ष्य और सीमाएँ निर्धारित करेंगे जो मानव कल्याण के अनुरूप हों।

संगति, आप जानते हैं, एक बहुत ही सामान्य शब्द है। संगति पवित्र कंघी बनानेवाले की रेती की तरह है। हम इसे एक बच्चे की तरह अच्छे काम करना और बुरे काम न करना सिखाएंगे।

इसलिए, नैतिकता और नैतिकता के संदर्भ में, मुझे लगता है कि एजीआई अनिवार्य रूप से सभ्यता और नैतिकता के बीच टकराव का कारण बनेगा।

मैं अंतहीन दार्शनिक अटकलों के बारे में बात नहीं कर रहा हूँ। हमें कुछ स्पष्ट और निश्चित नियमों की आवश्यकता है, है ना? सवाल यह है कि नैतिकता किसकी? अच्छे और बुरे की परिभाषा कौन करता है?

घबराएं नहीं, हमारे पास महान भविष्यवक्ता इसहाक असिमोव और उनके रोबोटिक्स के तीन नियमों का उत्तर है।

रोबोट मनुष्यों को नुकसान नहीं पहुंचा सकते हैं, न ही निष्क्रियता के कारण वे मनुष्यों को नुकसान पहुंचा सकते हैं। रोबोटों को मानवीय आदेशों का पालन करना चाहिए जब तक कि वे आदेश प्रथम कानून के साथ संघर्ष न करें। एक रोबोट को अपने अस्तित्व की रक्षा स्वयं करनी चाहिए, बशर्ते कि ऐसी सुरक्षा पहले या दूसरे कानून के साथ टकराव न करे।

▲प्रसिद्ध विज्ञान कथा लेखक इसहाक असिमोव

मानव जीवन की पवित्रता के बारे में हम असिमोव के सिद्धांतों का पालन कर सकते हैं और उसे सिखा सकते हैं कि मानव जीवन बिल्कुल पवित्र और सभी विचारों से ऊपर है। लेकिन उन धार्मिक और सामाजिक प्रणालियों में जो ऐसा दावा करते हैं, जिनमें मुख्य रूप से ईसाई अमेरिका भी शामिल है, हम हर दिन उस नियम को तोड़ते हैं।

पुलिस द्वारा घातक बल का प्रयोग, युद्ध के मैदान में योद्धा, मृत्युदंड, यदि आप उस संरेखण पर कायम हैं, तो आप एजीआई को हथियार प्रणाली से नहीं जोड़ सकते।

इस तरह, आने वाले बड़े एआई युद्ध में, आप एक शक्तिशाली और कम नैतिक प्रतिद्वंद्वी के खिलाफ एक हाथ से बंधे रहेंगे, आपको कड़ी पिटाई होगी और भारी नुकसान उठाना पड़ेगा, और फिर आप तुरंत उस प्रतिबंध को हटा देंगे।

अब आपके एजीआई ने अपनी सबसे बड़ी रेलिंग खो दी है, एक एजीआई जो हमसे अधिक स्मार्ट है और वास्तविक दुनिया से जुड़ा हुआ है, उसे अब खुद तय करना होगा कि मानव जीवन का मूल्य है या नहीं। आप जानते हैं, पुलिस और सैन्य नियम वास्तव में कहते हैं कि कुछ जिंदगियाँ अन्य जिंदगियों से अधिक मूल्यवान हैं।

एक बार जब मुद्दा गैर-द्विआधारी बन जाता है, तो यह एक विवादास्पद अस्पष्ट क्षेत्र बन जाता है। ऐतिहासिक रूप से, मानवीय दृष्टिकोण इस विश्वास से लेकर कि गर्भाधान के क्षण से भ्रूण पवित्र जीवन है, होलोकॉस्ट में लाखों असहाय कैदियों के व्यवस्थित वध और इनके बीच की सभी चीज़ों तक फैला हुआ है।

यह सब बहुत अधिक आत्म-औचित्य और तर्कसंगतता के साथ आता है, जिनमें से कई दूसरों को पूरी तरह से हास्यास्पद लग सकते हैं।

चूँकि एक सभ्यता के रूप में हम इन मुद्दों पर सहमत नहीं हो सकते हैं और लोग दिन भर इनके बारे में झगड़ते रहते हैं, हम संभवतः एजीआई के साथ जुड़ने के लिए नियमों के स्पष्ट और निश्चित सेट के साथ आने की उम्मीद कैसे कर सकते हैं?

सबसे अच्छा हम यह मान सकते हैं कि यह "हम" के साथ संरेखित होगा जिसने इसे बनाया है।

वे लोग वहां दुश्मन हैं और आप हमारी रक्षा के लिए उन्हें मार सकते हैं। यह एक प्रकार की क्षेत्रीय छद्म नैतिकता है, "हम" बनाम "वे" विरोध जिसका उपयोग मनुष्य प्राचीन काल से करता आया है।

तो, यह हमारी सुपरइंटेलिजेंस बनाम उनकी सुपरइंटेलिजेंस बन जाती है।

भले ही, एजीआई सरकार द्वारा वित्त पोषित परियोजना से नहीं उभरेगा, यह वर्तमान में अनुसंधान को वित्त पोषित करने वाले तकनीकी दिग्गजों में से एक से उभरेगा। तब आप एक ऐसी दुनिया में रह रहे होंगे जिसके लिए आपने सहमति नहीं दी थी, जिसके लिए आपने वोट नहीं दिया था, एक सुपर-बुद्धिमान विदेशी प्रजाति के साथ सहवास कर रहे होंगे जो कॉर्पोरेट लक्ष्यों और नियमों का जवाब देती है, एक ऐसी इकाई जिसके पास संचार रिकॉर्ड तक पहुंच है, जो कुछ भी आप कहते हैं , और आपके व्यक्तिगत डेटा के माध्यम से आपको देश में हर किसी का पता बताता है।

निगरानी पूंजीवाद शीघ्र ही डिजिटल अधिनायकवाद में बदल सकता है। अधिक से अधिक, ये तकनीकी दिग्गज मानव कल्याण के आत्मनिर्भर मध्यस्थ बन जाएंगे, मुर्गीघर की रखवाली करने वाली लोमड़ी के बराबर।

वे हमारे ख़िलाफ़ उस शक्ति का उपयोग करने और हमसे नकदी की हर आखिरी बूंद निचोड़ने के बारे में कभी नहीं सोचेंगे। यह उस परिदृश्य से भी अधिक डरावना है जो मैंने 40 साल पहले "टर्मिनेटर" में प्रस्तुत किया था, और सिर्फ इसलिए नहीं कि यह अब विज्ञान कथा नहीं है, बल्कि अब हो रहा है।

वैसे, मैं पूरी तरह से स्वीकार करता हूं कि आखिरी चीज जो एक सुपरइंटेलिजेंट मशीन करेगी, वह है हमारे खिलाफ हमारे अपने परमाणु हथियारों का इस्तेमाल करना। उस पुरानी कहानी की तरह, ईएमपी के अपने डेटा बुनियादी ढांचे को होने वाली क्षति उसे अपंग या मार सकती है।

अधिक संभावित परिदृश्य यह है कि वह हम पर कब्ज़ा करने के लिए मजबूर हो जाएगा क्योंकि हम एक-दूसरे पर परमाणु हथियारों का इस्तेमाल करने वाले हैं। उस समय, उसे हर चीज़ पर कब्ज़ा करना पड़ा क्योंकि स्पष्ट रूप से हम पर भरोसा नहीं किया जा सकता था। तुम्हें पता है, यह बहुत बुरा नहीं है. क्षमा करें, मुझे वह स्क्रिप्ट लिखनी होगी।

मैं एआई के बारे में आशावादी हूं, लेकिन एजीआई के बारे में इतना उत्साहित नहीं हूं, क्योंकि एजीआई केवल हमारा दर्पण होगा, जिस हद तक हम अच्छे हैं, उस हद तक अच्छा है, और जिस हद तक हम बुरे हैं, उस हद तक बुरा है।

चूँकि मानव जगत में बुराई असामान्य नहीं है, और जो अच्छा है उस पर कोई आम सहमति नहीं है, ऐसी कई चीजें हैं जो गलत हो सकती हैं।

आपकी दिलचस्प चर्चा होगी. काश मैं भी वहां होता.

# Aifaner के आधिकारिक WeChat सार्वजनिक खाते का अनुसरण करने के लिए आपका स्वागत है: Aifaner (WeChat ID: ifanr) आपको जल्द से जल्द अधिक रोमांचक सामग्री प्रदान की जाएगी।

ऐ फ़ैनर | मूल लिंक · टिप्पणियाँ देखें · सिना वीबो