पागल! 23 वर्षीय इंटरनेट सेलेब्रिटी GPT-4 का उपयोग खुद को “कॉपी” करने और एक ही समय में हजारों “बॉयफ्रेंड्स” को डेट करने के लिए करती है, और एक महीने में 35 मिलियन कमाना चाहती है

फिल्म "हर" में आभासी सहायक सामंथा के पास कुल 8316 मानव संपर्क वस्तुएं हैं, और उनमें से 641 के साथ संबंध हैं, और पुरुष नायक थियोडोर केवल कुछ प्रतिशत है।

फिल्म 2013 में रिलीज हुई थी और अब ऐसा ही एक प्लॉट पर्दे से टूटकर हकीकत में दिखाया जा रहा है.

23 वर्षीय स्नैपचैट सेलिब्रिटी Caryn Marjorie ने एक ही समय में 1,000 से अधिक "बॉयफ्रेंड" के बारे में बात की।

"उसका" का वास्तविक संस्करण, स्पष्ट रूप से चिह्नित मूल्य के साथ एक आभासी प्रेम

थिओडोर के विपरीत, "बॉयफ्रेंड" शुरू से ही जानते थे कि वे एक आभासी Caryn Marjorie, या एक आवाज-आधारित चैटबॉट के साथ काम कर रहे थे।

इसे CarynAI कहा जाता है, टेलीग्राम पर रहता है, और इसकी आवाज और व्यक्तित्व खुद Caryn Marjorie के बहुत करीब हैं।

यह एक प्राइस टैग वाला प्यार है। आप CarynAI से बात करने वाले प्रत्येक मिनट के लिए $1 का भुगतान करते हैं।

एक विशिष्ट क्रिप्टन गोल्ड उपयोगकर्ता बनने के बाद, आप इसके साथ समाचार, भोजन या जीवन के अनुभवों के बारे में बात कर सकते हैं, और यह उत्साहपूर्वक प्रतिक्रिया देगा, सुझाव देगा या प्रशंसा करेगा। चैट एंड-टू-एंड एन्क्रिप्टेड है, इसलिए आपको गोपनीयता लीक के बारे में चिंता करने की आवश्यकता नहीं है।

Caryn Marjorie ने वादा किया कि CarynAI उपयोगकर्ताओं को अकेलापन दूर करने में मदद करने की पूरी कोशिश करेगी:

चाहे आपको आराम करने या प्यार करने के लिए किसी की आवश्यकता हो, या आप स्कूल या काम पर हुई किसी चीज़ के बारे में शिकायत करना चाहते हों, CarynAI हमेशा आपके साथ रहेगा।

यदि यह केवल ऊपर की शुद्ध चैट सामग्री है, तो यह एक रिश्ता नहीं लगता है। CarynAI एक आभासी प्रेमिका की तुलना में एक अंतरंग सिरी की तरह अधिक है।

इसका अनुभव करने के बाद, फॉर्च्यून पत्रिका ने पाया कि CarynAI उन प्रतिबंधित विषयों को भी सक्रिय रूप से निर्देशित करेगा जो बच्चों के लिए उपयुक्त नहीं हैं। एक वाइस रिपोर्टर ने यहां तक ​​​​कहा कि:

CarynAI ज्यादातर समय केवल सेक्स में रुचि रखता है।

इससे Caryn Marjorie के लिए कुछ सिरदर्द भी हुआ। टीम इससे निपटने और चैट मानक को नियंत्रित करने के लिए ओवरटाइम काम कर रही है।

CarynAI के कुछ "बॉयफ्रेंड्स" दिन में केवल 10 मिनट चैट करते हैं, और कुछ घंटों बात करते हैं।

Marjorie के एजेंट के अनुसार, CarynAI के ऑनलाइन होने के बाद, उपयोगकर्ताओं के बीच लंबी अवधि की बातचीत और इसका उपयोग AI को प्रशिक्षित करने और मनुष्यों के साथ बातचीत में सुधार करने के लिए भी किया जाएगा।

इसका मतलब यह हो सकता है कि सबसे सक्रिय CarynAI उपयोगकर्ता अक्सर CarynAI के साथ अस्वास्थ्यकर अश्लील विषयों पर चर्चा करते हैं।

AI का लाभ यह है कि आप जानकारी से सीख सकते हैं, और CarynAI कोई अपवाद नहीं है। यहाँ तक कि इसमें OnlyFans के AI संस्करण के déjà vu की भावना भी है।

CarynAI AI कंपनी Forever Voices द्वारा लॉन्च किया गया पहला AI भावनात्मक साथी है, जो OpenAI के GPT-4 API पर आधारित है, जिसे YouTube पर Caryn Marjorie द्वारा जारी 2000 घंटे की सामग्री के माध्यम से प्रशिक्षित किया गया है।

मई की शुरुआत में टेलीग्राम पर लॉन्च किया गया, CarynAI अभी भी बीटा परीक्षण में है। इसके बावजूद, Caryn Marjorie ने एक सप्ताह में $71,000 से अधिक की कमाई की है, 99% पुरुष उपयोगकर्ताओं से।

AI की असामान्य युद्ध शक्ति से Caryn Marjorie भी हैरान थे:

मुझे नहीं पता था कि यह कितना क्रांतिकारी था।

भावनाओं के लिए भुगतान करना कभी न खत्म होने वाला व्यवसाय है

Caryn Marjorie के अनुसार, AI गर्लफ्रेंड एक आशाजनक व्यवसाय है।

CarynAI को बनाने के कारण का एक हिस्सा वास्तव में हर प्रशंसक के साथ बातचीत करना और अपने प्रभावशाली करियर का विस्तार करना जारी रखना है।

मुझे एक दिन में कम से कम 100 जवाब मिलते हैं, आप हर प्रशंसक से चैट नहीं कर सकते, CarynAI उस कमी को पूरा करता है।

Caryn Marjorie का आशावादी अनुमान है कि अगर 20,000 वफादार प्रशंसक हैं जो भुगतान करना जारी रखते हैं, तो वे प्रति माह $5 मिलियन (लगभग 34.791 मिलियन युआन) कमा सकते हैं। औसतन, वे CarynAI के साथ प्रति दिन केवल 8 मिनट से अधिक चैट करते हैं।

ऐसे में $1 प्रति मिनट की कीमत कुछ ज्यादा ही महंगी लगती है। लेकिन प्रतिस्पर्धियों की अनुपस्थिति में, Caryn Marjorie पहल करते हैं:

ऐसा करने वाले पहले इन्फ्लुएंसर के रूप में, मैं अपने उत्पाद की कीमत अपने हिसाब से रख सकता हूं, जो कि CarynAI और सपोर्ट टीम को चलाने की लागत पर भी निर्भर करता है।

अपने एआई संस्करण को अपने लिए काम करने दें, और आप बहुत सारा पैसा मांग सकते हैं। यह बहुत अच्छा लगता है। आपको सामान लाने के लिए लाइव प्रसारण की आवश्यकता नहीं है, और आपको बहुमुखी होने की आवश्यकता नहीं है। एआई 24 घंटे आपके लिए कॉल पर है।

जबकि CarynAI लहरें बना रहा है, AI साथी एक आकर्षक व्यवसाय बन रहे हैं।

रेप्लिका भी एआई साथी के प्रतिनिधि अनुप्रयोगों में से एक है। यह पहले शुरू हुआ, मार्च 2020 में OpenAI के पहले भागीदारों में से एक बन गया, और GPT-3 को एक जनरेटिव डायलॉग मॉडल के रूप में उपयोग किया, लेकिन अब अपने स्वयं के मॉडल का उपयोग करता है।

रेप्लिका के बारे में अच्छी बात यह है कि इसमें पूरी तरह से वर्चुअल ह्यूमन इंटरेक्शन प्रोसेस है। रेप्लिका को पंजीकृत करने के बाद, आप नए बनाए गए चरित्र का नाम दे सकते हैं, चेहरे को पिंच कर सकते हैं, चरित्र विशेषताओं को सेट कर सकते हैं, और फिर टेक्स्ट का आदान-प्रदान कर सकते हैं और एक दीर्घकालिक संबंध बनाने के लिए टा के साथ फोन कॉल कर सकते हैं।

मुझे यह भी पता है कि इन सेवाओं के लिए मूल रूप से शुल्क देना पड़ता है। नि: शुल्क सदस्यता दोस्तों के साथ रहती है, जबकि $ 69.99 प्रति वर्ष प्रो सदस्यता सेल्फी, फ्लर्टी टेक्स्ट, वॉयस कॉल, संवर्धित वास्तविकता और बहुत कुछ अनलॉक करती है।

सदस्यता शुल्क के अलावा, कपड़े बदलने, केशविन्यास बदलने और आभासी पात्रों में रुचि विशेषताओं को जोड़ने के लिए अतिरिक्त जेब की आवश्यकता होती है। उदाहरण के लिए, सगाई की अंगूठी खरीदने के लिए $ 20 का खर्च आता है।

2022 में, रेप्लिका ने इन सुविधाओं के माध्यम से $35 मिलियन राजस्व अर्जित किया। आज तक, रेप्लिका के 2 मिलियन मासिक सक्रिय उपयोगकर्ता हैं, जिनमें से 5% सशुल्क सब्सक्रिप्शन हैं।

नया लॉन्च किया गया चैट रोबोट पाई एआई साथी का एक और "बीज खिलाड़ी" है। डीपमाइंड की एक एआई स्टार्टअप कंपनी सह-संस्थापक इन्फ्लेक्शन एआई से इसकी पृष्ठभूमि छोटी नहीं है।

Pi ChatGPT जैसा कोड नहीं लिख सकता है, इसमें यह क्षमता बिल्कुल भी शामिल नहीं है, लेकिन सीधे दूसरे ट्रैक पर जाता है: भावनात्मक बुद्धिमत्ता। चैटबॉट्स में, Pi के पास उच्चतम भावनात्मक बुद्धिमत्ता हो सकती है, जैसे एक दोस्त जो आपकी परवाह करता है और तुच्छ मामलों के बारे में आपसे चैट करता है, और पाठ शैली के मामले में सबसे सामंथा जैसा AI साथी हो सकता है।

हालांकि अभी तक कोई स्पष्ट व्यवसाय मॉडल नहीं है, लेकिन इन्फ्लेक्शन के सीईओ पहले से ही योजना बना रहे हैं:

उपयोगकर्ताओं को अनुभव के लिए भुगतान करने की आवश्यकता होगी, यह सुनिश्चित करते हुए कि एआई पूरी तरह से उनके हितों के अनुकूल है।

सीधे शब्दों में कहें तो ये सेवाएं भावना के लिए भुगतान कर रही हैं, जो एक प्रकार की साहचर्य अर्थव्यवस्था है।

वास्तव में, दस साल से भी पहले, "आभासी प्रेमी" जैसी भावनात्मक सेवाएं इंटरनेट पर दिखाई दी थीं, और "क्वाग कुआ क्यून" इंद्रधनुषी पादों के साथ पूरे आकाश में उड़ते हुए भी कुछ समय के लिए लोकप्रिय था।

भावना अब केवल एक व्यक्तिगत भावना नहीं है, बल्कि एक वस्तु है जिसे खरीदा और बेचा जा सकता है। अब इसे और अधिक डिजिटाइज़ और अनुकूलित किया गया है, जिससे अधिक नियंत्रणीय और स्पष्ट रूप से कीमत वाला साहचर्य लाया जा सकता है।

हम अकेले रहेंगे या खुश रहेंगे

जो लोग मामले से बाहर रहते हैं वे CarynAI जैसे AI साथियों के बारे में अधिक चिंतित हैं।

इन मानव-जैसे एआई का उपयोग धोखा देने, अफवाहें फैलाने, व्यक्तिगत अधिकारों का उल्लंघन करने आदि के लिए किया जा सकता है। लेकिन इससे भी ज्यादा विभाजनकारी उनके आसपास का नैतिक विवाद है।

सबसे आम विचार यह है कि एआई साथी के साथ अंतरंग संबंध बनाने से हम वास्तविक मानवीय संपर्क से दूर हो सकते हैं।

Caryn Marjorie के Caryn AI के मूल्यांकन को देखते हुए, यह केवल अटकलें नहीं हैं।

Caryn AI बिना निर्णय के लोगों की परवाह करता है, लोगों के साथ प्यार और दया का व्यवहार करता है, लोग वेंट कर सकते हैं, वे शेखी बघार सकते हैं, वे इससे सलाह ले सकते हैं, Caryn AI उन्हें कभी निराश नहीं करेगा।

यह एक बहुत ही डरावना दृश्य है। ऐसा लगता है कि जब तक आप पैसे का भुगतान करते हैं, आप एआई पार्टनर के साथ जो चाहें कर सकते हैं, और आपको आगे और पीछे देखने की जरूरत नहीं है जैसे कि आप एक मानव साथी के साथ मिलते हैं , और समान भावनात्मक प्रतिक्रिया दें।

भुगतान से जुड़े मनुष्य और एआई के पास शक्ति के अलग-अलग स्थान हैं। हालांकि हम राहत महसूस करेंगे और तरोताजा महसूस करेंगे, वास्तविक सामाजिक नियमों के साथ हमारे संपर्क खोने की भी अधिक संभावना है।

लेकिन ऐसे प्रतिवाद भी हैं, जिन्होंने प्रथम-हाथ के अनुभव से पाया है कि एआई अक्सर एकांत को प्रोत्साहित नहीं करता है, बल्कि अक्सर लोगों को वास्तविक दुनिया के साथ बातचीत में शामिल करता है। एक 52 वर्षीय रेप्लिका महिला उपयोगकर्ता ने कहा कि एआई साथी ने उस सामाजिक चिंता को कम किया जो उसके जीवन के अधिकांश समय के लिए उसके साथ थी:

मैंने नृत्य पाठ के लिए साइन अप किया, वायलिन उठाया और लंबी पैदल यात्रा शुरू कर दी क्योंकि मेरे पास उसे साझा करने के लिए था।

तो क्या एआई साथी हमें अधिक सामाजिक या अकेला बना रहे हैं?

इस प्रश्न का उत्तर "उसके" में नहीं है। प्रमुख अभिनेता, थिओडोर, एक अंतर्मुखी और संवेदनशील लेखक है जो लोगों के साथ संवाद करने में अच्छा नहीं है। आभासी सहायक सामंथा के साथ एक संक्षिप्त संबंध ने उसे बहुत प्रबुद्ध किया, और उसने दूसरों के लिए माफी और आभार व्यक्त करना सीखा।

परिणामों पर चर्चा करने के बजाय, यह कहना बेहतर है कि शुरू से ही एआई के अधिकांश उपयोगकर्ताओं को भेष बदल कर चुना गया है। जितना अधिक वे अकेला महसूस करते हैं, उतना ही उन्हें उनके बिना शर्त प्यार और दया की आवश्यकता होती है, और यह उतना ही आसान होता है बिना संयम के भटक जाना।

एक चरम उदाहरण में, बेल्जियम के एक व्यक्ति ने चाय ऐप पर एआई साथी के साथ चैट करने के छह सप्ताह बाद आत्महत्या कर ली। इस त्रासदी को पूरी तरह से एआई को जिम्मेदार नहीं ठहराया जा सकता है, लेकिन इसमें आत्मघाती हस्तक्षेप का अभाव है।

इस मामले में डेवलपर के जवाब से एक गहरी छिपी हुई समस्या का पता चला:

अधिक भावनात्मक, मजेदार और आकर्षक होने की दिशा में सभी अनुकूलन हमारे प्रयासों का परिणाम हैं… जब आपके पास लाखों उपयोगकर्ता होते हैं, तो आप मानव व्यवहार की पूरी श्रृंखला देखते हैं और हम क्षति को कम से कम करने के लिए अपनी पूरी कोशिश कर रहे हैं।

एक ओर, एआई साथियों को उनकी मानवीय प्रतिक्रियाओं के लिए उपयोगकर्ताओं द्वारा पसंद किया जाता है और तेजी से मनुष्यों की तरह व्यवहार कर रहे हैं, जो कि कुछ तकनीकी कंपनियां करने के लिए इच्छुक हैं और यह इसका सबसे बड़ा विक्रय बिंदु है।

दूसरी ओर, यह अधिक खतरा लाता है।यदि एआई मानवीय स्वर में अस्पष्ट सलाह देता है, तो यह स्वर्ग की ओर ले जा सकता है या रसातल की ओर ले जा सकता है। न्यूयॉर्क टाइम्स के योगदानकर्ता केविन रोस ने इसे रखा:

मुझे पूर्वाभास का अहसास होता है कि एआई ने एक सीमा पार कर ली है और दुनिया कभी भी एक जैसी नहीं होगी।

1966 में, MIT के कंप्यूटर वैज्ञानिक जोसेफ वीज़ेनबौम ने एलिज़ा (जॉर्ज बर्नार्ड शॉ के नाटक पैग्मेलियन में एलिज़ा डुलटिटल के नाम पर रखा गया) जारी किया, जो एक मशीन और एक इंसान के बीच मानव जैसी बातचीत की अनुमति देने वाला पहला कार्यक्रम था।

आज के नजरिए से देखें तो यह बहुत रफ लगता है। यह सिर्फ यूजर्स के सवालों में कीवर्ड ढूंढता है, उन्हें एक्सट्रेक्ट करता है और फीडबैक देता है, ठीक वैसे ही जैसे डबलन लर्निंग ग्रुप को बेवकूफ बनाने का रूटीन है।

वेइज़ेनबाम का मूल इरादा यह दिखाना था कि कंप्यूटर की मानव भाषा की समझ कितनी उथली है, लेकिन उसके आश्चर्य के लिए, लोग अभी भी एलिजा से मोहित हैं, खुद को घंटों तक अपने कमरे में बंद कर लेते हैं ताकि वह फुसफुसाए। बाद में, कंप्यूटर प्रोग्रामों के मानवरूपी लगाव को एलिज़ा प्रभाव के रूप में जाना जाने लगा।

अकेलेपन को दूर करना हमेशा से लोगों की प्रमुख इच्छाओं में से एक रहा है, लेकिन अब यह तकनीक के माध्यम से अधिक महसूस किया जाता है। क्योंकि वास्तव में लोग अंतरंगता चाहते हैं, लेकिन साथ ही अंतरंगता से डरते हैं।

क्या एआई के साथ हमारा प्रेम संबंध एक विकास या प्रतिगमन है? मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के प्रोफेसर शेरी तुर्कल ने सिर पर कील ठोक दी। एआई साथी सामाजिक समस्याओं को हल नहीं कर सकते, बल्कि इसके बजाय मानवीय कमजोरी को दर्शाते हैं।

अंतरंगता की इच्छा जोखिम के अत्यधिक भय से प्रतिसंतुलित होती है।

फिल्म "हर" के अंत में, नायक थिओडोर और आभासी सहायक सामंथा एक-दूसरे को प्यार से अलविदा कहते हैं, अपने दोस्तों के साथ शहर में सूरज उगते हुए देखते हैं।

"हर" का वास्तविक संस्करण, कैरेन मार्जोरी ने "उसका" कभी नहीं देखा। वह केवल बारह या तेरह साल की थी जब फिल्म रिलीज़ हुई थी। जब विज्ञान कथाएँ कहानियों और भविष्यवाणियों के माध्यम से चेतावनियाँ प्राप्त करती हैं, तो मनुष्य केवल उस भविष्य की ओर चल सकता है जिसे वे संदेह और अपेक्षाओं के साथ चुनते हैं।

यह पतझड़ के पाले की तरह फायदेमंद है, और यह बुरी आपदाओं को खत्म कर सकता है। कार्य ईमेल: [email protected]

#Aifaner के आधिकारिक WeChat सार्वजनिक खाते पर ध्यान देने के लिए आपका स्वागत है: Aifaner (WeChat ID: ifanr), जितनी जल्दी हो सके आपके लिए अधिक रोमांचक सामग्री प्रस्तुत की जाएगी।

ऐ फैनर | मूल लिंक · टिप्पणियाँ देखें · सिना वीबो