हम सभी ने कभी न कभी ऐसी स्थिति का सामना किया है। कभी-कभी पेट में अजीब सा दर्द होता है या डॉक्टर से कोई उलझन भरा टेस्ट रिजल्ट मिलता है, और सबसे पहले हम गूगल खोलते हैं। आप कोई मेडिकल डिग्री नहीं ढूंढ रहे होते; आप बस यह जानना चाहते हैं कि "क्या मैं ठीक हूँ?" लेकिन हाल ही में, गूगल को अपने AI सर्च समरी पर रोक लगानी पड़ी क्योंकि पता चला है कि रोबोट से मेडिकल सलाह लेना वास्तव में खतरनाक हो सकता है।
जांच में पता चला कि एआई द्वारा तैयार की गई स्वास्थ्य संबंधी जानकारियां गलत और डरावनी थीं, जिसके बाद गूगल ने चुपचाप अपने खोज परिणामों से उन जानकारियों को हटा दिया। यह सब तब शुरू हुआ जब द गार्जियन की एक रिपोर्ट में बताया गया कि ये " एआई ओवरव्यू " – जो रंगीन बॉक्स आपकी खोज के सबसे ऊपर दिखाई देते हैं – अधूरा डेटा दिखा रहे थे।
इसका सबसे स्पष्ट उदाहरण लिवर के रक्त परीक्षणों से संबंधित था।
अगर आप एआई से "सामान्य सीमा" पूछते, तो वह बस संख्याओं की एक सूची बता देता। वह यह नहीं पूछता कि आप पुरुष हैं या महिला। वह आपकी उम्र, आपकी जाति या आपके मेडिकल इतिहास के बारे में भी नहीं पूछता। वह बस एक सीधा-सादा आंकड़ा दे देता। चिकित्सा विशेषज्ञों ने इस पर गौर किया और सीधे-सीधे कहा, "यह खतरनाक है।"
समस्या सिर्फ यह नहीं है कि एआई गलत था ; बल्कि यह है कि इसने खतरनाक रूप से गुमराह किया। कल्पना कीजिए कि किसी व्यक्ति को लिवर की शुरुआती बीमारी है और वह अपने टेस्ट के नतीजे देख रहा है। एआई उसे बताता है कि उसके नतीजे किसी यादृच्छिक वेबसाइट से लिए गए "सामान्य" दायरे में आते हैं। वह व्यक्ति सोच सकता है, "अच्छा, तो मैं ठीक हूँ," और अगली जांच के लिए डॉक्टर के पास न जाए। असल में, 20 साल के व्यक्ति के लिए जो "सामान्य" आंकड़ा है, वही 50 साल के व्यक्ति के लिए खतरे की घंटी हो सकता है। एआई में यह अंतर समझने की क्षमता नहीं है, और संदर्भ में यह कमी गंभीर, वास्तविक दुनिया के परिणाम दे सकती है।
गूगल का जवाब काफी सामान्य था—उन्होंने चिह्नित विशिष्ट प्रश्नों को हटा दिया और जोर देकर कहा कि उनका सिस्टम आमतौर पर मददगार होता है। लेकिन असली बात तो यह है: ब्रिटिश लिवर ट्रस्ट जैसे स्वास्थ्य संगठनों ने पाया कि अगर आप प्रश्न को थोड़ा सा बदल भी दें, तो वही गलत जानकारी तुरंत फिर से सामने आ जाती है। यह एक तरह का डिजिटल खेल है। आप एक गलती सुधारते हैं, और एआई पांच सेकंड बाद ही एक नई गलती कर देता है।
यहां असली मुद्दा विश्वास का है।
क्योंकि ये एआई सारांश पृष्ठ के बिल्कुल ऊपर, अस्पतालों या चिकित्सा पत्रिकाओं के वास्तविक लिंक से पहले दिखाई देते हैं, इसलिए इनमें विश्वसनीयता झलकती है। हम शीर्ष परिणाम पर भरोसा करने के आदी हैं। जब गूगल एक छोटे से बॉक्स में जवाब प्रस्तुत करता है, तो हमारा मस्तिष्क अवचेतन रूप से इसे "सही" उत्तर मान लेता है। लेकिन यह सही नहीं है। यह केवल एक अनुमान लगाने वाला इंजन है जो यह अनुमान लगाने की कोशिश कर रहा है कि आगे कौन से शब्द आएंगे।
फिलहाल, यह एक बड़ा चेतावनी संदेश है। ईमेल का सारांश बनाने या यात्रा कार्यक्रम की योजना बनाने के लिए एआई बहुत अच्छा है, लेकिन जब बात आपके स्वास्थ्य की आती है, तो यह स्पष्ट रूप से अभी पूरी तरह से तैयार नहीं है। जब तक ये सिस्टम संदर्भ को समझने में सक्षम नहीं हो जाते—या जब तक Google सख्त सुरक्षा उपाय लागू नहीं कर देता—तब तक रोबोट को छोड़कर किसी असली डॉक्टर के लिंक पर क्लिक करना शायद ज्यादा सुरक्षित है। गति अच्छी बात है, लेकिन जब बात आपके स्वास्थ्य की हो तो सटीकता ही सबसे महत्वपूर्ण है।
जोखिम भरे चिकित्सा संबंधी त्रुटियों के सामने आने के बाद Google ने AI द्वारा तैयार किए गए स्वास्थ्य सारांश हटा दिए हैं। यह लेख सबसे पहले Digital Trends पर प्रकाशित हुआ था।