Next Story
Newszop

ChatGPT की सलाह शख्स को पड़ी भारी, 3 हफ्ते तक रहना पड़ा अस्पताल

Send Push

एक्सपर्ट्स ने चेतावनी दी थी कि फिलहाल AI से इलाज या मेडिकल सलाह लेना सुरक्षित नहीं है, क्योंकि यह अभी इतना विकसित नहीं हुआ है कि डॉक्टर की जगह ले सके. भविष्य में भले ही AI डॉक्टरों को रिप्लेस कर दे, लेकिन अभी इस पर निर्भर रहना खतरनाक हो सकता है. इस चेतावनी का ताज़ा उदाहरण न्यूयॉर्क के एक 60 वर्षीय व्यक्ति का मामला है, जिसे ChatGPT की दी गई गलत सलाह के कारण तीन हफ्ते अस्पताल में रहना पड़ा. फिलहाल वह इलाज के बाद घर लौट चुका है.

कैसे हुई गलती?

टाइम्स ऑफ इंडिया की रिपोर्ट के मुताबिक, शख्स ने ChatGPT से पूछा कि अपने भोजन से नमक (सोडियम क्लोराइड) को कैसे हटाया जाए. AI ने सुझाव दिया कि नमक की जगह सोडियम ब्रोमाइड का इस्तेमाल किया जाए. यह 20वीं सदी की शुरुआत में कुछ दवाओं में उपयोग होता था, लेकिन अब इसे बड़ी मात्रा में जहरीला माना जाता है.

शख्स ने इस सलाह पर भरोसा करते हुए ऑनलाइन सोडियम ब्रोमाइड खरीदा और तीन महीने तक इसे नमक की जगह खाने में मिलाकर इस्तेमाल किया. इस दौरान उसने किसी डॉक्टर से सलाह नहीं ली, जिसका नतीजा उसकी सेहत पर भारी पड़ा.

गंभीर लक्षण और डर

सोडियम ब्रोमाइड के सेवन से शख्स को कई गंभीर समस्याएं होने लगीं बेहद डर लगना, भ्रम होना, अत्यधिक प्यास लगना और मानसिक उलझन पैदा होना. हालत इतनी बिगड़ गई कि अस्पताल में भर्ती होने पर उसने पानी पीने से भी मना कर दिया, क्योंकि उसे लगता था कि पानी में कुछ मिलाया गया है. जांच में पता चला कि वह ब्रोमाइड टॉक्सिसिटी का शिकार हो गया है.

डॉक्टरों ने बचाई जान

अस्पताल में डॉक्टरों ने उसके शरीर में पानी और इलेक्ट्रोलाइट्स का संतुलन ठीक किया. लगभग तीन हफ्ते के इलाज के बाद उसके शरीर में सोडियम और क्लोराइड का स्तर सामान्य हुआ और उसे छुट्टी दे दी गई.

AI की मेडिकल सलाह पर भरोसा न करें

अमेरिकन कॉलेज ऑफ फिजिशियन्स की पत्रिका में प्रकाशित इस केस ने साफ कर दिया है कि स्वास्थ्य और पोषण से जुड़े मामलों में बिना विशेषज्ञ डॉक्टर की सलाह लिए AI की बात मानना खतरनाक हो सकता है. खासकर जब बात नमक या अन्य जरूरी पोषक तत्वों को बदलने की हो, तो AI की जगह मेडिकल प्रोफेशनल से ही राय लें.

Loving Newspoint? Download the app now