Next Story
Newszop

हानिकारक AI आहार सलाह का पालन करने के बाद व्यक्ति अस्पताल में भर्ती

Send Push

एक चौंकाने वाले मामले में, OpenAI के ChatGPT की आहार सलाह का पालन करने के बाद एक अमेरिकी व्यक्ति को जानलेवा ब्रोमाइड विषाक्तता के कारण अस्पताल में भर्ती कराया गया। गिज़मोडो द्वारा रिपोर्ट की गई और वाशिंगटन विश्वविद्यालय के डॉक्टरों द्वारा लिखित “एनल्स ऑफ़ इंटरनल मेडिसिन: क्लिनिकल केसेस” में विस्तृत, यह AI से संबंधित ब्रोमाइड विषाक्तता का पहला ज्ञात मामला हो सकता है।

उस व्यक्ति ने ChatGPT के सुझाव के आधार पर, यह मानते हुए कि यह टेबल सॉल्ट का एक सुरक्षित विकल्प है, तीन महीने तक सोडियम ब्रोमाइड का सेवन किया। ब्रोमाइड, जिसका उपयोग कभी चिंता की दवाओं में किया जाता था, लेकिन गंभीर जोखिमों के कारण दशकों पहले प्रतिबंधित कर दिया गया था, अब केवल पशु चिकित्सा दवाओं और औद्योगिक उत्पादों तक ही सीमित है। ब्रोमिज़्म, या ब्रोमाइड विषाक्तता, मनुष्यों में अत्यंत दुर्लभ है।

शुरुआत में आपातकालीन देखभाल की तलाश में, उस व्यक्ति ने अपने पड़ोसी पर उसे जहर देने का संदेह करते हुए, व्यामोह का प्रदर्शन किया। सामान्य महत्वपूर्ण स्थिति के बावजूद, उसने पानी लेने से इनकार कर दिया, मतिभ्रम का शिकार हुआ, और जल्द ही एक मनोविकृति का अनुभव किया, जिसके लिए उसे अनैच्छिक मनोरोग चिकित्सा की आवश्यकता पड़ी। अंतःशिरा द्रव और मनोविकार रोधी दवाओं से उपचार के बाद, उसकी हालत स्थिर हो गई और उसने बताया कि उसने नमक के विकल्प के लिए चैटजीपीटी से परामर्श किया था, और उसे ब्रोमाइड के सुझाव के रूप में इसके खतरों के बारे में कोई चेतावनी दिए बिना ही दिया गया था। बाद में डॉक्टरों ने उसी प्रश्न के साथ चैटजीपीटी का परीक्षण किया, और उसने जोखिमों को उजागर किए बिना फिर से ब्रोमाइड की सिफारिश की।

यह मामला एआई द्वारा उत्पन्न स्वास्थ्य सलाह के खतरों को रेखांकित करता है जिसमें संदर्भ या सुरक्षा चेतावनियाँ नहीं होती हैं। हालाँकि वह व्यक्ति अस्पताल में तीन सप्ताह रहने के बाद पूरी तरह से ठीक हो गया और अनुवर्ती कार्रवाई के समय स्वस्थ था, विशेषज्ञ चेतावनी देते हैं कि एआई, जानकारीपूर्ण होने के बावजूद, पेशेवर चिकित्सा मार्गदर्शन का स्थान नहीं ले सकता। यह घटना एआई द्वारा भ्रामक और खतरनाक स्वास्थ्य सुझाव देने की क्षमता को उजागर करती है।

मुख्य बातें: आहार या चिकित्सा सलाह के लिए हमेशा स्वास्थ्य सेवा पेशेवरों से परामर्श लें। चैटजीपीटी जैसे एआई उपकरण गलत जानकारी दे सकते हैं, जो बिना सत्यापन के पालन करने पर गंभीर स्वास्थ्य जोखिम पैदा कर सकते हैं।

Loving Newspoint? Download the app now