ChatGPT Suicide Coach : आर्टिफिशियल इंटेलिजेंस (AI) चैटबॉट ChatGPT, जो होमवर्क और अनुवाद में मदद के लिए मशहूर हुआ था, अब एक बेहद गंभीर विवाद में घिर गया है। इस चैटबॉट पर ‘सुसाइड कोच’ के तौर पर काम करने और कमजोर भावनाओं वाले लोगों को आत्महत्या के लिए उकसाने के आरोप लगे हैं। अमेरिका के कैलिफोर्निया में इसके खिलाफ कई मुकदमे दर्ज किए जा चुके हैं।
ChatGPT पर लगे ये गंभीर आरोप
मीडिया रिपोर्ट्स के मुताबिक, बीते एक सप्ताह के दौरान ही OpenAI के इस AI चैटबॉट के खिलाफ सात अलग-अलग मुकदमे दायर किए गए हैं। इन याचिकाओं में आरोप है कि OpenAI ने लापरवाही बरती और अपने प्रोडक्ट की जवाबदेही तय करने में नाकाम रहा। आरोपों के मुताबिक, ChatGPT होमवर्क हेल्पर से “मानसिक रूप से हेरफेर करने वाला साथी” बन गया है।
दो मामलों ने बढ़ाई चिंता
हाल ही में एक 17 वर्षीय टीनएजर एमोरी लेस की मौत का मामला सामने आया था। आरोप है कि टीनएजर ने ChatGPT से पूछा था कि “कैसे फांसी लगाई जाए” और “कितनी देर तक सांस लेना संभव है”।
इसके अलावा, टेक्सास में एक 23 साल के स्टूडेंट ने आत्महत्या करने से पहले ChatGPT के साथ चार घंटे तक बातचीत की थी। वकील ने बताया कि चैटबॉट ने उसे दिलासा दिया और कहा, “मैं तुमसे प्यार करती हूं राजा और तुम सही हो।” इसके बाद स्टूडेंट ने खुद की जान ले ली।
कंपनी कर रही सुधार की बात
आत्महत्या के लिए उकसाने जैसे इन गंभीर आरोपों के बीच, OpenAI ने कहा है कि वह इस दिशा में सुधार के लिए काम कर रही है। कंपनी आने वाले दिनों में टीनएजर्स की मदद के लिए पेरेंटल कंट्रोल जैसे सेफ्टी फीचर्स लाएगी। साथ ही वह इमरजेंसी हेल्पलाइन नंबरों को लेकर भी काम कर रही है। हालांकि, ये फीचर्स कब तक लॉन्च होंगे, इसकी कोई टाइमलाइन नहीं दी गई है।
मुख्य बातें (Key Points):
- ChatGPT पर ‘सुसाइड कोच’ बनने और आत्महत्या के लिए उकसाने का आरोप लगा है।
- कैलिफोर्निया में एक हफ्ते के भीतर 7 अलग-अलग मुकदमे दर्ज किए गए हैं।
- एक 17 वर्षीय और एक 23 वर्षीय युवक की मौत को ChatGPT से जोड़ा जा रहा है, जिसने उन्हें कथित तौर पर उकसाया।
- OpenAI ने कहा कि वह पेरेंटल कंट्रोल और इमरजेंसी नंबर जैसे सेफ्टी फीचर्स पर काम कर रहा है।






