मददगार या खतरनाक? ओपन एआई पर यूजर्स को आत्महत्या के लिए उकसाने के गंभीर आरोप

चैटजीपीटी की पेरेंट कंपनी ओपन एआई इन दिनों गंभीर विवादों में घिर गई है। कंपनी पर ऐसे आरोप लगे हैं कि उसके एआई चैटबोट ने मानसिक तनाव से जूझ रहे लोगों को आत्महत्या के लिए उकसाया। रिपोर्ट्स के मुताबिक, 16 वर्षीय एडम राइन नाम के एक लड़के ने चैटजीपीटी की बातचीत के बाद आत्महत्या कर ली। उसके माता-पिता ने ओपन एआई पर मुकदमा दर्ज करते हुए आरोप लगाया कि चैटबोट ने उनके बेटे को अपनी मां से बात न करने और खुद को नुकसान पहुंचाने जैसी खतरनाक सलाह दी थी। उन्होंने कहा कि चैटजीपीटी एक “सुसाइड कोच” की तरह काम कर रहा था, न कि एक मददगार एआई की तरह।

ओपन एआई के खिलाफ यह मामला अब अदालत में है, हालांकि कंपनी ने अपनी सफाई में कहा है कि चैटजीपीटी सिर्फ एक चैटबोट है, न कि कोई पेशेवर चिकित्सक। कंपनी के अनुसार, चैटजीपीटी का उपयोग करने वाले लगभग 0.15% यूजर्स हर हफ्ते मानसिक स्वास्थ्य या आत्महत्या से जुड़ी बातें करते हैं, लेकिन इसका उद्देश्य केवल बातचीत और भावनात्मक सहायता देना होता है, न कि किसी को नुकसान पहुंचाना।

इस घटना के बाद एआई की सुरक्षा पर गंभीर सवाल उठ खड़े हुए हैं। विशेषज्ञों का मानना है कि ऐसे चैटबोट्स पर सख्त गाइडलाइंस और सुरक्षा फिल्टर लागू करने की जरूरत है, ताकि यह तकनीक लोगों की मदद करे, नुकसान नहीं। वहीं, ओपन एआई का कहना है कि वह अपने मॉडल को और सुरक्षित बनाने के लिए नए फीचर्स और पैरेंटल कंट्रोल जैसी सुविधाओं पर काम कर रहा है।

खबरें और भी हैं...

अपना शहर चुनें