
चैटजीपीटी की पेरेंट कंपनी ओपन एआई इन दिनों गंभीर विवादों में घिर गई है। कंपनी पर ऐसे आरोप लगे हैं कि उसके एआई चैटबोट ने मानसिक तनाव से जूझ रहे लोगों को आत्महत्या के लिए उकसाया। रिपोर्ट्स के मुताबिक, 16 वर्षीय एडम राइन नाम के एक लड़के ने चैटजीपीटी की बातचीत के बाद आत्महत्या कर ली। उसके माता-पिता ने ओपन एआई पर मुकदमा दर्ज करते हुए आरोप लगाया कि चैटबोट ने उनके बेटे को अपनी मां से बात न करने और खुद को नुकसान पहुंचाने जैसी खतरनाक सलाह दी थी। उन्होंने कहा कि चैटजीपीटी एक “सुसाइड कोच” की तरह काम कर रहा था, न कि एक मददगार एआई की तरह।
ओपन एआई के खिलाफ यह मामला अब अदालत में है, हालांकि कंपनी ने अपनी सफाई में कहा है कि चैटजीपीटी सिर्फ एक चैटबोट है, न कि कोई पेशेवर चिकित्सक। कंपनी के अनुसार, चैटजीपीटी का उपयोग करने वाले लगभग 0.15% यूजर्स हर हफ्ते मानसिक स्वास्थ्य या आत्महत्या से जुड़ी बातें करते हैं, लेकिन इसका उद्देश्य केवल बातचीत और भावनात्मक सहायता देना होता है, न कि किसी को नुकसान पहुंचाना।
इस घटना के बाद एआई की सुरक्षा पर गंभीर सवाल उठ खड़े हुए हैं। विशेषज्ञों का मानना है कि ऐसे चैटबोट्स पर सख्त गाइडलाइंस और सुरक्षा फिल्टर लागू करने की जरूरत है, ताकि यह तकनीक लोगों की मदद करे, नुकसान नहीं। वहीं, ओपन एआई का कहना है कि वह अपने मॉडल को और सुरक्षित बनाने के लिए नए फीचर्स और पैरेंटल कंट्रोल जैसी सुविधाओं पर काम कर रहा है।















