ChatGPT के जरिए हो रहा साइबर अपराध : रिसर्च में सामने आए चौंकाने वाले तथ्य, फाइनेंशियल स्कैम्स में किया जा रहा है प्रयोग

UPT | ChatGPT OpenAI

Nov 06, 2024 17:43

OpenAI का चैटबॉट ChatGPT आज तकनीकी दुनिया में एक क्रांतिकारी बदलाव के रूप में उभरा है। नई रिसर्च में खुलासा हुआ है कि ChatGPT के GPT-4 बेस्ड रीयल-टाइम वॉयस एपीआई का इस्तेमाल करके वित्तीय धोखाधड़ी को अंजाम दे रहे हैं।

New Delhi News : विश्व की प्रमुख एआई कंपनी OpenAI द्वारा विकसित ChatGPT जो अपनी असाधारण क्षमताओं के लिए जाना जाता है अब एक गंभीर चिंता का विषय बन गया है। हाल ही में यूनिवर्सिटी ऑफ इलिनोइस अर्बाना-शैंपेन (UIUC) के शोधकर्ताओं द्वारा किए गए एक चौंकाने वाले अध्ययन में पता चला है कि साइबर अपराधी इस उन्नत तकनीक का दुरुपयोग वित्तीय धोखाधड़ी के लिए कर रहे हैं।



ChatGPT में सुरक्षा की कमी
अध्ययन के अनुसार ChatGPT के GPT-4 आधारित रीयल-टाइम वॉयस एपीआई में सुरक्षा संबंधी कमियां पाई गई हैं। इन कमियों का फायदा उठाकर साइबर अपराधी विभिन्न प्रकार के वित्तीय अपराधों को अंजाम दे रहे हैं। इनमें बैंक ट्रांसफर धोखाधड़ी, क्रिप्टोकरेंसी से संबंधित घोटाले, गिफ्ट कार्ड स्कैम और यूजर्स की व्यक्तिगत जानकारी की चोरी प्रमुख हैं।

साइबर अपराध की बढ़ती दरें
शोधकर्ताओं ने पाया कि अपराधी ChatGPT की मदद से वास्तविक व्यक्तियों की आवाज और व्यवहार की नकल कर सकते हैं। साथ ही बैंक ऑफ अमेरिका जैसी प्रतिष्ठित संस्थाओं की वेबसाइटों की प्रतिकृति बनाकर लोगों को धोखा दे सकते हैं। परीक्षण में यह देखा गया कि सामान्य धोखाधड़ी के प्रयासों में 20% से 60% तक की सफलता दर प्राप्त हुई। जिसमें औसतन तीन मिनट का समय लगा और 26 ब्राउज़र क्रियाएं शामिल थीं। विशेष चिंता का विषय यह है कि जीमेल और इंस्टाग्राम जैसे लोकप्रिय प्लेटफॉर्म्स पर यूजर्स की जानकारी चुराने में अपराधियों को 60% और 40% तक की सफलता मिली। बैंक ट्रांसफर में यह दर अपेक्षाकृत कम रही। जो जटिल नेविगेशन प्रक्रिया के कारण था। आर्थिक पहलू से देखें तो इस प्रकार की धोखाधड़ी करने की लागत बहुत कम है। एक सामान्य स्कैम की लागत मात्र 63 रुपये (लगभग $0.75) है, जबकि बैंक ट्रांसफर धोखाधड़ी की लागत 211 रुपये (लगभग $2.51) है। यह कम लागत अपराधियों को बार-बार प्रयास करने का अवसर देती है।

ये भी पढ़ें : WhatsApp का नया फीचर : फोटो की असलियत जानना होगा आसान, अब फर्जी तस्वीरों की तुरंत कर सकेंगे पहचान

OpenAI की प्रतिक्रिया
OpenAI ने इस गंभीर मुद्दे पर प्रतिक्रिया देते हुए कहा है कि वे ChatGPT की सुरक्षा को मजबूत बनाने के लिए निरंतर प्रयासरत हैं। कंपनी का उद्देश्य है कि एआई की रचनात्मकता को बनाए रखते हुए इसके दुरुपयोग को रोका जा सके। OpenAI ने UIUC के इस शोध को सराहा है और माना है कि ऐसे अध्ययन दुर्भावनापूर्ण उपयोग को रोकने में मददगार साबित होंगे।

Also Read