दोस्त का चेहरा लगाकर वीडियो कॉल पर 5 करोड़ ले लिए, AI से हुआ ये नये तरीके का स्कैम, सावधान रहने की जरूरत
किसी दिन आपको मोबाइल पर अपने बेस्ट फ्रेंड का वीडियो कॉल (Video call) आए। वो कहे कि उसे बड़ी मेडिकल इमरजेंसी आ गई है और तुरंत एक बड़ी रकम चाहिए। आप क्या करेंगे? शायद आप तुरंत उसे पैसे ट्रांसफर कर देंगे, क्योंकि आपको अपने दोस्त पर पूरा भरोसा है कि वो पैसे लौटा देगा। चीन में भी एक व्यक्ति ने ऐसा ही किया। दोस्त ने वीडियो कॉल कर पैसा मांगा, तो शख्स ने उसे 5 करोड़ रुपये दे दिए। बाद में पता चला कि वह उसका दोस्त नहीं था। बल्कि किसी ने AI तकनीक का इस्तेमाल कर उससे फ्रॉड (Fraud) किया था।
फेक वीडियो कॉल से फ्रॉड
तकनीक ह्यूमन लाइफ को काफी आसान बनाती है। इसके ढेरों फायदे हैं। लेकिन हर नई तकनीक के साथ ही उससे खिलवाड़ करने वाले भी आ जाते हैं। एआई के साथ भी ऐसा ही हुआ है। फ्रॉड करने वाले एआई का जमकर इस्तेमाल कर रहे हैं। वे एआई से फर्जी वेबसाइट (Fake Website) बना रहे हैं और फिशिंग मैसेज भेजकर लोगों को लूट रहे हैं। अब फर्जी वीडियो कॉल (Fake Video Call) का मामला भी सामने आ चुका है।
AI से बन रही रियल जैसी वीडियो
एआई का इस्तेमाल कर डीपफेक इमेजेज और वीडियोज बनाई जा रही है। उत्तरी चीन में दोखेबाजों ने डीपफेक तकनीक (Deepfake Technology) का यूज कर एक व्यक्ति को 5 करोड़ रुपये का चूना लगा दिया। डीपफेक्स ऐसी ऑनलाइन तस्वीरें और वीडियो होती हैं, तो रियल दिखती हैं और इन्हें गलत सूचनाएं फैलाने के लिए इस्तेमाल किया जा रहा है।
फेस-स्वैपिंग तकनीक का इस्तेमाल
उत्तरी चीन में एक स्कैमर ने काफी एडवांस डीपफेक तकनीक का इस्तेमाल किया और एक व्यक्ति को अपने खाते में पैसे ट्रांसफर करने के लिए मना लिया। स्कैमर ने यहां एआई पावर्ड फेस-स्वैपिंग तकनीक (Face Swapping Technique) का इस्तेमाल किया और पीड़ित का करीबी दोस्त बनकर उससे फ्रॉड किया। रॉयटर्स की एक रिपोर्ट से यह जानकारी मिली है। रिपोर्ट के अनुसार, बाओटौ शहर की पुलिस ने कहा कि स्कैमर ने वीडियो कॉल करके पीड़ित के दोस्त का रूप धारण किया और उसे 4.3 मिलियन युआन यानी करीब 5 करोड़ रुपये ट्रांसफर करने को कहा।
असली दोस्त को कॉल किया तो चला फ्रॉड का पता
पीड़ित ने स्कैमर को अपना करीबी दोस्त समझा। उसने यह मानते हुए कि उसके दोस्त को एक बिडिंग प्रोसेस के दौरान पैसों की सख्त जरूरत थी, रुपये ट्रांसफर कर दिये। पीड़ित को इस फ्रॉड का अहसास तब हुआ, जब उसने अपने दोस्त (असली) को कॉल किया। पुलिस ने चोरी की अधिकांश रकम बरामद कर ली है और बाकी की रकम का पता लगा रही है। इस घटना ने वित्तीय अपराधों को अंजाम देने के लिए एआई के इस्तेमाल को लेकर दुनियाभर में चिंता बढ़ा दी है।
बनाया लड़की की आवाज का क्लोन
यह पहली बार नहीं है, जब एआई का इस्तेमाल कर किसी व्यक्ति से पैसे ठगे गए हों। पिछले महीने एक मामले ने दुनिया को झकझोर कर रख दिया था। इसमें स्कैमर्स ने एआई का इस्तेमाल एक लड़की की आवाज का क्लोन बनाने के लिए की थी और लड़की की मां से फिरौती की मांग की थी। फिरौती में एआई के इस्तेमाल के और भी मामले सामने आए हैं।