بنك الإمارات دبي الوطني مصر يحذر من عمليات احتيال بتقليد الصوت عبر الذكاء الاصطناعي

حذّر بنك الإمارات دبي الوطني – مصر، عبر صفحته الرسمية على موقع التواصل الاجتماعي فيسبوك، من أسلوب جديد من أساليب الاحتيال المالي التي تستهدف عملاء البنوك، ويتمثل في تقليد الصوت باستخدام تقنيات الذكاء الاصطناعي (AI Voice Cloning).
وأوضح البنك أن هذا النوع من الاحتيال أصبح ينتشر بشكل متزايد في الفترة الأخيرة، حيث يتمكن المحتالون من تقليد صوت شخص موثوق بالنسبة للعميل لإقناعه بتنفيذ تحويلات مالية أو الإفصاح عن بياناته البنكية.
وأكد بنك الإمارات دبي الوطني – مصر أن مكالمة واحدة فقط من هذا النوع قد تكون كافية لتهديد أمان الحسابات البنكية، مشددًا على ضرورة توخّي الحذر والتأكد من هوية المتصل قبل تنفيذ أي معاملات مالية.
ودعا البنك عملاءه إلى عدم مشاركة أي معلومات شخصية أو بيانات سرية عبر الهاتف، حتى وإن بدا الصوت مألوفًا أو موثوقًا، والتواصل فورًا مع البنك في حال الاشتباه في أي اتصال غير معتاد.




