خدعة بالأصوات والوجوه المزورة.. تحذير عاجل من موجة ابتزاز مدعومة بالذكاء الاصطناعي
القبة نيوز- أصدر مكتب التحقيقات الفيدرالي الأميركي تحذيراً جديداً من تصاعد عمليات احتيال معقدة يعتمد فيها قراصنة الإنترنت على تقنيات الذكاء الاصطناعي التوليدي لإنتاج مقاطع فيديو مزيفة تُظهر ضحايا مختطفين بشكل مقنع، بهدف ابتزاز عائلاتهم وإجبارهم على دفع فدية خلال وقت قصير.
وبحسب البيان، يقوم المجرمون بجمع صور وفيديوهات منشورة على مواقع التواصل الاجتماعي أو منصات رقمية أخرى، ثم يضخونها في أدوات توليد الفيديو بالذكاء الاصطناعي لإنتاج مقاطع ديب فيك تُحاكي مواقف اختطاف.
وبعد تجهيز المادة المزيفة، يرسلها المحتالون إلى العائلة باعتبارها دليلاً على أن أحد أفرادها محتجز لديهم.
ويستغل القراصنة خاصية الرسائل المؤقتة والمجدولة، حتى لا تتاح للعائلة فرصة كافية لتحليل الفيديو أو اكتشاف تلاعبه، فيما تبدي السلطات قلقاً متزايداً من تطور هذه الأدوات بشكل يعيق القدرة على التحقق من صحة المحتوى.
العلامات التي تكشف الخدعة
وبالرغم من التطور السريع لهذه التقنيات، يشير الـ FBI إلى وجود مؤشرات قد تكشف التلاعب، من بينها:
- تشوهات في ملامح الوجه أو حركة الجسد.
- اختفاء علامات أو تفاصيل شخصية معروفة.
- مشاهد غير متناسقة أو إضاءة غريبة.
وينصح المكتب بعدم تحويل أي مبالغ مالية فوراً قبل التأكد من حقيقة الادعاء، والتواصل المباشر مع الشخص المزعوم اختطافه أو مع جهات يمكنها التحقق من سلامته.
نصائح للحد من خطر الاستهداف
كما دعا الـ FBI المستخدمين إلى:
- الحد من مشاركة البيانات الشخصية وصور العائلة عبر المنصات العامة.
- تقييد من يمكنه الاطلاع على المحتوى العائلي.
- توخي الحذر عند مشاركة مواد السفر أو المواقع الحالية.
- التواصل مباشرة مع الفرد المعني قبل الاستجابة لأي طلب فدية.
ويؤكد مكتب التحقيقات أن استخدام الذكاء الاصطناعي في الاحتيال يمثل مرحلة جديدة من الابتزاز الإلكتروني، ما يستدعي يقظة أعلى ووعياً رقمياً أكبر لدى المستخدمين.
















