هل تساءلت يوما وانت تتصفح منصات السوشيال ميديا حول ما اذا كان فيديو معين تشاهده حقيقي أم مفبرك بالذكاء الاصطناعي؟، فمع انتشار الـ AI ، دخلنا عصر الفيديوهات المزيفة فائقة الواقعية، حيث أصبح الخداع الرقمي أداة قوية في يد المحتالين.
وفي نفس الوقت فإن خبراء التقنية يحذرون، من أن منصات مثل Sora 2 لم تعد مجرد أدوات للإبداع، بل أصبحت ساحة جديدة لعمليات الاحتيال بالتزييف العميق على الإنترنت.
صعوبة التمييز بين الحقيقة والزيف
وقد ارتفعت أعداد فيديوهات التزييف العميق من نصف مليون في عام 2023 إلى أكثر من ثمانية ملايين هذا العام، فيما شهدت محاولات الاحتيال قفزة مذهلة بلغت 3000% خلال عامين فقط، وفقًا لتقارير شركة DeepStrike للأمن السيبراني.
ويشير الخبراء إلى أن التمييز بين الفيديوهات الحقيقية والمزيفة أصبح أكثر صعوبة من أي وقت مضى، إذ لم يعد البشر قادرين على اكتشاف التزييف العميق عالي الجودة إلا في مرة واحدة من كل أربع محاولات، ما يفتح الباب أمام خداع ملايين المستخدمين دون أن يدركوا ذلك.
من الترفيه إلى صناعة إجرامية بمليارات الجنيهات
وكانت مقاطع الفيديو المولَّدة بتقنية التزييف العميق والذكاء الاصطناعي قد بدأت كصيحة ترفيهية على الإنترنت، لكنها تحولت بسرعة إلى صناعة إجرامية بمليارات الجنيهات، حيث يعتمد المحتالون على استنساخ الأصوات والوجوه والتعبيرات العاطفية لخداع الضحايا، سواء لإجبارهم على دفع أموال أو لنشر أخبار كاذبة.
ومن المُرجّح أن تزداد مكالمات الفيديو المُولّدة بتقنية التزييف العميق (Deepfakes) انتشارًا أيضًا، حيث ينتحل المحتالون شخصيات أحبائهم أو رؤسائهم مباشرةً على الشاشة، بأصواتٍ وسلوكياتٍ مُستنسخة - ويعود ذلك إلى أدواتٍ مُتاحةٍ من منصاتٍ مثل Sora، وهو تطبيقٌ لتحويل النصوص إلى فيديو، قادرٌ على إنشاء مقاطع فيديو واقعية في أقل من دقيقة.
كيف تكتشف الفيديو المصنع بالذكاء الاصطناعى؟
قدّم فريق شركة Outplayed للتكنولوجيا والبرمجيات بعض الطرق الرئيسية لتحديد مقاطع الفيديو المُولّدة بتقنية الذكاء الاصطناعي بسهولة، وتشمل هذه الطرق:
- الرمش والعينان: يرمش الأشخاص بشكلٍ أقل أو يُحرّكون أعينهم بأنماطٍ آلية.
- اليدين والأصابع: ابحث عن الأصابع المُشوّهة أو المُدمجة - لا يزال الذكاء الاصطناعي يُعاني من مشاكل في تحديد حركة اليدين.
- أخطاء الإضاءة: تسقط الظلال في اتجاهاتٍ غريبة أو تبدو الوجوه ساطعةً جدًا. الماء والانعكاسات: يبدو السائل "مثاليًا للغاية" أو ساكنًا بشكل غير طبيعي.
- مشاكل في تزامن حركة الشفاه: لا تتطابق الشفاه تمامًا مع الكلمات - خاصةً مع أصوات "p" أو "b".
- الجلد الناعم: تبدو وجوه الذكاء الاصطناعي بلاستيكية، بدون مسام أو ملمس.
- خلفيات بها خلل: الأجسام المشوهة أو الحواف المتذبذبة تكشف اللعبة إلى جانب العلامات المائية غير المخفية.
- حركة القماش: تتحرك الملابس بشكل جامد أو غير طبيعي مع الريح.
- انتقالات المشهد: تشير القفزات أو "الومضات" غير الملائمة في منتصف اللقطة إلى تعديل اصطناعي.
- سياق غريب: ظهور الأشخاص خارج الشخصية أو في أماكن غريبة.
- حدس: إذا بدا الأمر غريبًا، فهو على الأرجح كذلك.
ما هي تحذيرات الخبراء؟
حث أحد خبراء Outplayed الناس على إدراك مدى سرعة تطور هذا النوع من التكنولوجيا، ما كان إنتاجه في استوديوهات هوليوود يستغرق أسابيع، أصبح الآن ممكنًا لأي شخص لديه جهاز كمبيوتر محمول، مقاطع الفيديو من أحدث أدوات الذكاء الاصطناعي، مثل Sora 2، تكاد تكون غير قابلة للتمييز عن الواقع - وهذا أمر مرعب في الحالات الخاطئة التي قد تُستخدم فيها، كما قالوا.
يتعرض الناس للاحتيال عبر وسائل التواصل الاجتماعي، سواءً على مستوى الشركات أو حتى في العلاقات العاطفية - حيث يستغل هؤلاء المجرمون الاعتقاد السائد بـ"تصديق ما تراه".
وأضاف الخبير: "يثق الناس بأدلة الفيديو. لهذا السبب ندخل حقبة جديدة خطيرة مع تزايد سريع في استخدام التزييف العميق. إنهم يتجاوزون المنطق ويتجهون مباشرةً نحو العاطفة".
تحميلات SORA
تجاوز Sora الآن مليون عملية تنزيل، ويقوم المستخدمون بإنشاء مقاطع قصيرة - وهي بالفعل مثيرة للجدل، ينشئ الكثيرون مقاطع لمشاهير، منهم جيك بول ومايكل جاكسون، مما يطمس بشكل مقلق الخط الفاصل بين الخيال والأصالة.
وبعد ظهور عدد من مستخدمي تقنية التزييف العميق غير المحترمين، اضطر مبدعو المنصة إلى حظر مقاطع الفيديو التي تظهر مارتن لوثر كينغ جونيور، مما يسلط الضوء على التحديات الأخلاقية المتزايدة حول هذه التكنولوجيا.

0 تعليق