التزييف العميق: الأصول المظلمة لمقاطع الفيديو المزيفة وقدرتها على إحداث الخراب عبر الإنترنت

تعد رؤية مقاطع الفيديو والصور المعدلة باستخدام برنامج فوتوشوب بمثابة طقوس مرور على الإنترنت. من النادر هذه الأيام أن تزور وسائل التواصل الاجتماعي دون أن تصادف شكلاً من أشكال المحتوى المعدل، سواء أ كان ذلك صورة ذاتية بسيطة مفلترة أم صورة ميمية مزخرفة للغاية أم فيديو عُدل لإضافة مقطع صوتي أو تحسين عناصر معينة.

ولكن في حين أن بعض أشكال الوسائط تُعدل بوضوح، فقد يكون من الصعب تحديد التعديلات الأخرى. لربما قد سمعت مصطلح (deepfake) في السنوات الأخيرة، إذ ظهر لأول مرة في عام 2017 لوصف مقاطع الفيديو والصور التي تنفذ خوارزميات التعلم العميق لإنشاء مقاطع فيديو وصور تبدو وكأنها حقيقية.

فعلى سبيل المثال، لنأخذ خطاب كارثة القمر الذي ألقاه الرئيس السابق ريتشارد نيكسون عندما اصطدم فريق أبولو 11 بسطح القمر. طبعًا إنها لمزحة، إذ لم يحدث هذا قط. ولكن ظهرت صورة مزيفة واقعية للغاية لنيكسون أثناء تكريم باز ألدرين ونيل أرمسترونج في فيلم في عام 2019 بعنوان In Event of Moon Disaster ، والذي أظهر تغييرًا مقنعًا لخطاب الرئيس الأصلي.

كان قادة العالم الحاليون والسابقون، مثل جون إف كينيدي وباراك أوباما وفلاديمير بوتين، طُعمًا لمقاطع فيديو مزيفة أيضًا، إذ يبدو أنهم يقولون ويفعلون أشياء لم يقولوها أو يفعلوها في الواقع. على الرغم من ازدياد التزييف العميق في السنوات الأخيرة قد نوقش في وسائل الإعلام الشعبية، إلا أن مجموعة المؤلفات الأكاديمية حول هذا الموضوع لا تزال قليلة نسبيًا.

لكن الباحثين أعربوا عن قلقهم من أن هذه الصور ومقاطع الفيديو المتلاعب بها يمكن أن تشكل خطرًا أمنيًا متزايدًا في السنوات المقبلة. إذ يتوقع تقرير صدر مؤخرًا في Crime Science أن التزييف العميق سيشكل أخطر تهديد أمني خلال الخمسة عشر عامًا القادمة من بين مجموعة من التقنيات الأخرى التي تعمل بالذكاء الاصطناعي.

وكتب الباحثون في استنتاجهم أن البشر لديهم ميل قوي لتصديق عيونهم وآذانهم. لذلك عندما تبدو الوسائط التي نستهلكها جيدة جدًا بحيث لا نكتشف زيفها، فمن السهل الوقوع ضحية للخداع. ويستمر حجم عمليات التزييف العميق عبر الإنترنت في النمو، وإن لم يكن دائمًا في الأماكن التي قد تتوقعها.

ما الذي يصنع التزييف العميق؟

لا يشير مصطلح التزييف العميق (deepfake) فقط إلى أي فيديو أو صورة عُدلت بشكل مقنع فقط، بل إن المصطلح عبارة عن تكتل من «التعلم العميق» و «المزيف».إذ يعتمد هذا النوع المحدد من الوسائط على الشبكات العصبية لتغيير الصوت والفيديو.

لقد أصبح الوصول إلى تقنية صنع التزييف العميق أسهل على مر السنين نظرًا لظهور عدد قليل من البرامج والمواقع الإلكترونية التي تتيح للمستخدمين صنع منتجاتهم الخاصة، أحيانًا بسعر باهظ. ومع ذلك، فإن العديد من مقاطع التزييف العميقة المنتشرة في أركان مختلفة من الإنترنت ليست مقنعة إلى هذا الحد، هذا ما طرحه جورجيو باتريني الرئيس التنفيذي ومؤسس شركة Sensity، وهي شركة في أمستردام كانت تبحث في انتشار تقنية التزييف العميق منذ عام 2018. ويقول باتريني إن معظم عمليات التزييف العميق التي يصادفها مصنوعة باستخدام الأدوات القليلة مفتوحة المصدر نفسها. ويضيف: «السبب هو أنها سهلة الاستخدام والصيانة وتعرفها المجتمعات». ومعظم الوسائط التي يجدونها «في البرية»، على حد تعبيره، تستخدم نفس الأساليب القليلة لتغيير اللقطات الرقمية.

أعلن Facebook مؤخرًا عن نتائج مسابقة حيث بنى الخبراء خوارزميات جديدة لاكتشاف التزييف العميق تمكن الفائز من اكتشاف 82 % من الوسائط المعدلة بالذكاء الاصطناعي التي تعرضوا لها. يمكن إنشاء بعض التزييف العميق باستخدام طرق لا يزال من الصعب على خوارزميات الكشف الحالية اكتشافها، لكن باتريني يقول إن منشئي المحتوى المزيف العميق غير المتمرسين يميلون إلى استخدام طرق أرخص وأبسط عند إنشاء مقاطع الفيديو. ويضيف أن برنامج الكشف الذي لدينا الآن ناجح حقًا في الفرز عبر مساحات كبيرة من الوسائط الموجودة على الإنترنت.

«قد أقول ربما 99 % أو حتى أكثر من مقاطع الفيديو المزيفة العميقة التي نجدها تستند إلى تبديل الوجوه»، كما يضيف: «هناك طرق أخرى لصنع مقاطع فيديو مزيفة، وحتى تغيير الكلام وحركة الشفاه أو تغيير حركة الجسد». وأفاد أنه حتى الآن، لا تعد هذه أكثر الطرق شيوعًا بين خبراء التزييف العميق، لذا لا يزال بإمكان الخوارزميات الحالية التخلص من الكثير من المحتوى المعدَّل بواسطة الذكاء الاصطناعي.

وعلى الرغم من أنه يمكن تطبيق تقنية تبديل الوجوه حرفيًا على أي صورة أو مقطع فيديو بداخله وجه بشري، يبدو أن منشئي المحتوى المزيف العميق لديهم تقارب مع نوع واحد من الوسائط على وجه الخصوص: المواد الإباحية. إذ يصنع قدر هائل من مقاطع الفيديو المعدلة بالذكاء الاصطناعي لوضع وجه شخص ما على جسد نجم إباحي، وهي ظاهرة تستهدف النساء بشكل سيء وتعود إلى الأصول المظلمة للتزييف العميق نفسه.

مشكلة الإباحية

في عام 2019، عندما أصدرت Sensity تقريرًا عن حالة التزييف العميق تحت اسم Deeptrace، اكتشفوا 14678 مقطع فيديو قاموا بتغييره بواسطة الذكاء الاصطناعي على الإنترنت. من بين هؤلاء استخدم 96 % في محتوى إباحي.

وفي الواقع، أنشىء أول فيديوهات التزييف العميق للسبب نفسه. في عام 2017، بدأ مستخدمو موقع Reddit في نشر مقاطع فيديو مزيفة لمشاهير بُدلت وجوههم دون رضى بأجساد نجوم إباحية. حظر Reddit المستخدمين من نشر هذه التزييف العميق الصريح في عام 2018، لكن التقارير تظهر أن المواقع والتطبيقات الأخرى التي تنطوي على مشاكل أخلاقية لا تزال تظهر في مكانها.

يقول باتريني: «لم نبتعد كثيرًا عن ذلك». على الرغم من التغطية الإعلامية الواسعة النطاق للتزييف السياسي العميق، كانت التعديلات الإباحية هي الشكل السائد للمحتوى الذي تغير بواسطة الذكاء الاصطناعي للانتشار عبر الويب. وحتى الآن، تعد النساء دائمًا إلى حد كبير الأهداف، فقد وجد تقرير Sensity’s لعام 2019 أن 100 % من عمليات التزييف العميق الإباحي التي اكتشفت تضمنت مواضيع إناث.

قبل شهرين فقط، حددت Sensity إجمالي 49081 مقطع فيديو عن طريق التزييف العميق عبر الإنترنت، وهو اتجاه يظهر أن الأرقام تتضاعف كل ستة أشهر تقريبًا. يقول باتريني، إنهم لاحظوا مؤخرًا زيادة في مقاطع الفيديو التي تستهدف الأشخاص المشهورين على الإنترنت أو المؤثرين على اليوتيوب و الانستجرام و سويتش. ويأكد: «ربما رأينا قبل عام أن معظم المحتوى كان يعرض مشاهير معروفين يمكن أن يكونوا من صناعة الترفيه». لكن منشئي المحتوى المزيف العميق يستهدفون أيضًا الأفراد، غالبًا النساء اللواتي يعشن حياة نشطة على الإنترنت.

هل يمكننا وقف انتشارها؟

في حين أن الوسائط المعدلة بواسطة الذكاء الاصطناعي قد تبدو سيئة بالكامل، فإن التكنولوجيا نفسها ليست ضارة بطبيعتها. يضيف باتريني:« بالنسبة للعديد من الأشخاص، فإن تقنية التزييف العميق لها بالفعل دلالة سلبية في جوهرها» ولكن يمكن استخدام التقنية التي تقف وراءها في مجموعة من المشاريع الإبداعية مثل خدمات الترجمة أو الحيل المرئية في الأفلام والبرامج التلفزيونية.

خذ التزييف العميق للرئيس نيكسون على سبيل المثال. لم يقدم المخرجون إبداعاتهم لتضليل المشاهدين أو جعلهم يعتقدون أن كتب التاريخ أخطأت في مهمة أبولو 11. بدلاً من ذلك، استخدم الفيلم تقنية تجريبية جديدة لعرض الشكل الذي قد يبدو عليه الجدول الزمني التاريخي البديل، مع تثقيف المشاهدين حول مدى إقناع تقنية التزييف العميق وتعديل الفيديو.

لكن هذا لا يعني أن التزييف العميق لا يمكن أن يكون مضللًا، ولا أنه لم يستخدم بالفعل للقيام بأعمال شائنة إلى جانب الاستخدام الواسع النطاق للمواد الإباحية المفبركة بدون موافقة، يقول باتريني إنه شهد أيضًا ارتفاعًا في الحالات التي تستخدم فيها تقنية التزييف العميق لانتحال شخصية شخص يحاول فتح حساب مصرفي أو محفظة بيتكوين (Bitcoin)، إذ يمكن أن يكون التحقق من الفيديو مطلوبًا لهذه العمليات، ومن الممكن أن يخدع التزييف العميق الكاميرات.

  • ترجمة: عبير زبون
  • تدقيق علمي ولغوي: بهاء كاظم
  • المصادر: 1