تقنية التزييف العميق (deep fake): كيف تعمل؟ وما هي مخاطرها؟

انتشر في الفترة الأخيرة كثير من مقاطع الفيديو المفبركة التي تخص أشخاصاً مشاهير أو سياسيين، وكانت هذه المقاطع تبدو حقيقية وعصيَّة على التكذيب لدرجة أنَّها تسببت بفضائح أخلاقية لهم، لكن بعد التدقيق والتمحيص تم التوصل إلى زيف هذه المشاهد، واكتشاف الطريقة التي صُمِمَت بها، بكل هذه الاحترافية والإتقان، فكانت تقنية التزييف العميق الـ "ديب فيك" (Deep fake) هي الإجابة عن السؤال، والتي خصصنا هذا المقال للحديث عنها حديثاً موسعاً، وتعريفها، والتوعية عن مخاطرها، وكيفية عملها.



ما هي تقنية الـ "ديب فيك" (deep fake) التزييف العميق؟

يمكن تعريف تقنية التزييف العميق بأنَّها تقنية قادرة على إنشاء فيديوهات مزيفة، بطريقة أبعد بكثير من التعديل على محتوى موجود؛ بل هي قادرة على إنشاء محتوى جديد يصعب تمييزه عن الحقيقية.

وتعتمد تقنية التزييف العميق الـ "ديب فيك" (deep fake) على البرامج الحاسوبية وتقنيات الذكاء الاصطناعي، وتكون مخرجاتها على شكل مقطع فيديو جديد لشخصية ما يبدو حقيقياً جداً، ويُعتمَد في إنشائه على دمج صور ومقاطع فيديو للشخص المقصود.

تُستغَلُّ تقنية التزييف العميق الـ "ديب فيك" (deep fake) عادةً ضمن المجالات الأكاديمية، ولكنَّها في أيامنا هذه لم تعد محصورة في هذه المجالات فقط؛ بل أصبحت تُستخدم في الاستغلال السياسي ومجالات أخرى مشبوهة سنقوم بذكرها لاحقاً.

تاريخ تقنية التزييف العميق الـ "ديب فيك" (deep fake):

يعود تاريخ تقنية التزييف العميق الـ "ديب فيك" (deep fake) إلى عام 1997 حين ظهرت معالمها أول مرة؛ وذلك عن طريق مقطع فيديو أُنشئ على برنامج "فيديو ريرايت" (Video Rewrite)؛ إذ حُوِّر محتوى مقطع فيديو لشخص يتكلم في موضوع محدد، وغُيِّر محتوى الموضوع الذي يتم الحديث فيه إلى موضوع آخر كلياً يحتوي على كلمات غير موجودة في الفيديو الأصلي، ولم يتلفَّظ المتحدث بها أساساً.

أما مصطلح "التزييف العميق" فيعود إلى اسم مستخدم لموقع "ريديت" (Reddit) قام مع زملائه في نهاية عام 2017 بمشاركة فيديوهات إباحية مزيفة للمشاهير، لاقت رواجاً كبيراً بين أوساط المستخدمين، وحققت بذلك نسباً عالية من المشاهدات.

ونتيجةً لذلك حَظَرَ الموقع حساب المستخدم في عام 2018، وتحديداً في شهر شباط/ فبراير، وحذَت حذوه بعض المواقع في حظر كل مستخدم يروج لهذه التقنية المؤذية وينشر محتوى غير حقيقي، إلا أنَّ القسم الأكبر من المواقع استمر في نشر الفيديوهات المفبركة بهذه الطريقة، ولا ندري إن كانت تعلم أو لا تعلم بزيفها.

وفي تصريح لصحيفة "واشنطن بوست" عن تقنية التزييف العميق الـ "ديب فيك" (deep fake)، قدمته الممثلة "سكارليت جوهانسون"، أعربت فيه عن قلقها من انتشار هذه الظاهرة وتهديدها لسمعة المشاهير في الفن والسياسة، وشبَّهت الإنترنت بالثقب المظلم الكبير الذي يأكل نفسه، في كناية عن خطره وغموضه.

شاهد بالفيديو: سلبيات مواقع التواصل الاجتماعي

كيف تعمل تقنية التزييف العميق الـ "ديب فيك" (deep fake

تعمل تقنية التزييف العميق الـ "ديب فيك" (deep fake) على استبدال وجه شخصية معروفة يراد إلحاق الضرر بها بوجه آخر يمارس فعلاً أو يتحدث بأمر ما لم يقله، وأغلب مقاطع الفيديو التي تستخدم تقنية التزييف العميق اعتمدت على استبدال وجه شخصية معروفة بوجه ممثل أو ممثلة في الأفلام الإباحية، من أجل النيل من سمعة هذا الشخص، وإلصاق التهم به.

ولقد أثار المقطع المُعَدُّ بتقنية التزييف العميق للسياسية الأمريكية ورئيسة مجلس النواب "نانسي بيلوسي" وهي تلقي خطاباً تترنح فيه تحت تأثير الكحول جدلاً واسعاً، وأحدث تأثيراً كبيراً في الرأي العام والانتخابات.

ولا يقل المقطع المفبرك لـ "مارك زوكربيرغ" مالك شركة "فيسبوك" ضرراً عن سابقه؛ إذ طُبِّقت تقنية التزييف العميق لإنتاج فيديو له يتباهى فيه بالسيطرة على بيانات مسروقة من بليارات المستخدمين.

وفي صدد إعداد مقاطع فيديو بتقنية التزييف العميق، يتطلب الأمر حاسباً يحمل مزايا متطورة أكثر من الحاسب العادي، يعمل بمعالج رسومي قوي من أجل تقليل الوقت اللازم لمعالجة الصور والفيديوهات.

تعمل تقنية التزييف العميق الـ "ديب فيك" (deep fake) على مستوى عالٍ من البرمجة الإلكترونية، ويكفي فقط إدخال صورة الشخص الضحية المراد تزييف مقطع له، أو مجموعة صور أو مقطع فيديو له يبرز ملامح وجهه وردود أفعاله وصوته، لتقوم تقنيات الذكاء الاصطناعي بإنشاء محتوى مزيف خارق في دقته، يصعب تمييز كذبه حتى من قِبل الملمين بالتقنيات والإلكترونيات.

توجد عدة أدوات تعمل على إنتاج التزييف العميق، وتصدر العديد من الشركات تطبيقات تدعم هذه التقنية، ولعلَّ أشهرها هو تطبيق (Zao) الصيني الذي انتشر انتشاراً كبيراً بين أوساط المستخدمين.

هل يمكن اكتشاف استخدام تقنية التزييف العميق الـ "ديب فيك" (deep fake

يمكن اكتشاف استخدام تقنية التزييف العميق الـ "ديب فيك" (deep fake) على الرغم من تطور التطبيقات والبرامج التي تقوم بإعدادها، والتي تستخدم تقنيات الذكاء الاصطناعي التي تفوق في قدرتها القدرات البشرية في كثير من الأحيان، إلا أنَّ الأمر لا يخلو في كثير من الأحيان من بعض الثغرات التي تساعد على اكتشاف زيف المحتوى المُعَدِّ بتقنية التزييف العميق.

ويمكن اكتشاف المقاطع المُعَدَّة بالتزييف العميق رديء الجودة بسهولة بالغة، عبر التركيز على تزامن حركة الشفاه مع الكلام المنطوق، أو الانتباه إلى ألوان الجلد المتعددة وغير المتناسقة، أو عن طريق ملاحظة وجود وميض حول حواف الوجه، أو اختلاف شكل ولون الأسنان في النسخة المفبركة عن حقيقتها في الضحية، أو المجوهرات الخاصة بها، أو ملاحظة الإضاءة الغريبة والانعكاسات على قزحية العين، إلا أنَّ هذه الثغرات قد تُغطَّى ويُتلافى الوقوع بها في حال كان المصمم محتالاً وبارعاً.

فمثلاً، اكتُشِفَ في العام 2018 أنَّ الوجوه لا تومض بشكل طبيعي في التزييف العميق، وعُدَّت هذه النقطة معياراً لكشف التزييف من قِبل باحثين أمريكيين، إلا أنَّ هذه الثغرة قد تمت السيطرة عليها في أعمال لاحقة، وتم توضيح وميض العين في الوجوه لتبدو طبيعية.

تستمر جهود الباحثين مدعومة من قِبل الحكومات والشركات التقنية والجامعات في استقصاء ثغرات تُكتَشَف من خلالها المقاطع المُعَدَّة بتقنية التزييف العميق الـ "ديب فيك" (deep fake)، لما لها من أخطار وتهديدات على الضحايا والمجتمعات عموماً.

deep fake

ما هي مخاطر تقنية التزييف العميق الـ "ديب فيك" (deep fake

مخاطر تقنية التزييف العميق الـ "ديب فيك" (deep fake) تستدعي بذل جهود عظيمة في صدد كشف مقاطع الفيديو المُعَدَّة بها، ويمكن تصنيف أنواع مخاطر التزييف العميق الـ "ديب فيك" (deep fake) في التبويبات الآتية:

مخاطر سياسية:

انتشر في الفترة الأخيرة مقطع للرئيس الأمريكي السابق "باراك أوباما" أثار جدلاً واضحاً وكبيراً بين أوساط الناس، وأحدث تضليلاً في الرأي العام، وهذا المثال هو عينة بسيطة عن كم الكوارث التي يستطيع التزييف العميق صنعها في الأوساط السياسية، والتي تُعَدُّ الأصابع الخفية في تحريك أي شيء في العالم.

ويوضح "تيم هوانغ" رئيس مبادرة هارفارد للتحكم الأخلاقي بالذكاء الصناعي، أنَّه في الماضي كان تصوير رئيس الدولة يقول شيئاً لم يقله في الحقيقة أمراً في غاية الصعوبة والتعقيد، ويحتاج إلى كادر ضخم من المتخصصين التقنيين المحترفين في هذا المجال، أما اليوم فباستخدام تقنيات الذكاء الاصطناعي، يمكن لأي شخص فبركة الأمر بكل يسر، وبأحسن جودة؛ وهذا سيجعلنا أمام عاصفة كبيرة من التضليل.

وإنَّ استخدام تقنية التزييف العميق الـ "ديب فيك" (deep fake) في التلاعب السياسي، سيجعل السيناريوهات المحتملة مخيفة جداً، مع أنَّه لا شك في ظهور الحقيقة في نهاية المطاف، إلا أنَّ حالة الهيجان التي تتركها الأخبار الكاذبة لا يمكن إخمادها بين ليلة وضحاها، وهذا ما أكدت عليه "أيلين داناهاو" أستاذة في "جامعة ستانفورد"، كما أوضحت بأنَّ السردية السياسية مثل المقاطع المزيفة، يستحيل إعادتها إلى مصدرها الأصلي حين تتحول من اتجاه نحو آخر.

وحتى لو ظهر فيديو حقيقي ينفي صحة الفيديو المفبرك، سيجد الناس أنفسهم في حالة من الفوضى والكذب، وسيصعب عليهم تصديق أي شيء، ثم يختارون الاتجاه الذي يتلاءم مع ميولهم الشخصية.

إقرأ أيضاً: ما هو الذكاء الاصطناعي (AI)؟ وماهي تطبيقاته ومخاطره؟

مخاطر أخلاقية:

أشارت واحدة من الدراسات إلى أنَّ 96% من المحتوى الذي تُستَخدَم فيه تقنية التزييف العميق هو محتوى إباحي؛ وهذا يجعل مخاطر تقنية التزييف العميق الـ "ديب فيك" (deep fake) تؤثر تأثيراً مباشراً في سمعة الأفراد، وخاصة المشاهير منهم، الذين يتبوؤون مراتب حساسة وقيادية بين الناس؛ كالسياسيين، ورجال الأعمال، ومشاهير الفن والرياضة وغيرهم؛ وهذا يجعل أعراض الناس وسمعتهم بين أيادي المبرمجين غير الأخلاقيين.

وبحلول السنوات القادمة، ستصبح تطبيقات التزييف العميق في متناول يد الجميع؛ وهذا يجعل الأفراد العاديين أيضاً عرضة لخطر فبركة الأقوال والأفعال، وتصبح هذه التطبيقات والبرامج أدوات لابتزاز الناس، وتشويه سمعتهم، وحتى للحصول على المال مقابل محو الفيديوهات المفبركة عن الإنترنت ووسائل التواصل، أو عدم نشرها.

ويؤكد على هذا الأمر الدراسة التي قام بها "معهد ماساتشوستس للتكنولوجيا"، التي تثبت انتشار الأكاذيب انتشاراً أوسع وأكبر من الحقائق في جميع أنواع المعلومات على مواقع الإنترنت ومنصات التواصل الاجتماعي بين عامي 2006 – 2017.

إقرأ أيضاً: كيف تحمي هاتفك من الاختراق؟

في الختام:

إنَّ انتشار تقنية التزييف العميق الـ "ديب فيك" (deep fake) على مواقع الإنترنت ومنصات التواصل الاجتماعي يضع الناس في موضع الشك من كل شيء يرونه أمامهم، ففي وقت سابق ليس بالبعيد كان الإنسان يستطيع تكذيب أي شيء إلا ما تراه عيناه، أما الآن وباستخدام هذه التقنية، أصبحت العين والأذن قابلتين لأن تنطلي عليهما الخدع المصممة من قِبل أدوات الذكاء الاصطناعي، ولا يسعنا في ختام هذا المقال إلا أن نتذكر قول رائد الأعمال الشهير والمدير التنفيذي لشركة "تسلا موتورز" "إيلون ماسك": "الذكاء الاصطناعي أخطر من الأسلحة النووية".

المصدر.




مقالات مرتبطة