في عام 2008، وفي لقاء أجراه المذيع (ديفيد ليترمان) مع الممثل (بيل هيدر) في برنامجه الشهير Late Show؛ شرع هيدر يحكي بحماس عن لقائه المثير بالنجم الهوليوودي (توم كروز) أثناء كواليس صناعة فيلم Tropic Thunder، واستخدم موهبته في تقليد المشاهير ليقلد ردود أفعال توم كروز وطريقة حديثه معه، مما أثار ضحك ليترمان والمشاهدين.

وبعد مرور ما يقرب من 11 عامًا، وخلال الأيام القليلة الماضية انتشر هذا المقطع من اللقاء مرة ثانية، ولكن هذه المرة مع تغيير مثير للجدل. فعندما يبدأ هيدر في تقليد توم كروز تتحول ملامحه بالكامل إليه، وكأنه أحد متغيري الشكل Shapeshifters من أحد أفلام الخيال العلمي! وعلى الرغم من تسبب هذا الأمر في المزيد من الضحك، فإنه يبرز العديد من المخاوف ويدق ناقوس الخطر.

تقنية GANs

اعتمد صانع الفيديو المعدل على تقنية بدأت في النمو في السنوات الأخيرة، وتتطور باطراد وبصورة مخيفة، هذه التقنية تدعى (الزيف العميق Deepfake)، وكما نرى في الفيديو فإن جودتها قد وصلت إلى درجة إتقان عالية.

وأغلب طرق الزيف العميق تعتمد على تقنية تسمى Generative Adversarial Networks أو GANs وهي من ابتكار (إيان جودفيلو) طالب دكتوراه كان يعمل في مشروع Google Brain ثم انتقل بعدها إلى العمل في شركة أبل. وتقوم تقنية GANs على تصميم شبكتين عصبيتين اصطناعتين، إحداهما، تسمى المدقق Discriminator، والأخرى، تسمى المولد Generator.

والشبكة العصبية الاصطناعية Artificial Neural Network عبارة مجموعة أكواد برمجية تحاكي عمل الشبكات العصبية في مخ الإنسان، بحيث تقوم باستقبال وإخراج المعلومات بطريقة مشابهة تساعد في إدراك حقيقة الأشياء.

فإذا أردت مثلًا توليد صورة لقط غير موجود في الحقيقة، فإن مهمة المولد هنا هي استقبال بيانات عشوائية Noise وإخراجها بصورة هذا القط التخيلي، أما المدقق، فمهمته هي استقبال صور حقيقية لقطط وتحليلها ثم مقارنتها بما يخرجه المولد.

فإذا وجد المدقق الصورة غير شبيهة بصور القطط الحقيقية، فإنه يعيدها إلى المولد الذي سيتعلم من الأخطاء التي وقع بها ويقوم بإعادة توليد صورة جديدة بناء على ما تعلمه من تلك الأخطاء. ويستمر هذا الأمر بين المدقق والمولد حتى يعجز الأول عن التمييز إذا ما كانت الصورة مزيفة أم لا… ساعتها يكون المولد قد نجح في توليد صورة قط تضاهي الصورة الحقيقية.

تقنية الزيف العميق Deepfake

ومن هنا يبدأ دور الزيف العميق الذي يقوم بدراسة حركات وسكنات وتعبيرات وجه شخص ما، يدرس كل خلجة من خلجاته عن طريق صور وفيديوهات سابقة مصورة لهذا الشخص، ثم يقوم بتركيب صورة طبق الأصل منه على وجه شخص آخر في فيديو آخر، وتكون النتيجة أنك ترى فيديو لا تستطيع تمييز أنه مزيف بسهولة لشخص قد تكون تعرفه جيدًا!

ومن الجدير ذكره أن تقنية Deepfake قد وصلت من الخطورة إلى حد الاكتفاء بصورة واحدة لشخص ما لكي تستطيع محاكاة ملامحه على وجه شخص آخر في أي مقطع فيديو! ربما لن تكون النتيجة بنفس الدقة، إلا أنها كافية للتضليل حتمًا.

ولقد استُخدمت هذه التقنية على مدى واسع خلال الفترة القليلة السابقة بكثافة، وكان أهمها مقاطع فيديو مزيفة لخطابات للرئيس الأمريكي السابق باراك أوباما.

فيديو للممثل والمخرج جوردن بيل يتقمص شخصية الرئيس الأمريكي السابق باراك أوباما بتقنية الزيف العميق

وأيضًا الرئيس الأمريكي الحالي دونالد ترامب.

فيديو ساخر للممثل أليك بالدويل يتقمص شخصية الرئيس الأمريكي دونالد ترامب بتقنية الزيف العميق

أضف لهذا كله وجود برامج احترافية لمحاكاة الأصوات بدقة كذلك مثل برنامج Lyrebird لتتمكن في النهاية من خلق واقع مغاير لا صحة له في فيديو مزيف.

لماذا القلق من تقنية الزيف العميق؟

أربعة محاور لهذه التقنية حتى الآن هي ما تثير القلق والمخاوف…

الفيديوهات الإباحية

تعديل الصور الإباحية لتحمل صور مشاهير ظاهرة قديمة قِدم الفوتوشوب، ويبدو أنها قد بدأت تتخذ منحى أكثر خطورة مع تطور تقنية الزيف العميق.

فلقد انتشرت مقاطع إباحية مزيفة لبعض النجمات وانتشرت على منصات مثل ريديت وفيسبوك وتويتر، ولكنهم استطاعوا حذفها قدر المستطاع. فهل هناك ما يمنع من انتشارها مرة أخرى على نفس المواقع أو مواقع أخرى لا تخضع لنفس الرقابة؟

التصريحات السياسية

في الأوقات المعتادة السالمة ربما يجد الخبراء الوقت الكافي للتأكد من صحة مقاطع الفيديو التي تحمل تصريحات هامة من مسؤولين سياسيين. ولكن في الأوقات العصيبة والحساسة والتي تكون أعصاب الأطراف المتنازعة على أشدها، ربما لن تفلح وقتها أي محاولة متعقلة للتهدئة.

ساعتها لن يكون مستبعدًا الدخول في حرب نووية أو حرب عالمية ثالثة بسبب مقطع فيديو مزيف يعبر فيه أحد أطراف النزاع عن نيته تهديد أمن وسلامة طرف آخر.

الابتزاز

لم يعد شرطًا أن يمتلك شخص ما «سيديهات» تدين شخصًا آخر أو تثبت تورطه في فضيحة معينة، بل الأمر أصبح سهلًا بحيث يمكن ابتزاز شخص بفيديو مزيف يظهر فيه، وهناك من العامة من سيصدق ما يراه في الفيديو لأنه لا يتخيل أن يبلغ إتقان التزييف لتلك الدرجة.

مَن لا يزالون يرسلون صور «صباح الخير» مكتوبة في تصميم رديء لصورة وجه طفل أشقر موضوع في قلب وردة، من يصدقون أن حبة الطماطم قد حُفر على قلبها اسم الجلالة، وغيرهم من النماذج الكثيرة حولنا؛ سيكون من الصعب إقناعهم بزيف الفيديو الذي يرونه بأعينهم.

متاح للجميع

ربما لو كانت تقنية Deepfake مقصورة الاستخدام على مراكز أبحاث وهيئات علمية أو حتى عسكرية فربما كان الأمر أقل خطورة قليلًا. ولكن نحن نتحدث هنا عن تقنية يستطيع أي شخص تعلمها بدروس مجانية على يوتيوب!

وأيضًا أدواتها متاحة للجميع ليتمكنوا من تطبيق ما تعلموه ونشر أعمالهم المزيفة في أي مكان على الويب، ولنا في صانع فيديو توم كروز المزيف خير مثال.

ما عليك فعله كي لا تنخدع

توقف عن «إسهال الشير» بالله عليك، ليس كل ما تجده أمامك تشاركه على حساباتك على منصات التواصل الاجتماعي، تبين أولًا مصدر المعلومة/الصورة/الفيديو ومدى مصداقيته، ما المصادر التي يستند إليها؟ هل جهة رسمية يعول عليها؟

فكر جيدًا في دوافع مَن وراء الفيديو، لا تقع فريسة مشاركة شيء لمجرد اتفاقه مع أهوائك الخاصة. للأسف سيقع عبء هذا الأمر عليك حتى تتوصل أي جهة إلى وسائل أكثر فعالية لبيان مصداقية الفيديو من زيفه.

فهل لديك أي نصائح أخرى تساعد الشخص العادي على عدم الوقوع في فخ الزيف العميق؟ أرجو مشاركتي به في التعليقات.