قصة خيالية:
الثاني من نوفمبر/تشرين الثاني عام 2020، عشيّة الانتخابات الأمريكية، ينتشر مقطع فيديو للرئيس الحالي دونالد ترامب على شبكة الإنترنت، يقول فيه: «لقد تحدثت مع الرئيس الروسي بوتين، وهو يدعمني بقوة، وسوف يسهل لي الفوز بفترة رئاسية جديدة. نحن نعمل معًا من فترة طويلة للسيطرة على العالم».

ترامب لم يقل هذه الكلمات، إلا أنها لها تأثيرها الهائل على الناخبين، وينتصر المرشح الديمقراطي المنافس في الانتخابات الأمريكية. برغم أن ترامب يقول أشياءً وتصريحات غريبة، إلا أنه لم يقل هذه الكلمات تحديدًا. لكنك عند مشاهدة المقطع تكاد تُقسم أنه هو من يظهر أمامك، بكل تفاصيله وحركات وجهه وكذلك حركة الشفاه وطريقة الكلام؛ في الواقع لم يكن هذا المقطع سوى مقطعٍ آخر من فيديوهات تقنية «الزيف العميق – DeepFake»، والتي تستخدم خوارزميات التعلم العميق المتطورة لإنتاج مقاطع الفيديو والصوت المزيفة، لتُحاكي أشكال شخصيات حقيقية، للدرجة التي لا يمكنك فيها معرفة الفارق.

هذه التقنية قيد الاستخدام بالفعل، وإذا تُركت دون مواجهة، يمكنها أن تقودنا إلى الشك في كل شيء نشاهده أو نسمعه عبر شبكة الإنترنت. وقد تُستخدم في كافة المجالات، من الأخبار المزيفة إلى الأحداث السياسية الكبيرة.

المواجهة بالشبكات العصبية العميقة

تترك أي تعديلات على الصور أو مقاطع الفيديو أثرًا ما، سواءً كانت تعديلات بسيطة أو معقدة مثل الزيف العميق، ويمكن اكتشاف هذا الأثر باستخدام الأدوات الصحيحة. لذا طوّر فريق بحثي من جامعة كاليفورنيا تصميمًا لشبكة عصبية عميقة يمكنها أن تحدد التلاعب بالصور على مستوى البكسلات بدقة عالية. الشبكة العصبية العميقة هي الذكاء الاصطناعي الذي يُطلق عليه الباحثون أنظمة كمبيوتر تم تدريبها للقيام بمهام محددة، وفي هذه الحالة التعرف على التلاعب في الصور، وتُنَظم هذه الشبكات في طبقات متصلة.

يملك كل جسم يظهر في الصور حدودًا خاصةً به، وعند إضافة جسم جديد للصورة تظهر حدوده بجودة مختلفة عن الأجسام الأصلية، لذا يحاول محترفو برنامج الفوتوشوب قدر الإمكان أن يجعلوا الحدود الجديدة تبدو كأنها طبيعية داخل الصورة من خلال صقلها قدر الإمكان.

في حين أن هذا قد يخدع العين المجردة، إلا أنه عند فحص بكسلات الصورة (المربعات الصغيرة للغاية والمكونة للصورة) بشكل منفصل، تظهر الاختلافات في حدود الأجسام، وبالكشف عن هذه الحدود سيتمكن الكمبيوتر من معرفة الصور المعدّلة. صنّف الباحثون الصور الأصلية وحدود الأجسام في الصور التي تم التلاعب بها في مجموعة كبيرة من الصور، حيث كان الهدف تعليم الشبكة العصبية التفريق بين حدود الأجسام الأصلية وبين الحدود المزيفة، ثم اختبروا الشبكة العصبية مع مجموعة جديدة تمامًا من الصور، لتتمكن الشبكة العصبية من التعرف والكشف عن الصور المعدّلة معظم الوقت، حتى أنها رصدت المناطق التي تم التلاعب بها في الصورة.

يعمل الباحثون على الصور الثابتة في الوقت الراهن، لكنهم يشيرون إلى أن هذه الشبكات العصبية العميقة يمكنها أن تساعد أيضًا في الكشف عن مقاطع الفيديو التي يتم معالجتها بتقنية الزيف العميق، من خلال معرفة التلاعب في إطار الصورة في الفيديو.

استخدام التقنية ضد نفسها

التعلم العميق هو شكل من أشكال الذكاء الاصطناعي حيث تتعلم الخوارزميات، بنفس طريقة تعلم الشبكات العصبية في الدماغ البشري، مهارات جديدة من خلال معالجة كميات هائلة من البيانات. تعتمد تقنية الزيف العميق على مفهوم التعلم العميق من خلال تقنية «Generative Adversarial Networks»، حيث تعمل اثنتان من الشبكات العصبية ضد بعضهما البعض.

يُطلق على الشبكة الأولى اسم المولد «generator»، ويتم تغذيتها بكم كبير من البيانات، مثل صور لوجه أحد المشاهير، وتكون مهمتها توليد نفس الوجه بشكل مصطنع، بينما تكون مهمة الشبكة الأخرى، المدقق «discriminator»، اكتشاف ما إذا كانت الصورة التي تتلقاها من المولد وهمية أم لا، ثم تعيدها مرة أخرى. عندما يرفض المدقق مقطع فيديو، يحاول المولد التعلم من الأخطاء ويعيده مرة أخرى إلى المدقق، وتستمر هذه العملية في التكرار حتى ينتج المولد صورةً من الصعب أن يميزها المدقق عن الواقع، وحينها يُولد الزيف العميق.

تعمل الشركة الهولندية «Deeptrace» على تطوير نظام لكشف الزيف العميق، والذي يقلب التقنية على نفسها، إذ تستخدم شبكة مدقق بخوارزمية قوية للبحث عن المقاطع المزيفة، في محاولة خلق مدقق متطور بما فيه الكفاية لاكتشاف العيوب الخفية التي لا تستطيع العين المجردة اكتشافها في مقاطع الزيف العميق.

يُغذّي فريق «Deeptrace» حاليًا المدقق الخاص بهم بالآلاف من مقاطع الفيديو الوهمية، وعلى العكس من الطريقة التي تعمل بها التقنية الأصلية، يتعلم المدقق كيفية اكتشاف المقاطع المزيفة من البيانات التي يتغذى عليها، كما تسعى الشركة لاستكشاف إمكانية المزج بين قنوات الصوت والفيديو لتعزيز الدقة في الكشف عن الزيف العميق.

تدمير التقنية من الداخل

يعد علم الكشف عن الزيف العميق سباقًا للتسلح، حيث تتطور وسائل المزيفين والحيل التي يستخدمونها باستمرار، لذا يجب أن تتطور وسائل الكشف دائمًا في محاولة اللحاق بوسائل التزييف، وربما يجب أن تسبقها بخطوة إلى الأمام.

فإذا كانت هناك وسيلة للتأثير على الخوارزميات التي تخلق الزيف العميق، وتجعلها تؤدي مهمتها بشكل أسوأ، فسيؤدي هذا إلى امتلاكنا وسيلة أفضل في الكشف عن المقاطع المزيفة. وقد وجد مجموعة من الباحثين، في جامعة ألباني بالولايات المتحدة، طريقةً لفعل ذلك.

يتم تجميع مكتبات صور الوجوه من خلال الخوارزميات التي تعالج الآلاف من الصور ومقاطع الفيديو على شبكة الإنترنت، كما تستخدم تعلم الآلة لكشف واستخراج المزيد من الوجوه. عندما تحتوي هذه المكتبة على كثير من صور الوجوه عالية الجودة، فإن احتمالية نجاح مقاطع الزيف العميق تزداد في خداع الجمهور.

وجد الباحثون طريقةً لإضافة بيانات عشوائية -مصممة خصيصًا- إلى الصور الرقمية أو ملفات الفيديو، والتي تكون غير مرئية للعين البشرية، ولكنها يمكن أن تخدع خوارزميات كشف الوجوه، إذ بإمكانها أن تُخفي أنماط البكسلات التي تستخدمها الخوارزميات لتحديد الوجوه في الصور، أو تخدعها وتشير إلى أن هناك وجهًا حيث لا يوجد واحد في الواقع، مثل الإشارة إلى أماكن في خلفية الصورة، أو على جزء من ملابس الشخص. ومع تلويث هذه البيانات التي تحتاجها التقنية للتدريب، ستصبح الخوارزمية أسوأ في توليد الوجوه المزيفة.

لن يبطئ هذا من تقدم التقنية فحسب، ولكنه يزيد من عيوب المقطع الناتج أكثر، مما يسهل من عملية اكتشافه. ويأمل الباحثون في أن يطبقوا هذه الطريقة على أي صور يتم رفعها على وسائل التواصل الاجتماعي، أو أي موقع آخر على شبكة الإنترنت.

من المهم أن ندرك أن تقنيات الكشف عن الزيف العميق ليست سوى جزء من الحل؛ فحتى إذا تم اكتشاف تزييف مقطع ما لأحد المشاهير أو الشخصيات السياسية، فمن المتوقع أن ينتشر عبر الشبكات الاجتماعية في غضون دقائق، قبل حتى أن تتاح الفرصة لأي شخص أن يتحقق من صحته، وربما يتسبب في تغيير مسار أحداث كبيرة مثل الانتخابات، أو تدمير سمعة أحد الأشخاص أو تدمير حياته المهنية. لذا ربما يدعو ظهور هذه التقنية إلى تغيير عقليتنا وأسلوب تفكيرنا، فربما ندرك أن الرؤية لا تؤدي بالضرورة إلى التصديق في كل الأوقات.