نصائح لفهم التزييف العميق وكيفية مكافحته

بواسطة ميا زيب
Apr 5, 2023 في مكافحة التضليل والمعلومات الخاطئة
Robot in front of a red background

ما بين طرق تبديل الوجه في تطبيق سناب شات ولقطات الرئيس الأميركي جو بايدن وهو يغني أغنية "بيبي شارك"، تشهد الوسائط المُتلاعب بها انتشارًا في السنوات الأخيرة. كما أنّ تقنية التزييف العميق "Deepfake" والأشكال الأخرى من التلاعب الاصطناعي في الوسائط والذي يتم بمساعدة الذكاء الاصطناعي آخذة في الازدياد، وينبغي على الصحفيين المكلفين بتدقيق المعلومات مواكبة التطورات.

في هذا الإطار، استضافت جلسة ضمن المؤتمر العالمي لتمكين الحقيقة الذي يقدمه المركز الدولي للصحفيين، الخبيرة التقنية في مجال الوسائط في منظمة WITNESS غير الربحية، شيرين أنلين. وتساعد المنظمة المستخدمين على استخدام الفيديوهات والتكنولوجيا دعمًا لحقوق الإنسان، وتدير مشروع "استعد.. لا داعي للذعر" الذي يركز على مكافحة الاستخدام الخبيث للتزييف العميق والوسائط الاصطناعية، من بين مبادرات أخرى.

 

 

أثناء الجلسة، قدمت أنلين مجموعة من النصائح للصحفيين حول كيفية فهم التهديدات التي تشكلها الوسائط المتلاعب بها بشكل أفضل، وما يمكن فعله لمكافحة هذه التهديدات، ونقدم لكم بعض النقاط الرئيسية من هذه الجلسة:

التكنولوجيا وتهديداتها

تسمح التقنيات سريعة التطور للمستخدمين بتعديل الأشياء وملامح الوجه، وتحريك الصور، ونقل الحركة، واستنساخ الأصوات، وغيرها من الأمور. وكجزء من هذا النظام، يُعد التزييف العميق نوعًا من التلاعب السمعي-البصري الذي يسمح للمستخدمين بإنشاء محاكاة واقعية لوجوه الأشخاص وأصواتهم وأفعالهم.

وتُستخدم الوسائط التي يتم إنتاجها بواسطة التزييف العميق اليوم بطرق تنذر بالخطر، فعلى سبيل المثال، شجعت على العنف القائم على النوع الاجتماعي من خلال النشر غير الرضائي للصور والفيديوهات الجنسية باستخدام شبيه الشخص. كما انتشرت أيضًا لقطات الفيديو المزورة للشخصيات العامة فضلًا عن المقاطع الصوتية الملفقة. كما يستفيد التزييف العميق أيضًا من مفهوم "Liar's Dividend"، الذي يضع عبئًا إضافيًا على الصحفيين ومدققي المعلومات لإثبات صحة الوسائط، أو عدم وجودها.

وأشارت أنلين إلى أنّ الوسائط التي تُنتج عبر التزييف العميق تُعد أكثر الوسائط المتلاعب بها مناقشة على نطاق واسع، موضحة أنّ "التزييف العميق نفسه يُعد جزءًًا من مشهد أكبر للوسائط المولدة الذي نواصل رؤيته أكثر وأكثر في الأخبار".

وعلى الرغم من أنّ وسائط التزييف العميق أصبحت أكثر انتشارًا إلا أنها ليست شائعة بالدرجة التي ربما تتم قيادة الأشخاص إلى الاعتقاد فيها، وتتطلب إعداد الوسائط بواسطة التزييف العميق قدرًا كبيرًا من المهارة والمعرفة لتنفيذها بشكل صحيح، مما يجعل من الصعب على الشخص العادي تصميمها، ونتيجة لذلك فالكثير من الوسائط المتلاعب بها لا ترتقي إلى مستوى التزييف العميق الحقيقي.

فعلى سبيل المثال، تُعد الطرق التي تُغير شعر الشخص أو لونه عينيه أو صوته، أقل تلاعبًا وتسمى "التزييف الضحل shallow fakes"، وقد يصادفه الناس بشكل يومي وخاصة على منصات التواصل الاجتماعي. كما أن المقاطع الصوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي لاقتباسات مختلقة من شخصيات عامة تُعد مثالًا على التزييف الضحل.

وتعليقًا على التزييف العميق، أوضحت أنلين: "لم يتم استخدامه حقًا على نطاق واسع، فأغلب ما لا نزال نراه الآن في التضليل الإعلامي والمعلومات المضللة يُعد تزييفًا ضحلًا، ويكون في الغالب عبارة عن مواد معاد تدويرها حسب السياق".

الاكتشاف

لكل تقنية حديثة نقطة ضعف، والتزييف العميق ليس استثناءً لهذه القاعدة، إذ بإمكان المستخدمين اكتشاف الأخطاء في المظهر، فعلى سبيل المثال، قد يكون هناك تشويش في خلفية الصور، أو قد لا يتحدث الإنسان الذي يتم تكوينه بواسطة الذكاء الاصطناعي في مقطع فيديو بدون الكلمات التي تتطابق بشكل صحيح مع حركات الفم.

ومع ذلك، تتكيف التكنولوجيا سريعًا، فأوضحت أنلين: "خرجت الأبحاث قائلة إنّ العيون في الشخصيات الموجودة في مقاطع التزييف العميق لا تطرف، ومن ثم سيكون من السهل للغاية اكتشاف التزييف العميق، ولكن بعد ذلك بأسبوعين بدأت الشخصيات في مقاطع التزييف العميق تطرف بعيونها".

وفي لعبة القط والفأر الافتراضية، حيث أصبحت الوسائط المتلاعب بها ذات جودة أعلى وأسهل في إمكانية الوصول إليها، تُبذل جهود لاكتشاف التلاعب ومواكبة الأمر.

وقالت أنلين: "كانت عيون الجيل الأول من الوجوه المزيفة دائمًا في المنتصف، ومن ثم كان ذلك ما تبحث آليات اكتشاف التزييف عنه، ولكن الآن لدينا العديد من الأشكال المختلفة للأشخاص التي يتم إنشاؤها باستخدام الإضاءة المختلفة والتعبيرات المختلفة، ولم تعد العيون في المنتصف".

كما أشارت أنلين إلى وجود فجوات بشأن من لديه إمكانية الوصول إلى أدوات الاكتشاف الجيدة، ففي حين هناك مواقع إلكترونية في متناول الجميع، إلا أنّ هذه الأدوات تميل لأن تكون أقل فعالية، وهناك أقلية مختارة فقط لديها إمكانية الوصول إلى أدوات الاكتشاف الدقيقة المتاحة لخبراء التزييف العميق.

الحلول

ومن بين طرق اكتشاف التزييف العميق، بإمكان الصحفيين مراجعة محتوى مقاطع الفيديو لاكتشاف الأخطاء، وتطبيق تقنيات التحقق الموجودة، واستخدام الأساليب القائمة على الذكاء الاصطناعي لاكتشاف تقنية التزييف العميق عند توفرها.

كما أنّ هناك ضرورة لزيادة أدوات محو الأمية الإعلامية، وإجراء المزيد من التدريبات على الوسائط المتلاعب بها للصحفيين.

وفي النهاية، قالت أنلين: "نحن بحاجة إلى الاستعداد لهذه التقنية ورؤيتها، ولفهم المشهد لنتمكن من تشكيل التقنية حقًا، وتشكيل كيف يُفترض أن يتم بناؤها، وكيف يُفترض أن يتم تنظيمها، وأن نكون جزءًا منها وليس فقط متأثرين بها".


يدير المركز الدولي للصحفيين برنامج مكافحة المعلومات المضللة بتمويل رئيسي من مؤسسة سكريبس هوارد، وهي مؤسسة تابعة لصندوق سكريبس هوارد، الذي يدعم الجهود الخيرية لشركة إي. دابليو. سكريبس. ومن المقرر أن يمكّن المشروع الممتد لثلاث سنوات، الصحفيين وطلاب الصحافة من محاربة انتشار المعلومات المضللة في وسائل الإعلام الإخبارية.

الصورة حاصلة على رخصة الاستخدام على أنسبلاش بواسطة ريشي.