استخدام الذكاء الاصطناعي في الكشف عن التزييف العميق في التحقيقات الاستقصائية

5 mars 2025 dans مكافحة التضليل والمعلومات الخاطئة
صورة

يسهم التزييف العميق في تفاقم وباء اضطراب المعلومات، ويمثل أحد أخطر التهديدات الناجمة عن استخدام الذكاء الاصطناعي في الجرائم السيبرانية. فهو يُستخدم لاستهداف الأفراد والمجموعات وحتى الحكومات، والتأثير في الرأي العام، لا سيما في سياق الانتخابات.

في هذا المقال، نقدم أدوات كشف التضليل المنتج باستخدام تقنيات التزييف العميق، والتحديات أو المحاذير الأخلاقية التي يجب أخذها في الاعتبار عند استخدام هذه الأدوات، بالإضافة إلى دراسات حالة من تحقيقات كشفت تضليلاً قائماً على التزييف العميق، ختاماً بنصائح للصحفيين المهتمين بالتوسع في هذا المجال.

تقنية التزييف العميق وخطورتها

يعرف التزييف العميق، وفقاً لدراسة "حالة التزييف العميق:المشهد، التهديدات، والتأثيرات"، بأنه تقليد رقمي فائق الواقعية أو تزييف للصور أو الفيديو أو الصوت، يتم إنشاؤه عبر الشبكات العصبية باستخدام نماذج تعلم آلي تُعرف باسم شبكات التنازع التوليدية (GAN).

وينبغي أن يكون كشف التزييف العميق أولوية لدى مدققي المعلومات والصحفيين الاستقصائيين، نظراً لتأثيره واسع النطاق في نشر التضليل في مختلف المجالات.

ونتيجة لتزايد استخدام أدوات التزييف العميق، انتشرت العديد من الحالات التي يظهر فيها سياسيون يقدمون تصريحات تتناقض مع مواقفهم الحقيقية؛ مثل الفيديو الذي نشر على موقع إخباري أوكراني مخترق، والذي أظهر الرئيس الأوكراني فولوديمير زيلينسكي وهو يطلب من جنوده إلقاء أسلحتهم. 

تعتقد ميرال العشري، رئيسة برنامج الإعلام والاتصال بجامعة إيست لندن في القاهرة، أن من الأهداف السياسية لاستخدام تقنيات التزييف العميق تشويه سمعة شخصيات أو كيانات محددة عبر إنشاء فيديوهات مزيفة لا تمت لتصرفاتهم الحقيقية بصلة. كما تُستخدم هذه التقنيات للتلاعب بالرأي العام، وتحريضه ضد القادة أو الشخصيات السياسية، خاصةً خلال فترات الانتخابات، وهو ما يظهر بشكل متزايد في أوروبا، سواء من خلال استهداف الأنظمة الحاكمة أو تشويه صورة المعارضين.
كما توضح العشري أن تقنيات التزييف العميق تُستخدم لتزييف الوقائع وخلق محتوى مضلل في أوقات الانقسامات، والنزاعات المسلحة، والعدوان؛ بهدف صياغة روايات مختلفة تعكس وجهات نظر الأطراف المتنازعة، ما يسهم في نشر الفوضى وتعزيز الانقسامات.

أما على الصعيد الاقتصادي، فتشير إلى أن هذه التقنيات تُوظَّف في إنتاج محتوى مضلل بشأن الأسواق المالية؛ بغرض مهاجمة سياسات مؤسسات مالية معينة، والتلاعب بأسعار العملات؛ مثل الدولار، أو بأسعار النفط والغاز، ما قد يضر باقتصاد الدول. كما يُستخدم التزييف العميق في ابتزاز رجال الأعمال والأفراد ذوي رؤوس الأموال، عبر نشر محتوى مفبرك.

وفي هذا الصدد، تحقق موقع صحيفة "نيويورك تايمز" من حالة احتيال مالي واسع النطاق باستخدام التزييف العميق في أغسطس/آب 2024. تم نشر فيديو يبدو وكأنه لقطات حقيقية لإيلون ماسك، ينصح فيه بشراء أو الاستثمار في العملات المشفرة "كريبتو". انتشر الفيديو بشكل واسع على الإنترنت، مما دفع العديد من الأشخاص إلى تحويل مبالغ مالية كبيرة للمحتال. أبرز هذه الحالات كانت تحويل أحد الضحايا مبلغ 690,000 دولار لاعتقاده بأنه يستثمر في إطار إعلان ماسك.

وفي السياق العربي، تؤكد العشري أن التزييف العميق يُستغل لنشر خطاب الكراهية ضد أقليات أو فئات معينة، لا سيما في القضايا المتعلقة بالأديان والطوائف، ما يهدد الأمن القومي ويفاقم الاضطرابات السياسية. كما أشارت إلى استخدامه الواضح خلال الحرب على غزة لترويج روايات مضللة حول حقيقة الأحداث الجارية.

كيف تتم صناعة التزييف العميق؟

تُنشأ مقاطع الفيديو المزيفة العميقة بإحدى طريقتين: استخدام مصدر فيديو أصلي للشخص المستهدف، بحيث يتم تعديل الفيديو ليظهر الشخص وهو يقول أو يفعل أشياءً لم يقم بها قط، أو يمكن استبدال وجه الشخص بوجه آخر في فيديو لشخص مختلف، وهو ما يُعرف بتقنية تبديل الوجوه (Face Swap).

ومن أبرز أدوات صناعة التزييف العميق:

تتيح هذه الأداة إمكانية إنشاء مقاطع فيديو مزيفة عميقة أو تبديل الوجوه مجاناً، إلى جانب ميزات أخرى؛ مثل مولد الصور الشخصية بالذكاء الاصطناعي، وأداة تحويل النصوص إلى أصوات باستخدام الذكاء الاصطناعي، ما يعزز إمكانيات التلاعب بالمحتوى الرقمي بطرق متعددة.

تعتمد هذه الأداة على الذكاء الاصطناعي لتبديل الوجوه في الفيديوهات بسرعة وسهولة.

كيف يمكن الاستدلال على احتمال احتواء الفيديو على تزييف عميق؟

تتمثل البداية في منهجية كشف الفيديوهات المُنتجة باستخدام تقنية التزييف العميق، وبدء خطوات التحقق منها يدوياً، عبر التعرف على العلامات والسمات التي قد تشير إلى أن المحتوى البصري أو الصوتي ليس أصيلاً بل تم توليده بواسطة التزييف العميق. من أبرز هذه العلامات العيوب التقنية، أو عدم منطقية الرسائل والمحتوى عند مقارنتها بالسياق الحالي والصورة العامة. ويمكن التحقق من ذلك من خلال الخطوات التالية:

التحقق من المصادر 

يسهم فحص موثوقية ومصداقية المصادر التي نشرت الفيديو أو مروجين له على المواقع ووسائل التواصل الاجتماعي في استبعاد أو تعزيز أصالة المحتوى. فمن المهم التحقق من سمعة المصدر، وهل كان قد شارك في حملات تضليل سابقة، وكذلك معرفة ما إذا كان المصدر منافساً أو معادياً للشخص أو الجهة الظاهرة في الفيديو.

رصد العيوب التقنية

تتمثل العيوب السمعية والبصرية التي قد تشير إلى التلاعب في الفيديو في:

1- حركات الشفاه غير الطبيعية

2- عدم التزامن بين الصوت وحركات الشفاه

3- الألوان أو الانعكاسات أو الظلال غير الطبيعية

4- حركة العين غير المعتادة أو ثباتها.

5- حركة الوجه أو الجسم غير المتناسقة.

6- وجود وميض غير طبيعي أو انعدام الوميض.

7- ظهور المقتنيات؛ مثل: المجوهرات، الأزرار وغيرها كأنها متزحزحة عن مواقعها أو مشوشة.

8-  تمويه ملامح الوجه لإخفاء عيوب تزييف الفيديو.

تقييم المحتوى

يسهم فحص محتوى الفيديو ورسائله في الكشف عن الأفعال أو التصريحات غير المنطقية أو المخالفة للتوقعات الطبيعية للفرد الظاهر في الفيديو؛ مثل الصور والمقاطع التي انتشرت للبابا فرانسيس، وهو يرتدي سترة شبابية ضمن أحدث صيحات الموضة حينها، وهو ما لا يتناسب مع مظهره أو شخصيته المعتادة.

في تحقيق منشور على منصة "نيويورك تايمز" عام 2019، تم الكشف عن فيديو مُعدّل لرئيسة مجلس النواب الأميركي نانسي بيلوسي يظهر وكأنها في حالة سكر وتتعثر في كلماتها. وقد حصد الفيديو انتشاراً واسعاً، حيث شاهده أكثر من 2.5 مليون شخص على فيسبوك خلال أيام قليلة، وتمت مشاركته من قبل قادة سياسيين بارزين.

أبرز أدوات كشف التزييف العميق باستخدام الذكاء الاصطناعي 
يتم تدريب خوارزميات التصنيف المستخدمة في الكشف عن التزييف العميق، على مجموعات كبيرة من العينات الصوتية والبصرية الحقيقية والمزيفة للكشف عن الآثار. حيث تُعرف الآثار على أنها  العناصر الفريدة (البصمات) في المحتوى الرقمي الناتج عن استخدام أدوات التزييف العميق.

ومع ذلك، لا تزال التكنولوجيا المستخدمة في الكشف عن المحتوى المزيف غير قادرة على توفير تأكيد كافٍ، ما يخلق الحاجة إلى خلق منهج تحقق هجين يتنوع بين طرق وأدوات التحقق اليدوي باستخدام الملاحظة، والتحقق اليدوي وتحليل السياق، ومراقبة الأنماط، وبين استخدام أدوات الذكاء الاصطناعي التي تكشف عن تقنيات وآثار التزييف العميق في المحتوى للوصول إلى نتائج يعول عليها.

ومن أبرز الأدوات التي يمكن استخدامها للكشف عن التزييف العميق باستخدام الذكاء الاصطناعي:
 

تعتمد هذه الأداة على نموذج متطور مصمم لاكتشاف التزييف في الصوت والصورة والفيديو في الوقت الفعلي. يعمل عبر مختلف أنواع الوسائط من خلال تحليل الفيديو أو التسجيل الصوتي إطاراً بإطار، ما يتيح الكشف عن أي محتوى تم إنشاؤه أو تعديله باستخدام تقنيات التزييف العميق، وإبلاغ الباحث أو المستخدم بذلك.

يستخدم هذا التطبيق تقنية الذكاء الاصطناعي وتعلم الآلة؛ للكشف عن التلاعب أو العناصر الاصطناعية داخل الوسائط البصرية.

تعتمد هذه الأداة على خوارزميات الذكاء الاصطناعي؛ لتحليل المحتوى البصري، وتحديد ما إذا كانت الصورة أو الفيديو تحتوي على وجه تم إنشاؤه أو تعديله بواسطة الذكاء الاصطناعي أو إذا كانت صورة أصلية.

يقوم التطبيق بالكشف عن الفيديوهات المنتجة باستخدام التزييف العميق، عبر تحليل مقاطع الفيديوهات المشتبه بها، والكشف عما قد يتخللها من عناصر تلاعب. 

تحديات الاعتماد على هذه الأدوات:

1- تحديات انخفاض الجودة

تفشل النماذج الحالية في التعرف بدقة على التزييفات العميقة عندما تكون جودة الفيديو أو الصوت منخفضة. يشمل ذلك ظروف الإضاءة الضعيفة، وضبابية تعبيرات الوجه، وانخفاض دقة المحتوى، ما يقلل من فعالية الخوارزميات المستخدمة في التحليل والكشف.

2- محدودية نماذج تدريب الأدوات 

تعتمد نماذج كشف التزييف العميق على البيانات التي تم تدريبها عليها، ما يجعلها أقل كفاءة في اكتشاف التزييفات المنتجة بأساليب جديدة أو غير مشمولة في بيانات التدريب. بالإضافة إلى ذلك، يمكن أن تؤثر جودة بيانات التدريب، مثل عدم اكتمالها أو احتوائها على ضوضاء، في دقة النموذج وكفاءته في الكشف عن التزييف.

3- القدرة على التكيف مع تقنيات التلاعب الجديدة

مع التطور المستمر في تكنولوجيا التزييف العميق، تظهر باستمرار أساليب جديدة أكثر تطوراً، وغالباً ما تكون أدوات الكشف بالذكاء الاصطناعي غير مهيأة لاكتشافها. هذا التطور المتسارع يؤدي إلى فجوة بين تقنيات التزييف ووسائل الكشف عنها، ما يزيد من احتمالية فشل الأنظمة الحالية في التعرف على التزييفات المستحدثة.

4- التحديات المالية

أغلب أدوات الكشف عن التزييف العميق هي مدفوعة، لذا تشكل تحدياً للصحفيين المستقلين، والمؤسسات والمبادرات ذات الموارد المحلية المحدودة.

الصورة الرئيسية منتجة بواسطة ChatGPT4.