أداة مدعومة بتقنية الذكاء الاصطناعي تساعد الصحفيين على تحديد ومكافحة التزييف العميق

بواسطة Phineas Hogan
Nov 27, 2024 في مكافحة التضليل والمعلومات الخاطئة
صورة

لقد أدى تخصيص المحتوى على وسائل التواصل الاجتماعي إلى ازدياد قوة وانتشار المعلومات المُضللة على نطاق واسع.

ومع الانتشار الواسع لتطبيق تيك توك وصفحته "من أجلك" التي تُقدم تدفقًا كبيرًا من المحتوى المُخصص بناءً على اهتمامات جمهور المستخدمين المأخوذة من سجلات التصفح، والتفاعلات والموقع الجغرافي؛ فقد تبنّت منصات عديدة مثل إنستجرام، ويوتيوب، وإكس هذا النموذج وأنشأت إصداراتها الخاصة. وبدأ موقع إنستجرام في عرض منشورات مُقترحة على صفحته الرئيسية في عام 2018، ثم أطلق  خاصية Reels للفيديوهات القصيرة المُشابهة لتيك توك وذلك في عام 2020، كما قدّمت منصة يوتيوب ميزة الفيديوهات القصيرة Shorts في العام نفسه، بينما أضافت منصة X علامة التبويب "من أجلك" في أوائل عام 2024.

من جانبها، قالت سيجين بايك، مديرة المنتجات في TrueMedia.org، إنّ هذه التطورات غيّرت طريقة استهلاك المستخدمين للمحتوى على وسائل التواصل الاجتماعي، مضيفةً: "لا يهم من تتابع، فستحصل على المحتوى وفقًا لما يراه النظام المُتبع في الوكالة الإعلامية".

في هذه البيئة الرقمية، تتواجد المعلومات الزائفة جنبًا إلى جنب مع المحتوى الحقيقي، مما يُوفر غطاءً للتزييف العميق - وهناك الكثير من الصور أو مقاطع الفيديو الواقعية التي تم التلاعب بها بشكل مُصطنع لإظهار شخص ما يفعل أو يقول شيئًا لم يحدث. وفي الفترة التي سبقت الانتخابات الأميركية لعام 2024، ظهرت مقاطع فيديو مُزيفة تصوّر خُطبا لم تُلق أبدًا، وصور لحراس دونالد ترامب الشخصيين يبتسمون بعد تعرضه لإطلاق النار في يوليو/تموز، ولقطات شاشة لمقالات إخبارية تروّج لمعلومات مُضللة عن الانتخابات إلى جانب الأخبار الحقيقية، مما أدى إلى طمس الخطوط الفاصلة بين ما هو حقيقي وما هو غير ذلك.

ومع تطور تقنيات الذكاء الاصطناعي التوليدي، وسهولة استخدامها وإمكانية الوصول إليها، سيصبح من الصعب تقييم مصداقية منشورات وسائل التواصل الاجتماعي. وفي هذا الصدد، تهدف الأداة المدعومة بتقنية الذكاء الاصطناعي والتي طورتها TrueMedia في تحديد علامات التلاعب في الصور ومقاطع الفيديو المنشورة على وسائل التواصل الاجتماعي.

التزييف العميق والمعلومات المُضللة
وقد أسس خبير الذكاء الاصطناعي أورين إيتزيوني شركة TrueMedia في يناير/كانون الثاني 2024، مدفوعًا بمخاوفه التي كانت لديه بشأن تأثير الذكاء الاصطناعي خلال عام الانتخابات. وتتكون هذه المنظمة غير الربحية من باحثين، ومهندسين، وعلماء اجتماع، وتهدف إلى تطوير تقنيات تكنولوجية تعالج المشاكل المجتمعية، وهو ما يسميه بايك "التكنولوجيا الاجتماعية".
ومع تزايد إتاحة هذه التقنيات التكنولوجية للعامة، فقد أصبح المحتوى المُولد بواسطة الذكاء الاصطناعي أداة شائعة للتلاعب السياسي، ويخشى الصحفيون من تزايد تأثيره وخصوصًا مع تطور جودته.

وأشارت بايك إلى أنّ نموذج الصفحة "من أجلك" تمنح المعلومات المُضللة الأكثر تعقيدًا انتشارًا أوسع. وتكتسب المنشورات زخمًا من خلال الاستفادة من الخوارزميات التي تحدد المحتوى الشائع، بغض النظر عن الحسابات التي تقف وراءها. وعادةً ما يتوافق المحتوى المعروض في خلاصات مستخدمي الشبكات الاجتماعية مع اهتماماتهم ومعتقداتهم، ويتم تخصيصه - سواء كان حقيقيًا أم لا - لجمع الإعجابات وإعادة المشاركة التي توسع الشبكات التي يتعاملون معها.

في هذا السياق، تمتلك تقنية التزييف العميق إمكانات هائلة في هذه البيئة، فهي قادرة على تصوير أي شيء، بدءًا من البابا فرانسيس بملابس مُصممة وصولاً إلى نشرات أخبار مُزيفة بالكامل، وقد تزايد استخدام هذه التقنية بشكل كبير: فقد تم تداول أكثر من 500 مقطع تزييف عميق في عام 2023. ورغم انتشار المحتوى بالفعل، يقول الصحفيون إنّ ثورة الذكاء الاصطناعي لا تزال في مراحلها الأولية.

الكشف عن التزييف العميق
وبإمكان الصحفيين استخدام الأداة الرئيسية التي طوّرتها TrueMedia لكشف التزييف العميق لتحديد ما إذا كان الفيديو أو الصورة قد تم إنشاؤها باستخدام الذكاء الاصطناعي أم لا.

كما أنّ الأداة بسيطة الاستخدام، حيث يقوم المستخدمون بنسخ الرابط من وسائل التواصل الاجتماعي إلى تقنية الكاشف، الذي يقوم بتمرير المحتوى من خلال سلسلة من برمجيات الكشف عن الذكاء الاصطناعي التي طورتها شركات تكنولوجية شريكة، وذلك لتحديد النسبة المئوية لاحتمالية أن يكون المحتوى مولدًا بالذكاء الاصطناعي.

ولكن بايك حذرت من أنّ الأداة لا تستطيع اكتشاف جميع المحتويات الزائفة. وعلى سبيل المثال، تواجه الأداة صعوبة في رصد "التزييف الرخيص"- وهي صور أو مقاطع فيديو مُضللة أنشأها البشر باستخدام برامج تحرير غير مُعتمدة على الذكاء الاصطناعي. وفي هذا الإطار، ابتكر مروجو المعلومات المُضللة حلولًا بديلة، مثل دمج التزييف العميق مع الوسائط الحقيقية لتجاوز عمليات الكشف.

وفي نهاية المطاف، ومع تزايد قدرات الذكاء الاصطناعي، ستتطور أيضًا الأدوات التي تكتشف هذه الخدع، وعلّقت بايك على هذا الأمر قائلةً: "بالرغم من أننا مازلنا بعيدين عن تحقيق دقة بنسبة 100%، إلا أنّ الأداة تُمثل إحدى الطرق الذكية للاقتراب أكثر نحو تحقيق هدفنا"، مضيفةً: "وإذا كان الناس يستخدمون الذكاء الاصطناعي لإنشاء التزييف العميق، فإننا سنواجههم بالتقنية نفسها".

توظيف تقنية الكشف عن التزييف العميق في الصحافة
وفي ظلّ التدفق المستمر للمحتوى المُزيف على وسائل التواصل الاجتماعي، فقد حذرت بايك من أنّ الصحفيين لا ينبغي عليهم الاعتماد فقط على أدوات الكشف لمواجهة التزييف العميق، بل يجب عليهم استكشاف مصادر المعلومات المُضللة وأسبابها وتأثيرها.

 وعلى سبيل المثال، انتشرت منشورات مُزيفة على مواقع التواصل الاجتماعي تمّ إنشاؤها بواسطة الذكاء الاصطناعي حول الأعاصير الأخيرة في الولايات المتحدة، والتي تُصور مجتمعات غارقة ومُدمرة. ورغم أنّ بعض المستخدمين الذين أعادوا نشر هذه الصور ومقاطع الفيديو كانوا يعرفون أنها مُزيفة، ومن ضمنهم شخصيات سياسية، إلا أنها نجحت في إثارة مشاعر قوية، واستُخدمت كأداة لترويج ادعاءات غير دقيقة حول استجابة الحكومة للكوارث.
كما أوضحت بايك أنّ الأهم من ذلك هو أن يفكر الصحفيون في سبب انتشار هذه المنشورات غير الدقيقة، وأن يعملوا على مواجهة هذه السرديات بدلاً من مجرد الاكتفاء بالتحقق من صحة الفيديوهات فقط.

واختتمت بايك حديثها قائلةً: "لا يكفي أن نقول بأننا اكتشفنا شيئاً، لأن المسؤولية تقع على عاتق الصحفيين الذين لديهم القدرة على توعية الجمهور وتثقيفه، وعلينا أن نقوم بدورنا على أكمل وجه".


أمريثا آر واريير، وAI4Media/ أفضل صور للذكاء الاصطناعي/لعبة تيك تاك تو/حاصلة على رخصة المشاع الإبداعي CC-BY 4.0