ما ينبغي معرفته عن المعلومات المضللة المُولدة بالذكاء الاصطناعي

Nov 30, 2023 في مكافحة التضليل والمعلومات الخاطئة
مجال مستقبلي

تتزايد المخاوف من المعلومات المضللة المُولدة بالذكاء الاصطناعي، ويُحذر الصحفيون والخبراء من أنّ هذه المعلومات قد تُستخدم لخداع الجمهور، والتأثير بقوة على المشاهدين، والتحريض على العنف.

وعلى الرغم من أنّه يتم التعبير عن هذه المخاوف على نطاق واسع، إلا أنّ التأثير الدقيق للمعلومات المُولدة بالذكاء الاصطناعي لا يزال غير واضح، ولكن ما هو واضح أنّه يُمكننا توقع حدوث زيادة مفاجئة في كم المعلومات المضللة بسبب الذكاء الاصطناعي.

الذكاء الاصطناعي والمعلومات المضللة 

لقد سهلت تقنيات الذكاء الاصطناعي مثل برامج استنساخ الصوت والنماذج اللغوية الكبيرة، وبرامج توليد النصوص إلى صور، من إنشاء المحتوى المُضلل. وليس من غير المألوف على منصات التواصل الاجتماعي - على وجه الخصوص - مصادفة مقاطع الفيديو والصور والمقاطع الصوتية المزيفة المُولدة بالذكاء الاصطناعي.

وفي أحد الأمثلة الحديثة، جُمعت مقاطع للرئيس الأميركي جو بايدن لإنشاء فيديو ساخر يصور يومًا خياليًا في حياته، ويبدو التعليق الصوتي الموجود في الفيديو مشابهًا لصوت الرئيس بايدن بصورة مثيرة للقلق، على الرغم من أنّ محتوى الخطاب مزيف. كما تلاعب المستخدمون على الإنترنت بصور اعتقال للرئيس الأميركي السابق دونالد ترامب، وقاموا بتعديل صور تُظهر حفل زفاف رئيس الوزراء الهندي ناريندرا مودي ورئيسة الوزراء الإيطالية جيورجيا ميلوني.

في هذا السياق، أفادت ورقة بحثية حازت على مراجعة الأقران ونُشرت في مجلة Misinformation Review الصادرة عن كلية كينيدي في جامعة هارفارد، إنّه فيما يتعلق بالمحتوى المزيف والمُضلل "فالمخاوف الحالية بشأن تأثيرات الذكاء الاصطناعي التوليدي مبالغ فيها".

وتشير الورقة البحثية إلى أنّه حتى إذا افترضنا حدوث زيادة في كمية المحتوى المزيف المُولد بالذكاء الاصطناعي فإنّ تأثيره سيكون قليلًا. وعلى الرغم من تداول قدر كبير من المعلومات المضللة على الإنترنت، إلا إنّه مُستهلك من قبل كمية صغيرة فقط تبلغ حوالي 5٪ من مستهلكي الأخبار الأميركيين والأوروبيين.

وقال رئيس المنتجات في مؤسسة Full Fact لتدقيق المعلومات مقرها المملكة المتحدة، أندرو دودفيلد: "إنّها من الأمور التي من الممكن أن يصدقها الناس، ومن السهل أن نقول لأنفسنا إنّ المحتوى المُولد تلقائيًا سيشكل مُعضلة".

وتنبع هذه الحجج جزئيًا من حقيقة أنّ أساليب المعلومات المضللة الحالية فعالة بالفعل بدون استخدام الذكاء الاصطناعي، كما تُشدّد هذه الحجج على أنّ التنبؤات بأنّ عواقب المحتوى المُولد بالذكاء الاصطناعي ستكون وخيمة نظرًا لجودته المُحسنة، تفتقر إلى الأدلة الملموسة وتظل مجرد تخمينات.

وقالت مديرة المنتجات البارزة لاستراتيجية الذكاء الاصطناعي في وكالة أسوشيتد برس، إيمي رينهارت: "لا أعتقد أننا وصلنا إلى هذه المرحلة بعد"، مستكملة "من المنطقي أنّنا سنواجه بعض المشكلات، ولكن لا أعرف إذا كان الإنترنت يرضخ الآن لمعلومات تمثل مشكلة".

لماذا نقع في فخ المعلومات المضللة؟

وعلى الرغم من أنّ المؤسسات الإعلامية قلقة بشأن المحتوى الواقعي المُولد بالذكاء الاصطناعي، قال المدير التنفيذي للتكنولوجيا في Maldita.es - وهي منظمة مستقلة لتدقيق المعلومات مقرها في إسبانيا - ديفيد فرنانديز سانشو، إنّ "الناس يميلون إلى تصديق مجرد صورة مُعدلة بالفوتوشوب لسياسية تحتوي على جملة مزيفة لم تقلها أبدًا".

ويمكن القول إنّ فعالية حملات المعلومات المضللة لا تعتمد على جودة المحتوى، وإنّما على معتقدات الناس المسبقة بأنّ شيئًا ما قد يكون حقيقيًا.

ووجدت دراسة كتبها باحثون في جامعة نيويورك تحاول فهم كيفية تأثير الانتماء الحزبي على المعتقدات وانتشار المعلومات الخاطئة، أنّ "الناس كانوا أكثر استعدادًا لتصديق ونشر الأخبار المتماشية مع هويتهم السياسية". كما وجدت دراسة أخرى عنوانها "لماذا نقع في فخ الأخبار المزيفة" أنّ قبول المعلومات المزيفة ناتج عن التحيزات المعرفية، مضيفة أنّ الانتماءات الحزبية أو التوجهات السياسية لها تأثير على ما يؤمن به الناس أو يرفضونه في الأخبار.

وشرح الأستاذ المشارك في مجال الرياضيات التطبيقية وبيولوجيا النظم في جامعة كولومبيا، كريس ويغينز، أنّ الناس يذهبون إلى منصات المعلومات لأسباب مختلفة، من بينها رغبتهم في إعادة تأكيد معتقداتهم الموجودة مسبقًا، والتواصل مع الأفراد المتشابهين معهم في التفكير، سعيًا نحو الاندماج الاجتماعي.

وأوضح ويغينز: "هناك حاجة للاندماج والشعور بهذا التواصل الاجتماعي مع الآخرين"، مضيفًا "ترى شخصًا وتتفق معه لأنّك قرأت محتواه من قبل، والأمر يشبه حقًا هذا الشعور بالاندماج، وكأنني جزء من مجموعة الأشخاص الذين يؤمنون بهذا الأمر".

استخدام الذكاء الاصطناعي لمكافحة المعلومات المضللة

وبإمكان الصحفيين والباحثين وصنّاع السياسات أيضًا تسخير الذكاء الاصطناعي لتحليل الكم الهائل من المعلومات المضللة التي يواجهونها والمساعدة في مكافحتها، سواء كانت مُولدة بالذكاء الاصطناعي أم لا.

ومع ذلك، حذر دودفيلد من استخدام التدقيق الآلي للمعلومات في هذه المرحلة، مشيرًا إلى أنّ العقل البشري مجهز بصورة أفضل لإيجاد "السياق والمحاذير والفروق الدقيقة" في المحتوى المنشور على الإنترنت، موضحًا أنّ "الذكاء الاصطناعي جيد للغاية في القيام بشيء آخر، ألا هو تنظيم الفوضى". ويبرع الذكاء الاصطناعي في تنظيم المعلومات غير المُنظمة واكتشاف الأنماط وتجميع البيانات المتشابهة، مما ينظم ويبسط عملية تدقيق المعلومات. ويُمكن من خلال إنشاء قائمة محتوى أكثر قابلية للإدارة ويكون في استطاعة مدققي المعلومات تدقيقها بعد ذلك، توفير الكثير من الوقت مقارنة بالرصد اليدوي.

وعلى سبيل المثال، طورت شركة Full Fact نظام Full Fact AI، والذي يساعد مدققي المعلومات على تحديد المحتوى الذي يُمكن تدقيقه - مثل التصريحات بدلًا من الآراء أو الافتراضات – وتحديد قائل هذه التصريحات وأين قالها وموضوع المحتوى. ويساعد ذلك على تجميع التصريحات المماثلة معًا، مما يُمكّن مدققي المعلومات من التحديد بشكل أفضل لأهم المعلومات لتدقيقها.

وتستخدم Maldita.es الذكاء الاصطناعي لتحديد وتصنيف السرديات المتشابهة عبر مصادر الأخبار المختلفة، مما يُسهل تتبع مصادر المحتوى المضلل. وقال فرنانديز: "إذا رأينا – على سبيل المثال – الكثير من المحتوى يشترك في نفس السردية في فترة زمنية قصيرة، فمن المحتمل أنّ هذا الأمر مُنظم وليس مجرد محتوى أصلي يتم إنشاؤه"، موضحًا أنّ هذا باستطاعته المساعدة في تحديد حملات المعلومات المضللة المُنسقة.

إنّ Maldita.es جزء من ائتلاف مكون في إطار مشروع AI4TRUST التابع للاتحاد الأوروبي، والذي سيطور نظامًا هجينًا "تتعاون فيه الآلات مع البشر" لإتاحة الرصد الفوري لمنصات التواصل الاجتماعي لتحديد المحتوى المضلل المُحتمل في هيئة تنسيقات ولغات مختلفة ليراجعه الخبراء.

فتح مجال الإمكانات        

وربما يكون من السابق لأوانه التنبؤ بالآثار الدقيقة للذكاء الاصطناعي في نظام المعلومات المضللة، ومع ذلك، فمن الواضح أنّه بالإضافة إلى القصص التحذيرية، قد يكون الذكاء الاصطناعي مفيدًا للصحفيين ومدققي المعلومات الذي يكافحون زيادة المحتوى المزيف.

ويُعد قانون فرنانديز الأول في التكنولوجيا القائل إنّ "التكنولوجيا ليست جيدة وليست سيئة وليست حيادية"، منطقيًا. ويرى ويغينز أنّ "كل تكنولوجيا تفتح مجال الإمكانات للناس"، مختتمًا "سيستخدمها بعض الأشخاص من أجل الحقوق والعدل، وسيستخدمها البعض الآخر لفرض القمع والأذى".


الصورة حاصلة على رخصة الاستخدام على أنسبلاش بواسطة مايكل دزيديتش.