يستند مدققو المعلومات في عملهم إلى منهجية صارمة بهدف تقييم الادعاءات، ويحتاجون إلى صندوق أدوات يساعدهم على جمع الأدلة اللازمة لتحقيق ذلك. هناك مثلًا صندوق أدوات التحقق على الويب من Bellingcat، كما تعرض المقالات التي تنشرها شبكة الصحفيين الدوليين مئات الأدوات التي يمكن أن يستفيد منها مدققو المعلومات.
داخل صندوق أدوات مدقق/ة المعلومات هنالك توظيف متزايد للذكاء الاصطناعي، كما يمكن أن يتدخل الذكاء الاصطناعي بأشكال مختلفة في مسار تدقيق المعلومات، نستعرضها في هذا المقال الذي يلخص جلسة تدريبية حول تدقيق المعلومات والذكاء الاصطناعي مقدّمة من منتدى باميلا هوارد لتغطية الأزمات العالمية بالتعاون مع شبكة الصحفيين الدوليين.
الأدوات التي نستخدمها للتدقيق والبحث العكسي أو البحث عن أجزاء معينة داخل الصورة مثل Google Lens أو PimEyes تستخدم الذكاء الاصطناعي، وغيرها من الأدوات التي يستخدمها مدققو المعلومات بشكل يومي.
كيف يمكن أن يستفيد مدققو المعلومات من روبوتات الدردشة القائمة على الذكاء الاصطناعي في عمليات التدقيق؟
أوضحت مؤشرات جوجل أنّ الاهتمام بالذكاء الاصطناعي تزايد حول العالم منذ أواخر عام 2022، ويتزامن ذلك مع إطلاق ChatGPT أحد أشهر روبوتات الدردشة القائمة على الذكاء الاصطناعي التوليدي.
هذا النوع من الروبوتات التي تولد النصوص، قد تبدو للوهلة الأولى خيارًا مثاليًا لمدققي المعلومات، فهي يمكن أن تختصر عليهم الكثير من الوقت أو ربما تقوم بأجزاء من العمل الذي يتكفلون به عادة. اختبار مدى قدرة روبوتات الدردشة القائمة على الذكاء الاصطناعي مثل ChatGPT وGoogle Bard وBing Chat ليست خالية من الحدود أو حتى المخاطر. ولكن هناك بعض الخطوات التي يمكن أن تلهم مدققي المعلومات مع التأكيد على ضرورة الحذر وعدم الثقة بشكل تام فيما تنتجه هذه الروبوتات.
1- تتبع طرف الخيط عندما لا نعرف من أين نبدأ: يمكننا أن نبحث عن معلومة ما، أو معنى تظهره صورة معينة. سألت مثلًا ChatGPT عن محتوى صورة تظهر آسيويين بصدد التظاهر رافعين شعار الأصابع الخمس. إن لم نكن نعرف في أي بلد التقطت الصورة، يمكن أن نسأل روبوتات الدردشة القائمة على الذكاء الاصطناعي. جاءت الإجابة أن هذه المظاهرات يمكن أن تكون قد حدثت في هونغ كونغ.
2-تبسيط المصطلحات: في عملية التدقيق، يكون علينا في مراحل أولى فهم وتحديد المصطلحات، أو قد يعترضنا مصطلح يحتاج منا التبسيط للجمهور. يمكن أن تساعدنا هذه الأدوات في ذلك.
3-تلخيص التقارير المطولة: قد نحتاج أحيانًا إلى فحص تقارير مطولة، باستخدام ChatGPT، مثلًا يمكن أن نبحث عن نقطة معينة داخل تقرير ما، أو نجري محادثة كاملة حول ملف معين بحثًا عن أدلة تساعدنا على تقييم الادعاء.
4-ترشيح وتحديد مصادر: يمكن أن يكون هناك ادعاء حول بلد ما ليس لديك فكرة عن مؤسساته أو أيضًا يمكن أن يكون هناك ادعاء حول ترتيب معين وأنت لا تعرف إن كانت هناك مؤسسات تنتج تقارير بهذا الخصوص أم لا. مثلًا كان يوجد ادعاء بأن نسبة المشاركة في الانتخابات التشريعية في تونس عام 2022 كانت الأدنى في العالم. سألت ChatGPT عن مجموعة من المؤسسات التي يمكن أن تنتج تقارير أو بيانات تقارن نسبة المشاركة في الانتخابات حول العالم. فاقترح عليّ جملة من المؤسسات من بينها ما هو مفيد في بحثي، لكن القائمة لم تخل من الأخطاء فمثلًا أساء التعبير عن اختصار IFES باللغة العربية وقال إنها الاتحاد الدولي للاتصالات الفدرالية في حين أنها المؤسسة الدولية للأنظمة الانتخابية. ولكن يمكن أن يساعدنا في اختصار عمليات البحث عبر هذه الاقتراحات ويكون علينا بعدها زيارة مواقع المؤسسات المقترحة والتأكد مما إذا كانت مفيدة لنا أم لا.
5- تحديد خبراء يمكن إجراء مقابلات معهم: يحتاج مدقق/ة المعلومات في أحيان كثيرة إلى الحديث مع الخبراء سواء خلال عمليات التدقيق أو لنشر خبراتهم ضمن التقرير النهائي. هنالك طبعًا قائمة خبراء معروفة لدينا. ولكن ماذا لو ساعدتنا هذه الأدوات في إيجاد خبراء جدد أو دوليين. طلبت من Google Bard مثلًا أن يضع قائمة من الباحثين الذين نشروا ورقات علمية عن الملاريا في مجلات مرقومة وينظمها في جدول. فأعطاني النتائج المطلوبة. عندما سألت ChatGPT عن أسماء محللين سياسيين في تونس أعطاني قائمة تتضمّن محللين وسياسيين ومعلومات مغلوطة عن سيرتهم الذاتية، وحدث الأمر نفسه عند توجيه السؤال إلى Google Bard. كما هو مؤكد لا يمكن أن نثق في النتائج التي تقدمها هذه الأدوات بشكل كامل. أحيانا قد تكون مفيدة وفي أحيان أخرى قد لا تكون كذلك.
6-البحث عن علامات محددة: الشعارات، أسماء الطرقات، العلامات التجارية، لوحات السيارات وغيرها: يمكن أن نبحث عن شعار بأن نحمل صورته على Google Bard أو Bing Chat أو نصفه لـChatGPT. أدخلت صورة شعار على Google Bard فتمكن من تحديد شركة بهارات بيتروليوم الهندية. وعندما سألت Google Bard إن كان يمكنه مساعدتي في تحديد شعار ما، أجاب كالآتي: "يمكنني القيام بذلك عن طريق: البحث عن الشعار عبر الإنترنت ومقارنته بالشعارات المعروفة، استخدام معرفتي بالشعارات لتحديد الشركة أو المنظمة المحتملة التي ينتمي إليها الشعار، استخدام قدراتي في الذكاء الاصطناعي لتحليل الشعار والتعرف على مميزاته، لتحديد شعار، أحتاج منك أن تزودني بصورة واضحة له (...). سأبحث أولاً عن الشعار عبر الإنترنت وأقارنه بالشعارات المعروفة. لدي وصول إلى قاعدة بيانات كبيرة من الشعارات، لذلك أنا واثق بأنني سأتمكن من العثور على تطابق. إذا لم أتمكن من العثور على تطابق، فسوف أستخدم معرفتي بالشعارات لتحديد الشركة أو المنظمة المحتملة التي ينتمي إليها الشعار".
7-تحديد الموقع الجغرافي لصورة معينة: يمكن لهذه الروبوتات أن تحدد معالم معينة. أدخلت صورة لبناء شامخ على مربع الدردشة في Google Bard وقد حدد أنّ البناء موجود في الولايات المتحدة وأنه 432 park avenue. ولكن ماذا عن صورة أكثر صعوبة حيث لا معالم فيها بل صورة مجموعة من الغلال. أولًا لم يتعرف روبوت الدردشة على الغلال الموجودة في الصورة، بل قال إنها تحتوي على عنب وفراولة ولكن ذلك لم يكن صحيحًا، إلا أنه تمكن من معرفة المكان الذي التقطت فيه بسبب اسم سلسلة المحلات وأيضًا العلم الموجود على العلبة.
8-تحديد مدى موثوقية موقع الكتروني: هذه العملية ليست سهلة، هناك العديد من المعايير التي تدخل في الحسبان. وقد وجدنا هنا اختلافًا بين Google Bard وBing Chat. الروبوت الأول أخبرنا أن الموقع موثوق لأنه موقع يحمل اسمًا مشابهًا لإذاعة موزاييك إف إم التونسية. أما Bing Chat فأخبرنا أن الموقع يوحي بأنه لإذاعة موزاييك إف إم ولكنه ليس كذلك وأخبرنا أننا يجب أن نكون حذرين عند التعامل معه.
9-تحديد ما إذا كان ادعاء صحيح أم لا: لا يتوقف الأمر عند البحث عن المساعدة في إعطاء الحكم النهائي حول الادعاء الذي نعمل عليه. بل يمكن أن ندخل الادعاء إلى هذه الروبوتات ونطلب منها أن تخبرنا إن كان الادعاء صحيحًا أم لا. ولكن لذلك حدود.
هنا مثال من Poynter الذي حاول أن يعرف إلى أي مدى سيعطي ChatGPT نتائج شبيهة لتلك التي أسنتدتها Politifact في أحكامها. أما هنا فمقال لـBellingcat عن استخدام روبوتات الدردشة القائمة على الذكاء الاصطناعي مثل Google Bard وBing Chat في التحديد الجغرافي للصور. كما أن هذه الورقة حاولت أن تعرف مدى قدرة ChatGPT أن يعطي أحكامًا مطابقة لتلك التي أعطتها Politifact ووجدت أنه في 29.96٪ من الوقت أعطى ChatGPT الحكم نفسه الذي اعتمدته Politifact باعتماد تصنيفات منصة التدقيق المختلفة. في حين حدد حكمًا قريبًا من الذي أسندته Politifact بدقة 68.79٪ عند تحويل تصنيفات مؤسسة التدقيق إلى صحيح أو زائف فقط.
حدود ومخاطر استخدام روبوتات الدردشة القائمة على الذكاء الاصطناعي في تدقيق المعلومات:
- معلومات خاطئة ومغلوطة: يمكن أن تكون هي مصدر معلومات خاطئة أو مغلوطة حتى في نسخها المتقدمة.
- النفس السلطوي: تتحدث هذه الروبوتات كأنها تمتلك الحقيقة في أحيان كثيرة وهذا النفس السلطوي قد يجعلنا نسلم بما تقدمه لنا.
- الهلوسة: تشير ورقات علمية إلى أن روبوتات الدردشة القائمة على الذكاء الاصطناعي يمكن أن تختلق محتويات وأن تولد أكاذيب.
- الانحيازات: ترتبط الانحيازات التي ترصد في المحتويات التي ينتجها الذكاء الاصطناعي التوليدي بالانحيازات في البيانات التي تمت تغذيتها بها. هنا مثلا انحيازات على أساس اللون.
- يمكن أن تختلق معلومات أو أسماء أو مؤسسات غير موجودة لتملأ أي فراغات في البيانات.
أتمتة تدقيق المعلومات
في كل الخطوات أو الأشكال المختلفة سواء باستخدام أدوات تعتمد الذكاء الاصطناعي أو روبوتات قائمة على الذكاء الاصطناعي، يبدو حضور البشر أساسيًا في كامل مسار التدقيق. فهل يمكن لعمليات التدقيق أن تتم بشكل آلي؟ الإجابة عن هذا السؤال ليست سهلة.
تقوم عملية تدقيق المعلومات على جملة من الخطوات. سيكون علينا أولًا رصد الادعاءات، وانتقاء تلك التي نعمل عليها ثم تفكيك عناصر الادعاء وجمع الأدلة وإصدار حكم نهائي وكتابة التقرير أو إنتاج أي شكل من أشكال نشر نتائج التدقيق، والحرص على أن يصل هذا الحكم إلى الجمهور.
هنالك مراحل يمكن أن تتم فيها الأتمتة بشكل أسهل من مراحل أخرى. لنأخذ الرصد وتحديد الادعاءات سيكون من السهل أن توكل هذه المهمة للآلة بدل القيام بذلك يدويًا. أما عملية التدقيق في حد ذاتها وإصدار الحكم فهي أعقد، ناهيك عن أن بعض الادعاءات تكون معقدة مرتبطة بالسياق بشكل كبير إلى غيرها من الإشكاليات الأخرى.
ولكن مؤسسات عدة حول العالم تعمل على توظيف الذكاء الاصطناعي لأتمتة عملية تدقيق المعلومات:
- في العالم العربي هناك مشروع دليل وهو تعاون بين سايرن أسوشيتس وسايرن أناليتكس وشبكة أريج (إعلاميون من أجل صحافة استقصائية عربية) والجمعية الأردنية للمصدر المفتوح (جوسا) وهي مبادرة يمولها الاتحاد الأوروبي. ويسعى المشروع إلى توظيف الذكاء الاصطناعي في مراحل مختلفة من مسار تدقيق المعلومات.
- عملت مؤسسة Full Fact البريطانية على تطوير برنامج يوظف الذكاء الاصطناعي لإيجاد وتدقيق الادعاءات. تهدف هذه الأدوات إلى تصفية الادعاءات ذات الصلة، واكتشاف نشر المعلومات الخاطئة المتكررة، والتحقق من الادعاءات الإحصائية. باستخدام الذكاء الاصطناعي وتعلم الآلة يتم العمل على حجم هائل من البيانات على فيسبوك مثلًا لتحديد المعلومات الخاطئة التي يمكن العمل عليها.
- Claim Buster هو الإطار العام الذي تندرج تحته جميع المشاريع المتعلقة بتدقيق المعلومات في مختبر (Innovative Data Intelligence Research Laboratory) IDIR. بدأت هذه المبادرة كجهد لإنشاء نموذج ذكاء اصطناعي يمكنه اكتشاف الادعاءات التي تستحق التحقق تلقائيًا. بعدها عمل Claim Buster على توظيف هذه التقنيات في التدقيق الآلي.
- Meedan Check هو أداة تسمح بجمع الادعاءات من الجمهور وتنظم الادعاءات المتشابهة وتكشف الأنماط فيها وتقدم تدقيقات حولها.
- FactInsect أداة تقارن الادعاءات مع مصادر من الانترنت.
- Fact Check Assistant روبوت دردشة يعتمد الذكاء الاصطناعي لإعطاء إجابات حول مدى صحة ادعاء ما.
تحديات أتمتة تدقيق المعلومات
- تتطلب موارد.
- صعوبات في التعامل مع الادعاءات المعقدة أو التي تتضمن إيحاءات لتبني موقف معين.
- تحدي اللغات واللهجات المحلية.
- عدم النفاذ إلى البيانات ومصادر المعلومات يجعل عمل هذه الأدوات غير ممكن.
كيف يمكن أن نتحقق من المحتوى الذي ينتجه الذكاء الاصطناعي؟
90% من المحتوى الرقمي ستتم صناعته عبر الذكاء الاصطناعي في حدود سنة 2026 بحسب هذا التقرير. هذه بعض النصائح التي يمكن أن تساعدنا إلى حد ما:
1-كيف نتعرف على نص أنتجته الآلة؟
- أخطاء لغوية
- إعادة النص السابق
- أخطاء منطقية أو أخطاء تتعلق بالمعارف العامة
- خلط الأسماء والشخصيات
- جمل لا علاقة لها بالمضمون الأصلي
2-كيف نتعرف على الصور والفيديوهات التي ينتجها الذكاء الاصطناعي؟
- البحث العكسي
- فحص البيانات الوصفية للصورة للبحث عن أدلة حول مصدرها.
- وجود عبارات مرتبطة بالمحتوى مثلDeepAI Midjourney أو DALLl-E وهي أدوات توليد صور مما يعني أنه يمكن أن تكون الصور مولدة بالذكاء الاصطناعي.
- العلامة المائية مثلًا العلامة المائية الخاصة بـDALLl-E هي مربعات ملونة.
- تحليل المحتوى فغالبًا ما تحتوي الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على تشوهات مرئية أو تناقضات أو عيوب بصرية، مثل الخطوط العريضة غير الواضحة أو الكائنات أو الشخصيات التي تبدو مشوهة أو غير طبيعية.
- أقراط مفقودة أو غير متطابقة.
- خلفية ضبابية.
- لا يمكن تمييز أي نص في الخلفية.
- عدم تناسق في الوجه (الأسنان والعينان بأحجام مختلفة).
- تبدو بقع في الصورة كما لو كانت مطلية.
- النظارات تمتزج مع الجلد.
- اليد غير طبيعية.
هنالك بعض الأدوات التي يمكن أن تساعدنا مثل:
Deepware: يمكن أن تساعدنا هذه الأداة على كشف الفيديوهات التي تم إنتاجها باستخدام تقنيات التزييف العميق.
Hugging Face: تحاول هذه الأداة أن تحدد إن كانت الصورة قد أنتجها البشر أم أنه قد تم توليدها اصطناعيًا.
Duck Duck Goose: أداة تعمل على كشف الوجوه التي تم إنشاؤها باستخدام الذكاء الاصطناعي أو التي تم تعديلها بواسطته.
التحديات التي نواجهها لتدقيق محتويات التزييف العميق DeepFake
- تحدي الأدوات التي لا تعطي نتائج دقيقة وفي أحيان عدة يمكن أن تكون النتائج مغلوطة.
- الحاجة للطرق التقليدية في تدقيق المحتوى.
ولختام الجلسة طلبت من ChatGPT أن يروي طرفة حول الذكاء الاصطناعي وتدقيق المعلومات. الطرفة لم تكن مضحكة، وهي عن "مستخدم سأل الذكاء الاصطناعي عن مدى موثوقية مصدر ما فأخبره أنه لا يمكن له إلا أن يقدم تقديرات بأن المعلومات صحيحة بنسبة 78.329%"، ولكن الطرفة على الأقل تجعلنا ندرك أن ما يقدمه الذكاء الاصطناعي هو تقديرات في أحيان عدة. كما أنه يكون مصدرًا للمعلومات الخاطئة والمضللة في أحيان عدة، لذا يبدو أننا ما زلنا نحتاج مجهودات مدققي ومدققات المعلومات لمواجهة هذه التحديات واتخاذ القرارات والاستفادة من هذه التكنولوجيات لتسهيل وتسريع وتوسيع عملية تدقيق المعلومات.
الصورة الرئيسية حاصلة على رخصة الاستخدام على أنسبلاش بواسطة Agence Olloweb.