كيف تُقدم تغطية عن الذكاء الاصطناعي خلال الانتخابات؟

بواسطة أمارا إنيس
Jan 24, 2024 في مكافحة التضليل والمعلومات الخاطئة
يد تحمل ملصق "لقد قمت بالتصويت"

بداية من مولدات الصور وانتهاءً بروبوتات الدردشة، أصبح الذكاء الاصطناعي في كل مكان الآن، وتتباهى بعض خدمات الذكاء الاصطناعي بأنّ مئات الملايين يستخدمونها.

ومع انتهاء إجراء الانتخابات المحورية في الأرجنتين، واقتراب إجراء العديد من الانتخابات حول العالم في 2024، يشعر الناس بالقلق من قدرة الذكاء الاصطناعي على نشر المعلومات الخاطئة عن الانتخابات.

وفي حين أنّ هناك مبالغة في بعض هذه المخاوف، إلا أنّه لا يزال من الضروري أن يفهم الصحفيون كيف يُمكن أن يؤثر مجال الذكاء الاصطناعي المتنامي على السياسة.

ومن جانبها، ناقشت الصحفية الاستقصائية العالمية في وكالة الأسوشيتد برس، جارانس بيرك، في جلسة لبرنامج مكافحة المعلومات المضللة، التابع للمركز الدولي للصحفيين، كيفية إعداد تقارير عن تفاعلات الذكاء الاصطناعي مع السياسة بفاعلية.

عُد إلى الأساسيات

إنّ تعلم المصطلحات الأساسية نقطة انطلاق جيدة عند البحث في الذكاء الاصطناعي وتأثيراته، ونقدم إليك بعض التعريفات التي يجب معرفتها لتتذكرها:

  • الذكاء الاصطناعي هو المصطلح الشامل لأنظمة الكومبيوتر، أو البرامج، أو العمليات التي تُحاكي جوانب الإدراك البشري، وليس هناك ذكاء اصطناعي يُضاهي العقل البشري الحقيقي حتى الآن.

  • الخوارزمية هي سلسلة من التعليمات لكيفية حل مشكلة أو القيام بمهمة، وتعد الخوارزميات حجر الأساس لبرامج التعرف على الكلام والأوجه، بالإضافة إلى الأدوات التنبؤية التي تُحلل البيانات القديمة للتنبؤ بالأحداث أو الأنماط المستقبلية.

  • نماذج اللغات الكبيرة هي أنظمة ذكاء اصطناعي تستخدم الاحصائيات لكشف الأنماط في البيانات المكتوبة، والتي تستخدمها بعد ذلك لتوليد ردود على الاستفسارات. ويُعد ChatGPT مثالًا على نموذج اللغة الكبير، وبشكل أساسي، تفحص هذه الأنظمة كنوز البيانات من الإنترنت للتنبؤ بكيفية تكوين الكلمات معًا في جملة، ثم محاكاة ما تجده.

وعند إجراء المقابلات مع الأشخاص عن أنظمة الذكاء الاصطناعي، من الأهمية بمكان طرح الأسئلة الأساسية أيضًا، مثل كيف تعمل هذه الأنظمة؟ وأين تُستخدم؟ وما دورها؟ وما مدى جودتها؟

وقالت بيرك: "من الضروري إزالة الغموض حول الطرق التي تعمل بها هذه الأدوات، والمساعدة في جذب جمهورك كي يتمكنوا من فهم الأمر أيضًا".

وأثناء الانتخابات، كُن منطقيًا عند التحدث إلى مراقبي الانتخابات ومديري الحملات. وأوضحت بيرك: "اسأل نفسك: إذا كانت مديرًا لحملة ماذا كنت سأريد أن أتوقع؟ ما هي البيانات التي كانت ستكون مفيدة لي؟".

موارد البحث

وفي موضوع قائم على التكنولوجيا كالذكاء الاصطناعي، بإمكان الموارد الخارجية مساعدة الصحفيين على فهم التأثير الحقيقي لهذه الأدوات على الانتخابات وإيصاله إلى الجماهير. وأضاف كتاب الأسلوب الخاص بالأسوشيتد برس (والذي يُمكن الحصول عليه من خلال الاشتراك) مؤخرًا، فصلًا كاملًا عن تغطية موضوعات الذكاء الاصطناعي، كما يمتلك معهد آسبن كتبًا تمهيدية عن الذكاء الاصطناعي للصحفيين.

وإذا كنت تعيش في دولة تشهد تكنولوجيا الذكاء الاصطناعي تطورًا سريعًا فيها، قد يكون من السهل إيجاد خبراء في مجال التكنولوجيا أو الذكاء الاصطناعي. وإذا لم تكن كذلك، توصي بيرك بالتحدث مع الأكاديميين الذين يدرسون الذكاء الاصطناعي، فضلًا عن المنظمات غير الحكومية المعنية بالخصوصية والحقوق الرقمية وتتبع نماذج الذكاء الاصطناعي، وتشمل بعض الأمثلة الخصوصية الدولية، وهيومن رايتس ووتش، ومنظمة العفو الدولية، ومؤسسة الحدود الإلكترونية.

وبغض النظر عن بلد إقامتك، من الضروري العثور على خبراء باستطاعتهم تقديم التفسيرات والرؤى، بمجرد البدء في إجراء التحقيقات عن الذكاء الاصطناعي. وأضافت بيرك: "الذكاء الاصطناعي من المجالات التي يشعر المهندسون أنّ الصحفيين لا يفهمونها"، مضيفة "ستجد دومًا الكثير من الأشخاص الذين سيشعرون بالحاجة إلى إخبارك بكيفية عمل هذا الشيء من البداية، وهذا أمر جيد لأنّه سيبني ثقتك بنفسك واستيعابك".

فكر على المستوى الإقليمي 

وفي بعض الدول، سيُستخدم الذكاء الاصطناعي لنشر المعلومات، الموثوقة والمزيفة، بين الجمهور خلال مواسم الانتخابات، بينما  لن يكون الذكاء الاصطناعي بنفس القدر من الأهمية بالنسبة لنتائج الانتخابات في دول أخرى. ضع في اعتبارك أين تُقدم تغطيتك، ومدى احتمالية استخدام الذكاء الاصطناعي في ذلك المكان، ومدى فعاليته بين الناخبين هناك.

وأوضحت بيرك: "تابعت حملة في برزخ تيهوانتيبيك في المكسيك، وقد تحقق الفوز في تلك الانتخابات من خلال تقديم القمصان والطعام للأشخاص الذين احتاجوا الدعم الاقتصادي الأساسي حقًا"، مضيفة "ومن ثم، لا أظن أنّ كل انتخابات ستلجأ إلى استخدام روبوتات الدردشة لنشر المعلومات المضللة".

وحتى إذا كنت تعيش وتعمل في منطقة يلعب الذكاء الاصطناعي فيها دورًا ثانويًا أو معدومًا في نشر المعلومات الخاطئة عن الانتخابات، لا يزال من المفيد البحث عن نوع البيانات المتاحة للحملات وجماعات المصالح، ويتحتم عليك معرفة كيف قد تُستخدم تلك البيانات للتأثير على الناخبين.

وعلى سبيل المثال، وجدت وكالة الأسوشيتد برس أنّه في الصين، وأستراليا، والهند، وإسرائيل اُستخدمت بيانات المراقبة الجماعية التي جُمعت في الأصل لتتبع حالات كوفيد-19، إلى جانب أدوات الذكاء الاصطناعي؛ لقمع الاحتجاجات، وتهديد المدنيين، ومضايقة المجتمعات المهمشة.

افهم حدود الذكاء الاصطناعي

وقد يظهر الذكاء الاصطناعي ككتلة متراصة مربكة، بل ومخيفة، للصحفيين والجمهور.

وقالت بيرك: "كن متمكنًا من معرفة ما يُمكن أن تقوم به تلك النماذج وما لا تستطيع القيام به".

وعلى سبيل المثال، ليس من المرجح أن يُنشئ الذكاء الاصطناعي رواية كاذبة جديدة حول الانتخابات وأن ينشرها بشكل تلقائي، على غرار مؤامرتي صناديق إيداع الأصوات الانتخابية أو الناخب الزومبي في الولايات المتحدة. ومع ذلك، باستطاعة أي شخص استخدام أدوات الذكاء الاصطناعي لتحديد مكان واستهداف أفراد قد يكونون قابلين للتأثر بالمعلومات الخاطئة. وبمجرد أن يبدأ محتوى مزيف في الانتشار، بإمكان روبوت دردشة يعمل بالذكاء الاصطناعي ولديه بيانات مُجمعة من الإنترنت تكرار هذه المعلومات باعتبارها حقيقة.

وشددت بيرك: "من فضلك، ضع في اعتبارك أنّ هذه الأدوات من صُنع البشر"، موضحةً "لا تقع فريسة خرافة أنّ أجهزة الكومبيوتر يُمكنها التفكير بمفردها".

ضع الناس في المقام الأول

إنّ التركيز على المجتمعات والناس، بدلًا من الرموز والعمليات، قد يجعل القصة تلقى صدى أفضل عند القراء. واستخدمت بيرك تغطية وكالة الأسوشيتد برس لأداة فحص رعاية الأطفال في مقاطعة أليغيني كمثال، إذ نشرت الغرفة الإخبارية قصتين مختلفين عن الأداة، وكانت الأولى في أبريل/نيسان 2022، والثانية في يناير/كانون الثاني 2023.

وعلى الرغم من أنّه كان لدي فريق التحقيقات في الوكالة معلومات كثيرة عن الخوارزميات الكامنة وراء الأداة، اختار الفريق التركيز على الأشخاص المتأثرين باستخدامها. وتناولت القصة الأولى محامية أسرة في المقاطعة وموظفين آخرين في نظام رعاية الأطفال تأثر عملهم وعملية صنع قراراتهم بالخوارزمية.

وفي إشارة إلى معالجة نفسية متخصصة في شؤون العائلات استقالت في 2020 جرّاء إحباطها من نظام أليغيني، أوضحت بيرك: "لقد قالت (حتى إذا صمموا أداة مثالية، لن يكون لذلك أهمية لأنّها مصممة من أنظمة بيانات غير مثالية للغاية)".

وركزت القصة الثانية على زوجين من ذوي الإعاقة، نُقلت ابنتهما إلى كفالة الأطفال، واعتقدا أنّ إعاقتيهما تسببت في أن تصنفهما أداة فحص رعاية الأطفال على أنهما يُشكلان خطرًا على سلامة ابنتهما.

ومن خلال التركيز على الأشخاص المتأثرين بالأمر، سيتمكن القراء من التعاطف معهما بصورة أفضل، إلى جانب معرفة تأثير التكنولوجيا. وفي هذه الحالة، كان ذلك أمرًا مهمًا للغاية، فوفقًا للاتحاد الأميركي للحريات المدنية، فكرت 26 ولاية وواشنطن العاصمة في استخدام أدوات مماثلة للذكاء الاصطناعي لاتخاذ قرارات متعلقة برعاية الأطفال. وكان المقال مؤثرًا للغاية لدرجة أنّ إدارة الرئيس الأميركي جو بايدن تواصلت مع مصادر وكالة الأسوشيتد برس، وأدرجت المخاوف في وثيقة الحقوق المتعلقة بالذكاء الاصطناعي.

وفي نهاية المطاف، تؤمن بيرك أنّ الأمر متروك للقراء ليقرروا الاتجاه الذي سيتأرجح نحوه سيف الذكاء الاصطناعي ذي الحدين، مختتمة "لا يتمثل عملنا في قول ما إذا كان الذكاء الاصطناعي جيدًا أم سيئًا، وإنّما في مساعدة الجمهور على فهم كيفية عمل هذه الأنظمة".


يدير المركز الدولي للصحفيين برنامج مكافحة المعلومات المضللة بتمويل رئيسي من مؤسسة سكريبس هوارد، وهي مؤسسة تابعة لصندوق سكريبس هوارد، الذي يدعم الجهود الخيرية لشركة إي. دابليو. سكريبس. ومن المقرر أن يمكّن المشروع الممتد لثلاث سنوات، الصحفيين وطلاب الصحافة من محاربة انتشار المعلومات المضللة في وسائل الإعلام الإخبارية. 

 

الصورة حاصلة على رخصة الاستخدام على أنسبلاش بواسطة ميك هاوبت.