بينما ينشغل العالم بالانتخابات في أكثر من دولة حول العالم، زادت المخاوف من استخدام الذكاء الاصطناعي لإنتاج المعلومات المضللة التي قد تؤثر على الناخبين وعلى الرأي العام، لاسيما الاستعانة بالتقنيات لإنشاء محتوى مزيف يبدو وكأنه حقيقي كتعديل ملامح الوجه، وتحريك الصور، واستنساخ الأصوات، وغيرها من الأمور. ويُعد التزييف العميق نوعًا من التلاعب السمعي-البصري الذي يسمح للمستخدمين بإنشاء محاكاة واقعية لوجوه الأشخاص وأصواتهم وأفعالهم، مما يشكل تحديًا لمصداقية الصحافة، حيث يصعب تمييز الأخبار الحقيقية من المزيفة إذا كانت المحتويات المزيفة مقنعة.
بناءً على ما سبق، يُعدّ التزييف العميق قضية رئيسية في النقاش حول الأخلاقيات في الصحافة وتأثير التكنولوجيا على الإعلام وكان محطة أساسية في جلسات الخبراء والخبيرات خلال المهرجان الدولي للصحافة في بيروجيا، إيطاليا.
في هذا السياق، تساءل سام جريجوري المدير التنفيذي لـWITNESS التي تدعم الصحفيين والمدافعين عن حقوق الإنسان الذين يستخدمون التكنولوجيا في جلسة شارك فيها، عن التزييف العميق والذكاء الاصطناعي والتأثير على الانتخابات في الـ2024، العام المصنف على أنه سنة الانتخابات والذكاء الاصطناعي. واستهلّ الجلسة بالحديث عن وسائل الإعلام ثم عن اتجاهات استخدام الذكاء الاصطناعي، وتناولَ الحلول ثم ألقى نظرة مستقبلية على بعض الأسئلة التي يطرحها الصحفيون. ولفت إلى أهمية التدريب المباشر للصحفيين لكشف التزييف إضافةً إلى العمل على المعايير التقنية والاطلاع على السياسات والتشريعات التي تُبنى في هذا المجال مع وجود الكثير من الطرق التي نرى فيها تقنيات الوسائط السمعية البصرية التي يتم استخدامها لإنشاء محتوى يبدو واقعيًا.
وتطرّق المتحدث إلى الحلول التقنية والمعرفة، وأهمية الشفافية الإعلامية ومحو الأمية الإعلامية. وشدّد على "ضرورة الحذر من الحكومات والمطالبة بتحديد هوية الصحفيين أو قمع حرية الصحافة كما رأينا في قوانين الأخبار الزائفة". وأضاف: "حتى عندما نبدأ في التفكير في استخدام صورة تم إنشاؤها بالذكاء الاصطناعي، نحتاج إلى التفكير في القرارات التي يتم اتخاذها حولنا والتي ستحدد الشروط للعشر سنوات المقبلة حيث سيكون هناك المزيد من الوسائط الاصطناعية، والمزيد من الوجوه المزيفة بعمق، لهذا يجب إجراء بحوث أفضل في هذا المجال ولضمان الوصول إلى مهارات وأدوات الكشف لمن يحتاجونها أكثر وللاستثمار في قدرات الصحفيين والمجتمع المدني للتقرير رغم الهجمات على ثقتهم والثقة في موادهم". وتابع: "نحن بحاجة لبناء هذه البنية التحتية لشفافية الإعلام بشكل صحيح، مع احترام الخصوصية وحرية التعبير والوصول العالمي. نحتاج لتشريع حول ذلك، مستندين إلى خصوصية البيانات وحقوق الإنسان والشفافية".
وفي جلسة أخرى مخصصّة لمناقشة الانتخابات والذكاء الاصطناعي، تحدثت ماجي فارلي، المديرة الأولى لبرنامج زمالة الابتكار ونايت في المركز الدولي للصحفيين، ريتو كابور، المؤسسة المشاركة والمديرة الإدارية لشركة Quint Digital Media Limited التي تدير موقع The Quint الإخباري المستقل في الهند، إلى جانب ماريا ريسا التي شاركت في تأسيس موقع Rappler الإخباري الهادف إلى تعزيز حرية الصحافة في الفلبين.
وانضمّت إلى الجلسة فيفيان شيلر المديرة التنفيذية لـAspen Digital، والتي تعمل على تمكين صناع السياسات والمنظمات المدنية والشركات والجمهور ليكونوا مشرفين مسؤولين على التكنولوجيا والإعلام في خدمة عالم مستنير وعادل ومنصف. وحثّت شيلر على النظر في الطريقة التي يتم بها استخدام الذكاء الاصطناعي قبل الانتخابات في الولايات المتحدة على أنها "تجربة لعام 2028".
وشدد المتحدثون خلال الجلسة على ضرورة تثقيف الجمهور لمعرفة الطرق التي يجب أن يتحققوا بها من أن المعلومات التي يحصلون عليها جاءت بالفعل من مسؤولي الانتخابات وليس من شخص يحاول تضليلهم. ولفت المتحدثون إلى أنّ هناك حالات استخدام إيجابية للذكاء الاصطناعي في الانتخابات، على سبيل المثال، فقد استعان به عمدة نيويورك إريك آدمز لنشر الرسائل بلغات متعددة.
ومع استخدام الذكاء الاصطناعي بشكل مكثف في نشر المعلومات المضللة حول الانتخابات، وتوجه حوالى ملياري ناخب إلى صناديق الاقتراع في أكثر من 70 دولة هذا العام، أصبحت المعلومات الدقيقة أمرًا أساسيًا ويحتاج الصحفيون إلى أن يكونوا مدركين ومطلعين بشكل أكبر على الفرص والتهديدات التي تحملها تقنيات الذكاء الاصطناعي في الحملات الانتخابية والتلاعب المحتمل، على الرغم من أنّ مدى استخدام الذكاء الاصطناعي للتأثير على نتائج الانتخابات لا يزال غير واضح، لكن يمكن الإشارة إلى أدوات مستندة إلى الذكاء الاصطناعي وتساهم في تشكيل الرأي العام.
في هذا السياق، جرى الحديث عن تجربة "رابلر" والذكاء الاصطناعي، وقالت ريسا: "يجب أن نتساءل عن أسس نظم المعلومات، وهيكل الإنترنت، والطريقة التي تحكم بها التكنولوجيا العالم"، مضيفةً: "في رابلر، نستخدم الذكاء الاصطناعي لكننا قمنا بتدريبه. لا تعتمدوا عليه للحقائق واحتفظوا بالسيطرة على مؤسساتكم الإخبارية".
ومع تصنيف الهند في المراتب الأولى من حيث خطر المعلومات المضللة والتضليل قبل الانتخابات وفقًا لتقرير المخاطر العالمية لعام 2024 الصادر عن المنتدى الاقتصادي العالمي، أبرزت ريتو كابور، المخاوف المتعلقة بانخفاض مستويات الوعي الإعلامي والرقمي في ظل السيطرة الواسعة على وسائل الإعلام في البلاد. وقالت: "يتم استخدام الذكاء الاصطناعي لزيادة حجم التضليل الدعائي. يحتاج الصحفيون إلى تطوير مهاراتهم لفهم كل أداة متاحة الآن. يجب أن تكون قادرًا على التحقق من المعلومات من خلال استنساخ الصوت، الفيديو، التزييف العميق، لكي تتمكن من التعاون مع شركات التكنولوجيا التي تطور أدوات واستخدامها لزيادة السرعة، وتوسيع النطاق، ونشر الحقائق بأسرع ما يمكن. نحن بحاجة إلى استغلال الذكاء الاصطناعي لصالحنا".
وتناولت الجلسة البيانات وأهمية وصول الباحثين إلى بيانات المنصات، إضافةً إلى التحدي الهائل المتمثل في معالجة المعلومات المضللة على نطاق واسع والحاجة إلى "مشاريع تتجاوز الحكومات، وتربط بين الإعلام والمجتمع المدني وتحسن منظور المعلومات".
لكن التهديدات للديمقراطية في بعض البلدان في الجنوب العالمي لا تُعزى إلى تقنية واحدة، إذ حذر لويس فرناندو غارسيا، المدير التنفيذي لمنظمة حقوق رقمية قائلًا: "يوفّر الاستبداد، الجريمة المنظمة، المراقبة، على سبيل المثال، سياقات للمخاطر والتهديدات التي يطرحها الذكاء الاصطناعي وبالتالي فرض المزيد من السيطرة على السكان وتفكيك الديمقراطية. حتى لو كانت ديمقراطية بلدك قائمة الآن، قد تكون الحكومة التالية استبدادية وتمتلك جميع هذه الأدوات لجعل الديمقراطية صعبة للغاية للجميع".
الصورة الرئيسة حاصلة على رخصة الاستخدام على أنسبلاش بواسطة جيشوتس.