مع الانتشار الواسع للمحتوى الصوتي في السنوات الأخيرة، سواء عبر البودكاست والرسائل الصوتية أو منصات التواصل الاجتماعي، أصبح التحقق من المعلومات في هذا النوع من الوسائط أمرًا ضروريًا، إذ يُستخدم المحتوى الصوتي بشكل متزايد لنشر الأخبار والمعلومات، ولكن يمكن أن يكون أيضًا وسيلة فعالة لنشر المعلومات المضللة والخاطئة، مثل انتحال شخصية الأفراد، نشر أخبار مضللة أو التلاعب بالرأي العام.
كما تختلف تحديات تدقيق المحتوى الصوتي عن تدقيق النصوص أو الصور، نظرًا لصعوبة تحليل البيانات الصوتية واكتشاف إذا ما تم التلاعب بها أم لا مقارنة بسهولة التزييف والفبركة، مما يبرز أهمية التساؤل عن التحقق من هذا النوع من المحتوى وأفقه في ظل التسارع في استخدام التكنولوجيا وتطورها.
وقبل التطرق إلى آليات التحقق من المحتوى الصوتي، تجدر الإشارة إلى ضرورة فهم كيفية توظيف هذا النوع من الوسائط في نشر المعلومات المضللة. إذ يُعد الوعي بأساليب استخدام الصوت لأغراض التضليل خطوة أساسية تمهّد لعملية التحقق وتُسهم في إدراك طبيعة التحديات المرتبطة به. فالتضليل لا يقتصر على نصوص مكتوبة أو صور مركبة، بل يمتد إلى محتوى صوتي قد يبدو للوهلة الأولى موثوقًا، لكنه يحمل في طياته مغالطات أو تحريفًا متعمّدًا للحقائق. وفيما يلي أبرز صور استخدام المحتوى الصوتي في التضليل:
البودكاست المضلل
بعض البودكاستات تنشر معلومات خاطئة أو مغلوطة حول موضوعات سياسية، صحية، أو اجتماعية، مستغلة ثقة الجمهور بصوت المُقدِّم وقلة وجود تدقيق فوري في المعلومة مقارنة بالوسائط المكتوبة، بجانب أن طول الحلقات وعدم توثيق المصادر يُصعّب التحقق من المعلومات.
التسجيلات المفبركة (Deepfake Audio): يتم استخدام تقنيات الذكاء الاصطناعي لتقليد أصوات شخصيات عامة لنشر تصريحات لم يقولوها، هذه التسجيلات تستخدم في حملات تشويه السمعة، أو الترويج لأخبار كاذبة.
القصاصات الصوتية المقتطعة: اقتطاع جزء من تسجيل حقيقي وإخراجه عن سياقه لنقل معنى مختلف أو معاكس للواقع، تُستخدم كثيراً في التضليل السياسي أو الاجتماعي، أو لابتزاز شخص ما.
الرسائل الصوتية على تطبيقات المراسلة- تُستخدم في نشر الشائعات بسرعة عبر منصات مثل واتساب وتيليجرام، حيث يصعب تتبع المصدر.
- غالباً ما تُروّج لمعلومات خاطئة أو نظريات مؤامرة.
كذلك من المهم أن نعرف مدى التباين الموجود بين المحتوى المضلل صوتيًا والموجود في الوسائط الأخرى.
- الصوت يحمل طابعاً شخصياً ويُشعر المستمع بالثقة والقرب، ما يجعل المتلقي أقل نقداً وأكثر تقبلاً.
- صعوبة التحقق الفوري من صحة المعلومات عند سماعها مقارنة بقراءتها.
- الاستغلال العاطفي للصوت يتم من خلال استخدام نبرات درامية أو مؤثرة لتعزيز تصديق المعلومات الكاذبة.
- الانتشار السريع للمحتوى الصوتي إذ تنتشر التسجيلات عبر واتساب وتيليجرام أسرع من قدرة المنصات على حذفها.
- صعوبة تتبع المصادر الأولية، خاصة إذا نُشر المقطع عبر منصات مجهولة.
- التطور السريع لتقنيات التزييف الصوتي، مما يخلق محتوى صوتيا أقرب للمحتوى الحقيقي وبالتالي صعوبة التشكيك فيه.
- صعوبة التحقق من المحتوى الصوتي حيث لا يمكن نسخ الصوت ولصقه في محركات البحث مثل النصوص.
- نقص الأدوات المجانية لكشف التزييف الصوتي وغالبًا ما تكون مكلفة.
في هذا السياق يشاركنا أوس السعدي مؤسس ورئيس مؤسسة التقنية من أجل السلام، وهي منظمة غير ربحية تأسست عام 2016 لكشف الأخبار المزيفة، في لقاء خاص مع شبكة الصحفيين الدوليين أن التحقق من المحتوى الصوتي أصبح مهما في الفترة الأخيرة بسبب زيادة استهلاك المحتوى الصوتي بشكل عام، ومن ثم زيادة الفبركة، مقارنة بالسابق، بالإضافة إلى أن أغلب المؤسسات الإعلامية ليس لديها آليات للتحقق من المحتوى الصوتي، وهذا ما يدركه ناشري الأخبار المضللة ويستغلونه لتحقيق أهدافهم.
أما عن أسباب صعوبة التحقق من المحتوى الصوتي فيرجع السعدي ذلك لسهولة تقليد الأصوات واستخدام المحتوى المولد بالذكاء الاصطناعي، والذي يتم عن طريق مشاركة الذكاء الاصطناعي بأصوات سابقة لشخص ما، ثم يتم كتابة نص يقرأه الذكاء الاصطناعي بنفس الصوت، مما يخلق صوتا مولدا شبيها بالصوت الأصلي.
ويستكمل قائلًا أن المحتوى المولّد بالذكاء الاصطناعي يشكّل تحديًا كبيرًا لمدققي المعلومات، خاصة في مجال التحقق من الصوتيات، حيث تُعد التحديات التقنية في التحقق من المحتوى الصوتي أكثر تعقيدًا مقارنة بالتحقق من الفيديو أو الصور، والتي يمكن أن تصل لنتائج حاسمة باستخدام أدوات واضحة. أما في حالة المحتوى الصوتي، فيتطلب الأمر استخدام عدة أدوات وتقنيات مختلفة، ولا يمكن لشخص واحد القيام بهذه المهمة بمفرده. من الضروري أن يعمل فريق متعدد التخصصات معًا؛ يضم شخصًا يمتلك خبرة تقنية عميقة في الصوتيات، وآخر متخصصًا في أساليب التحقق التقليدية.
التحديات الأخلاقية المرتبطة بنشر المحتوى الصحفي
بالإضافة إلى الضرر الناجم عن الفبركة وتزييف المحتوى من المهم أن ندرك ما تعنيه الفبركة تمامًا ومدى خطورتها، ويُشير السعدي إلى خطورة نشر المقاطع الصوتية المفبركة، موضحًا أن مثل هذه الأفعال قد تُفضي إلى عواقب كارثية، كأن يُقتل شخص نتيجة نشر تسجيل مزيف. لذلك، يؤكد على أهمية التريث قبل النشر، وعدم التضحية بالدقة من أجل السبق الصحفي. كما يُنبّه إلى أن تعديل أي جزء من المحتوى الصوتي يُعد نوعًا من التضليل، حتى وإن لم يكن مقصودًا، ويُفضل في هذه الحالات الإشارة بوضوح إلى أن جزءًا من المقطع قد تم حذفه لأنه لا يخدم سياق المقابلة، أما التعديل أو التلاعب بدون موافقة المصدر فهو يُعتبر فبركة قد تخرج الحديث عن سياقه.
ويؤكد السعدي كذلك على ضرورة التزام الصحفيين بأعلى درجات المهنية، وعدم نشر أي محتوى قبل التحقق من صحته، لأن تداول المحتوى الصوتي بدون تدقيق قد يساهم في نشر معلومات مضللة. ولهذا، من الأفضل دائمًا الرجوع إلى المصدر وسؤاله مباشرة للتأكد ما إذا كان صاحب التسجيل أم لا.
كما شاركنا بعض الخطوات التي يجب اتباعها عند التحقق من أي محتوى صوتي، وتشمل:
- تحديد هوية المتحدث: هل يمكن التحقق من أن الصوت يخص الشخص الذي يُدعى أنه تحدث؟
- تحديد السياق: متى وأين تم تسجيل المحتوى؟
- مقارنة التسجيلات السابقة: هل يتطابق الصوت مع تسجيلات موثوقة سابقة للشخص نفسه؟
- تحديد نوع الكلام في المقطع الصوتي، هل هو تسريب أو لقاء عام.
- البحث عما إذا ذكر الشخص هذا الكلام في بيان سابق أم لا.
- تفريغ النص ثم تحليل النص عبر البحث عن كلمات رئيسية ومقارنته بمصادر موثوقة.
- يمكن استخدام أدوات مثل Audacity أو Sonic Visualiser لتحليل البيانات الوصفية (الميتاداتا) للملفات الصوتية عند مشاركتها عبر البريد الإلكتروني، حيث تحتفظ بالمعلومات مثل تاريخ الإنشاء ومعدل البت والتعديلات. أما عند النشر على منصات التواصل الاجتماعي، فغالبًا ما تُحذف هذه البيانات تلقائيًا.
- الاستعانة بخبراء الصوت لتحليل الترددات وكشف التلاعب عند الحاجة.
- لمعرفة ما إذا كان التسجيل الصوتي مولدًا بالذكاء الاصطناعي أم لا، يشير أوس إلى أن أدوات الذكاء الاصطناعي لا تكشف المحتوى المفبرك بشكل مباشر، لكنها تساعد في التحقق منه. يتم ذلك عبر توليد صوت مشابه لصوت الشخص الأصلي باستخدام نفس العبارات الواردة في التسجيل المشكوك فيه، ثم مقارنة الصوتين. إذا كان هناك تطابق في النبرة والوقفات، يمكن تحليل نغمة الحديث من حيث سرعة الكلام والفواصل بين العبارات، وهل تتماشى مع أسلوب الشخص المعتاد أم لا. ويشير إلى أنه عادةً لا تتضمن المحتويات الصوتية المُولدة بالذكاء الاصطناعي أصواتًا في الخلفية، لكن ذلك لا يعني استحالة وجودها. ويُنصح بمراجعة لقاءات سابقة للشخص ومقارنة مفرداته، لكنته، ومخارج حروفه لمعرفة إن كان يستخدم نفس الأسلوب في الحديث أم لا.
ويضيف السعدي أن جميع الأدوات المتاحة لكشف الأصوات المُولدة بالذكاء الاصطناعي حاليًا ليست مدققة بشكل كامل، وغالبًا ما تُستخدم أدوات توليد الصوت بالذكاء الاصطناعي – والتي تكون مدفوعة – لمحاولة التحقق من صحة التسجيل.
دور المؤسسات الإعلامية والصحفيين في تدقيق المحتوى الصوتيبالإضافة إلى أهمية الحديث عن دور الصحفيين وآليات تدقيق المحتوى الصوتي، يجدر الإشارة إلى دور المؤسسات الإعلامية في التصدي للأمر أيضًا، خاصة مع التطور التكنولوجي الذي يزداد يومًا بعد يوم، شاركنا السعدي أنه من المهم فعل الآتي:
تدريب الصحفيين على تدقيق المحتوى الصوتي: يجب أن يكون الصحفيون على دراية بالأدوات والتقنيات المستخدمة لتحليل الصوت وكشف المعلومات المضللة.
تطوير تقنيات تحقق متقدمة: تعمل بعض المؤسسات الإعلامية على تطوير أدوات جديدة تعتمد على الذكاء الاصطناعي لتحليل المحتوى الصوتي تلقائيًا.
توعية الجمهور: يجب توعية المستهلكين للمحتوى الصوتي بضرورة التحقق من المصادر وعدم تصديق كل ما يسمعونه بدون تمحيص.
يختتم أوس قائلًا أنه مع تزايد الاعتماد على المحتوى الصوتي، تبرز الحاجة لتطوير أدوات تحقق فعالة تواكب تطور الذكاء الاصطناعي، خاصة في ظل محدودية الموارد المتاحة حاليًا، ولضمان دقة المعلومات، يجب أن يتعاون الصحفيون مع خبراء الأمن الرقمي ويعتمدوا تقنيات حديثة لمواجهة التحديات المتزايدة في التحقق من هذا النوع من المحتوى.
الصورة الرئيسية حاصلة على رخصة الاستخدام على أنسبلاش بواسطة سايان مهجي.