دليل المبادئ الأخلاقية لاستخدام أدوات الذكاء الاصطناعي

Sep 24, 2024 in موضوعات متخصصة
صورة

بعدما حصلتُ على زمالة صحفية في جامعة Oxford بالمملكة المتحدة، دخلتُ بنقاشات حوارية ضمن شبكة أكسفورد للصحافة (OCJN)، تركزت على فهم التحديات التي يواجهها الصحفيون في مجالهم ومن بينها موضوع الذكاء الاصطناعي والقضايا الأخلاقية. 

ساهمت هذه النقاشات والزمالة وغيرها على مدى السنوات القليلة الماضية، في فهم الأثر السلبي المحتمل لتقنيات الذكاء الاصطناعي في مجال الصحافة والإعلام. تشمل هذه المناقشات المخاوف من تقليص دور الصحفيين والصحفيات في عملهم، وخسارة وظائفهم، وإضعاف البعد الإنساني في التغطية الإعلامية. بالإضافة إلى ذلك، يُشير البعض إلى مخاوف من تفشي المعلومات الخاطئة والمضللة نتيجة لاستخدام التكنولوجيا في إنتاج ونشر الأخبار.

مع ذلك، يجب أن نشير إلى أن الذكاء الاصطناعي لم يأت ليحل محل الصحفيين والصحفيات، بل لدعم وتطوير مسار عملهم. يمكن أن يساعد الذكاء الاصطناعي في تحسين عملية البحث عن المعلومات، وفلترة البيانات، وتحليل الأنماط، وتوفير الوقت والجهد في جمع المعلومات. بالتالي، يمكن للصحفيين والصحفيات استخدام هذه التكنولوجيا لتعزيز جودة تقاريرهم وزيادة إنتاجيتهم.

فعند استخدام التكنولوجيا، يجب أن تكون هناك إرشادات وأخلاقيات توجه سلوك الذكاء الاصطناعي. تتضمن أخلاقيات الذكاء الاصطناعي التحديد الواضح لكيفية تصميم أنظمة الذكاء الاصطناعي واستخدامها بطرق تحقق الفوائد الجماعية وتقلل من المخاطر والآثار السلبية. يجب أن يشارك الصحفيون والصحفيات في توجيه هذه الأخلاقيات ومراقبة تنفيذها بعناية.

في هذا المقال، تقدم شبكة الصحفيين الدوليين دليلاً للمبادئ الأخلاقية المرتبطة باستخدام أدوات الذكاء الاصطناعي في التحقيقات الاستقصائية:

بداية، تعرف أخلاقيات الذكاء الاصطناعي بأنها الإرشادات التي تحدّد كيف يتم تصميم أنظمة الذكاء الاصطناعي وطريقة استخدامها لتحقيق الفوائد الجماعية وتقلل من المخاطر والآثار السلبية. 

وعليه، ينبغي على الصحفيين الاستقصائيين أن يكونوا مدركين للاعتبارات الأخلاقية عند استخدام التطبيقات التي تعتمد على الذكاء الاصطناعي من خلال اتباع النصائح التالية:

  • خصوصية البيانات: تعتمد تقنيات الذكاء الاصطناعي على كميات كبيرة من البيانات الشخصية. يجب على الصحفيين أن يحترموا خصوصية الأفراد وأن يعالجوا البيانات بطرق تحمي الخصوصية وتحافظ على سرية المعلومات الشخصية حتى لا يتعرضوا لمحاكمات مستقبلاً.
  • الشفافية والإفصاح: ينبغي على الصحفيين الاستقصائيين أن يكونوا شفافين في استخدام التطبيقات القائمة على الذكاء الاصطناعي، وأن يفصحوا عن طرق العمل والتقنيات المستخدمة. يجب أن يكونوا قادرين على شرح كيفية استخدام التقنية وتأثيرها على عملهم.
  • تجنب التلاعب والتضخيم: يجب على الصحفيين تجنب التلاعب بالبيانات أو تضخيم النتائج لتحقيق فرضية التحقيق. كذلك يجب أن يكونوا دقيقين وموضوعيين في تقديم المعلومات وتحليلها والابتعاد عن كل ما هو غير دقيق.
  • التوازن بين أدوات الذكاء والقدرات البشرية: يجب على الصحفيين الحذر عند استخدام تقنيات الذكاء الاصطناعي، وأن يكونوا واعين لقدراتها وقيودها. ينبغي أن يحافظوا على دور الصحافة التقليدية في تقديم القصص والتحليلات الشاملة التي تستند إلى الفهم البشري والسياق الثقافي.
  • التبعات القانونية: يطرح استخدام تقنيات الذكاء الاصطناعي تساؤلات قانونية وأخلاقية بشأن المسؤولية. يجب على الصحفيين أن يفهموا التأثيرات القانونية المحتملة وأن يكونوا مستعدين لتحمل المسؤولية عن استخدامها والتداعيات المحتملة.

خلال الفترة الماضية، برهنت تقنيات الذكاء الاصطناعي أنها شديدة الفعالية على صعيد أداء مهام عملية؛ ولكن التحدي يتمثل الآن في تخطي التحديات والصراعات الأخلاقية الرئيسية في مجال الذكاء الاصطناعي والمتمثلة في:

التحيز الآلي: نظراً لاستناد نماذج الذكاء الاصطناعي إلى البيانات، يمكن أن ينتج عنها تحيز في القرارات. على سبيل المثال، إذا كانت بيانات التدريب تحتوي على تمثيل غير كافٍ لفئات معينة، فقد تقوم النماذج باتخاذ قرارات محتملة التحيز ضد هذه الفئات.

وعليه يجب أن يتأكد الصحفيون من أن أدوات الذكاء الاصطناعي يتم تصميمها وتدريبها واختبارها للتخفيف من التحيز وتعزيز الإنصاف، وليس العكس. هنا من المهم التشديد على التأكد من دقة البيانات قبل استخدامها في تطوير أدوات قائمة على الذكاء الاصطناعي، وعلى ضرورة مراقبة ومراجعة النتائج التي تنتجها هذه الأدوات من قبل العنصر البشري.

قضايا الخصوصية: جمع واستخدام كميات كبيرة من البيانات الشخصية يشكلان تحديًا كبيرًا فيما يتعلق بحماية خصوصية الأفراد. قد يكون من الصعب ضمان ألا تتسرب البيانات أو تستخدم بشكل غير مشروع.

يعتمد الذكاء الاصطناعي على كميات هائلة من البيانات، بما في ذلك معلومات المستخدم الشخصية، لأداء مهام مختلفة مثل التخصيص والتحليلات. يجب علينا كصحفيين التعامل مع بيانات المستخدم بمسؤولية كبيرة، والالتزام بلوائح الخصوصية، والحصول على موافقة من المستخدمين فيما يتعلق بجمع البيانات واستخدامها. 

المسؤولية القانونية: في حالة وقوع حادثة أو خطأ ناتج عن تقنيات الذكاء الاصطناعي، يمكن أن تطرح تحديات قانونية تتعلق بالمسؤولية والتعويض. وعليه يجب علينا كصحفيين التعاون بين مختلف الاختصاصات مثل الأخصائيين في الأخلاقيات، والقانونيين، وعلماء البيانات لضمان تقديم تقنيات الذكاء الاصطناعي بشكل أخلاقي. وتتطلب معالجة كل المخاوف الأخلاقية نهجاً استباقياً واضحاً، يرتكز على الالتزام بالمبادئ الأخلاقية الإعلامية، تطوير الوعي بالذكاء الاصطناعي من قبل المبرمجين والشركات، إجراء عمليات تدقيق منتظمة لأدوات الذكاء الاصطناعي، تفعيل وتطوير عملية تدقيق المعلومات، تعزيز التعاون بين فريق العمل ومع المؤسسات الأخرى، التقييم الدائم للعمل والانفتاح الدائم على التغيير.

وفي مقابلة مع شبكة الصحفيين الدوليين، شرح الخبير وعالم البيانات في قسم بحوث الجمهور في "BBC World" محمد حسين، الاعتبارات الأخلاقية التي يجب مراعاتها وأخذها في الاعتبار عند استخدام الذكاء الاصطناعي من قبل الصحفيين في عملهم. ويعتبر حسين أن الالتزام بهذه الاعتبارات يساعد الصحفيين في استخدام الذكاء الاصطناعي بشكل أخلاقي ومسؤول منها: 

  • فهم النتائج التي تقدمها أدوات الذكاء الاصطناعي: يجب على الصحفي أن يكون قادرًا على فهم وتفسير النتائج التي يقدمها الذكاء الاصطناعي وأدواته. يجب عليه أن يكون على دراية بكيفية عمل هذه الأدوات والنماذج التي تستخدمها ومعرفة حدودها وقدراتها.
  • التحقق من صحة المعلومات المقدمة من هذه الأدوات: يجب على الصحفيين أن يقوموا بالتحقق من صحة المعلومات التي يحصلون عليها من الذكاء الاصطناعي، بغض النظر عن نوعها. يجب أن يتأكدوا من مصداقية المصادر وصحة البيانات المستخدمة والتأكد من عدم وجود أخطاء أو تحيزات في النتائج.
  • الوضوح والشرح: ينبغي على الصحفيين أن يكونوا قادرين على شرح كيف وصلت أدوات الذكاء الاصطناعي التي يستخدمونها إلى النتائج التي تقدمها، ولماذا تم تقديم تلك المعلومات. يجب أن يكونوا قادرين على توضيح العملية والمنهجية التي تم اتباعها وكيف تم استخدام الذكاء الاصطناعي في العمل الصحفي ومصدر هذه المعلومات.
  • الأخلاق والقوانين: يجب على الصحفيين الاستقصائيين أن يلتزموا بالأخلاق الصحفية والقوانين المتعلقة بحقوق الخصوصية والملكية الفكرية وأي قوانين تتعلق بعمل الصحفيين خاصة وأن جميع ما تتضمنه أدوات الذكاء الاصطناعي مبني على تدريب مسبق.

وقدم حسين الذي يدرس ماجستير العلوم في هندسة التعلم الآلي وأنظمة الذكاء الاصطناعي من جامعة Cambridge Spark بالمملكة المتحدة إرشادات لاستخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي والتي تشمل:

  • تجنب إلحاق الضرر بالآخرين: يجب على الصحفيين أن يستخدموا أدوات الذكاء الاصطناعي بطريقة تجنب إلحاق الضرر بالآخرين أو إيذائهم بدون ضرورة. يجب أن يكون لديهم وعي تام بالتأثيرات السلبية المحتملة وأن يتخذوا الاحتياطات اللازمة لتجنبها.
  • الاستفادة العامة وليست الشخصية: يجب على الصحفيين التأكد من أن استخدام أدوات الذكاء الاصطناعي يعود بالنفع على المجتمع ككل، وأن يكون لها فوائد تتجاوز الفوائد الشخصية للأفراد الذين يستخدمونها. يجب أن تركز الصحافة الاستقصائية على قضايا تهم المجتمع وتتعلق بالمصلحة العامة.
  • المصداقية: يجب أن تكون المصادر موثوقة ومدعمة بالأدلة وأن يتم التحقق من صحتها قبل نشرها باستخدام أدوات الذكاء الاصطناعي. 
  • الوعي بقيود التقنية: يجب أن يدرك الصحفيون أن أدوات الذكاء الاصطناعي تعتمد على البيانات والنماذج التي تم تدريبها عليها، وبالتالي فإنها يمكن أن تحتوي على أخطاء أو تحيزات أو معلومات غير صحيحة. يجب على الصحفيين أن يكونوا حذرين ويقوموا بالتحقق من صحة المعلومات.
  • التحيز والتمييز: يمكن لتقنيات الذكاء الاصطناعي أن تعكس التحيزات الموجودة في البيانات المستخدمة في تدريبها، مما يؤدي إلى انحياز في النتائج أو تمييز غير مبرر. يتطلب من الصحفيين أن يكونوا حذرين في استخدامهم لهذه التقنيات وأن يعملوا على تصحيح هذه التحيزات.
  • الانتباه من الأخطاء: إذا كانت المدخلات المستخدمة في تدريب أدوات الذكاء الاصطناعي تحتوي على معلومات مغلوطة أو متحيزة، فمن الممكن أن تنتج هذه الأدوات نتائج تحمل الأخطاء والتحيزات نفسها. يجب أن يكون الصحفيون على علم بذلك وأن يكونوا حذرين في استخدام الأدوات الذكية وتفسير النتائج التي تولدها.
  • تحقق من مصدر البيانات والمعلومات: ينبغي على الصحفيين التحقق من مصدر البيانات التي يستخدمونها في أدوات الذكاء الاصطناعي وضمان صحتها وموثوقيتها. يجب أن يتم التحقق من صحة المعلومات وتوثيقها قبل استخدامها في التقارير الصحفية.

في هذا التدريب المجاني عبر الإنترنت يمكن للصحفيين الغوص العميق في إمكانات الذكاء الاصطناعي للصحفيين ومعرفة التعلم الآلي، وهو برنامج من  تصميم JournalismAI وبدعم من مبادرة أخبار جوجل. من خلال أمثلة من التطبيقات الصحفية، ستساعدك هذه الدورة على فهم ماهية التعلم الآلي، وكيف يعمل، وكيف يمكنك استخدامه في تقاريرك.

وفق جوناثان ستراي الأستاذ في كلية الدراسات العليا للصحافة، جامعة كولومبيا بالولايات المتحدة الأميركية، يمكن الحفاظ على القيم والأخلاقيات في الصحافة عند استخدام أدوات الذكاء الاصطناعي بما يلي:

  • الانتباه من توجيه البيانات: يمكن أن تتأثر نتائج أنظمة الذكاء الاصطناعي بالبيانات التي تُظهر بوضوح الانحيازات القائمة حاليًا في العالم الحقيقي. يحدث انحياز في نتائج أنظمة الذكاء الاصطناعي عندما تكون البيانات التي يتم توفيرها للتعلّم منها غير شاملة بما يكفي، وبالتالي تبدأ الأنظمة في توجيه هذه البيانات نحو نتائج معيَّنة. ولأن البيانات هي وسيلة التعلّم الوحيدة لأنظمة الذكاء الاصطناعي، قد ينتهي بها الأمر بنسخ أي نتائج غير متكافئة أو انحيازية يجدها ضمن المعلومات الأصلية.
  • التبعات القانونية: المطورون والمستخدمون على حد سواء مسؤولون عن الآثار الاجتماعية والأخلاقية للذكاء الاصطناعي ويجب أن يتحملوا المسؤولية عن أفعالهم.

 

ويوجد 7 أمور يجب مراعاتها قبل اعتماد الذكاء الاصطناعي في العمل الصحفي. هذه الدورة المجانية مقدمة من مبادرة Google News Initiative Logo، سوف تساعدك على فهم ماهية الذكاء الاصطناعي وقدرة الأنظمة على تعلم البيانات واستخلاص الأنماط واتخاذ القرارات بناءً على تلك البيانات. توفر الدورة تعريفًا واضحًا لكل من التعلم الآلي والذكاء الاصطناعي، ويوفر أمثلة وتوضيحات عملية. 

وفيما يلي أفضل الممارسات لأخلاقيات الذكاء الاصطناعي والتي تشمل العديد من الإرشادات والنهج الذي يمكن أن يساعد في تحقيق استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي. إليك بعض أفضل الممارسات:

  • شفافية البيانات: يجب أن يتم الكشف عن مصادر البيانات المستخدمة في تدريب نماذج الذكاء الاصطناعي والخوارزميات. هذا يساعد في تجنب التمييز والظلم.
  • تنويع المجموعات البيانات: استخدام مجموعات بيانات تكون متنوعة وممثلة لمختلف الثقافات والجنسيات والخلفيات يساعد في تجنب التمييز والانحياز.
  • المساءلة والشفافية: تأكيد أن هناك آليات للمساءلة عند وقوع أخطاء أو تجاوزات في استخدام الذكاء الاصطناعي. يجب أن تكون الجهات المعنية ملزمة بالشفافية في تصحيح الأخطاء وتوضيح الأمور.
  • التعلم المستمر: تشجيع المطورين والباحثين على مواصلة التعلم ومراقبة التطورات في مجال أخلاقيات الذكاء الاصطناعي.
  • تقديم الموافقة: توفير إجراءات موافقة مستنيرة عند جمع البيانات الشخصية واستخدامها في تطبيقات الذكاء الاصطناعي.
  • تطوير إطار أخلاقي: وضع إطار أخلاقي ومبادئ توجيهية داخل المنظمات والمؤسسات لضمان الامتثال لمبادئ الأخلاقيات.
  • توجيه متعدد التخصصات: التعاون بين مختلف الاختصاصات مثل الأخصائيين في الأخلاقيات، والقانونيين، وعلماء البيانات لضمان تقديم تقنيات الذكاء الاصطناعي بشكل أخلاقي.
  • مراجعات دورية: إجراء مراجعات دورية للنظم والخوارزميات للتحقق من الامتثال لمبادئ الأخلاقيات وإدراك أي تحسينات ضرورية.
  • مشاركة المعلومات: مشاركة الأبحاث والدروس المستفادة من تجارب سابقة بشكل عام للتعلم المشترك والتحسين المستمر.
  • التوعية: توعية المستخدمين والجمهور بأخلاقيات استخدام التكنولوجيا والذكاء الاصطناعي.

في هذه الدورة المجانية سوف تتعرف على أساسيات الذكاء الاصطناعي، كذلك تغطي الدورة العديد من المفاهيم الأساسية في مجال الذكاء الاصطناعي. سوف تساعد الصحفيين على فهم المفاهيم الأساسية للذكاء الاصطناعي وأنواع الروبوتات المختلفة. كما ستقدم شرحًا لمسارات الذكاء الاصطناعي المختلفة، بما في ذلك التعلم الآلي والتعلم العميق. ستتعرف أيضًا على مفهوم الرؤية الحاسوبية وتطبيقاتها، بالإضافة إلى تقنيات معالجة اللغات الطبيعية وكيفية تطبيق آليات التعلم الآلي في حل المشكلات وتحليل البيانات (Machine Learning).

ختاماً، إن الالتزام بالمبادئ الأخلاقية يسهم بشكل كبير في تعزيز استخدام الذكاء الاصطناعي بشكل مسؤول وعادل وقابل للمساءلة. وبالتالي، يتيح اتباع هذه الإرشادات دعم وتعزيز الاستخدام الأخلاقي للذكاء الاصطناعي والحماية من الآثار السلبية.

الصورة الرئيسية حاصلة على رخصة الاستخدام على أنسبلاش.


Read more articles by

IJNet contributor

Ali Al Ibrahim

Ali Al Ibrahim is an investigative journalist and co-founder of SIRAJ. He has won the 2018 BBC Young Reporter award, the GIJN award for investigative journalists, and the Samir Kassir Award for Freedom of the Press. Al Ibrahim is also a researcher and trainer in investigative journalism, and TED global fellow.