تعصباتی که به هوش مصنوعی مولد آموزش داده شده، گروههایی را که نمایندگان خوبی ندارند، ساکت میکند -- بهویژه زنان و زنان رنگینپوست. تحریف هم در میان انتخابهای دیگری است که این تعصبات به بار میآورد. اگر اتاقهای خبری بخواهند با تبعیضهای جنسیتی و نژادی در هوش مصنوعی مولد، مقابله کنند، گام اول و مهم برای آنها، تشخیص این تبعیضها و عمق تأثیر آنها بر پوشش خبری است.
برخی از پرسشهای مهم در این زمینه: دیدگاه چه کسانی از خبرهای تهیهشده با هوش مصنوعی مولد و در کل پوشش خبری، غایب است؟ چگونه میتوان این دیدگاهها را در پوشش خبری گنجانید؟
من برای یافتن پاسخ این پرسشها، با متخصصانی که با هوش مصنوعی کار میکنند، درباره پیشنهادهای آنها برای کاهش تبعیض جنسیتی در اخبار تهیهشده با هوش مصنوعی مولد گفتگو کردم. بر اساس این فرضیه که تنوع در رهبری و تیمهای اتاقهای خبر، به تنوع فکری خواهد انجامید، برخی از این راه حلها بر رفتارهای انسانی متمرکزند -- بر خبرنگارانی که خودشان مسئول استفاده از فنآوری هستند. راه حلهای دیگر، برای استفاده در خود فنآوری هوش مصنوعی، پیشنهاد شدهاند.
در ادامه، توصیههای این کارشناسان را میخوانید:
راه حلهای سازمانی
۱- اطمینان یابید که تیمها و فرایندهای کاری برای تهیه هوش مصنوعی مولد، همهشمول و متنوعند
Laura Ellis لارا الیس، رئیس بخش پیشبینی فنآوری در بیبیسی، سال گذشته در مصاحبهای بر ضرورت وجود تنوع در تیمهایی که در دفاتر خبری و راسنهای کار میکنند، تأکید کرد. او گفت: «این چیزی است که از همان ابتدای کار برای تشکیل گروه راهبریمان در زمینه هوش مصنوعی مولد، در نظر داشتیم. مشخصاً از خود پرسیدیم: آیا تیم ما به اندازه کافی متنوع است؟ آیا به اندازه کافی، طیف متنوعی از صداها را در این گروه داریم؟»
از این روست که Agnes Stenbom آگنس استنبام، رئیس آزمایشگاه خبری IN/LAB در گروه خبری Schibsted شیبستد در سوئد، پیشنهاد کرده است که گروههای متنوعی از افراد در تیمها کار کنند و درباره این که چگونه میتوان هوش مصنوعی را در خبرنگاری جا داد، بحث کنند.
وی میگوید: «اجازه ندهید که کمبودهای کنونی در زمینه تنوع در سازمان خبری شما، برخورد شما را با هوش مصنوعی محدود کند؛ خلاق باشید و تیمهای همهشمول تازهای تشکیل دهید تا از قابلیت هوش مصنوعی بهره ببرید و خطرهای آن را مهار کنید.»
۲- حضور زنان، از جمله زنان رنگینپوست، را در بین خبرنگاران و ویراستاران بخش فنآوری، افزایش دهید
وقتی ویراستاران درباره این که دیدگاه چه کسانی را بجویند و چه چیزی را منتشر کنند تصمیم میگیرند، تجربههای زیستهشان بر تعریف آنها از گزارش تأثیر دارد.
اگر قرار باشد خبرنگاران در زمینه پوشش خبری هوش مصنوعی مولد، دید خود را وسعت دهند و اعتماد مخاطبان را عمیقتر کنند، افزایش حضور زنان در نقشهای گزارشگری و ویراستاری در زمینه هوش مصنوعی، اقدامی کلیدی خواهد بود.
۳- سهم دیدگاه زنان متخصص هوش مصنوعی را در اخبار، افزایش دهید
پروفسور Maite Taboada مایته تابوآدا، از دانشگاه Simon Fraser سایمون فریزر در ونکوور(کانادا)، میگوید از این رو که همیشه تنها صدای گروه کوچکی از متخصصان هوش مصنوعی را در اخبار میشنود، دچار حس بیاعتمادی به اخبار شده است. به باور وی، این متخصصان، اهداف و غرضورزیهای سیاسی خاص خود را دارند.
او میگوید: «سیاست هوش مصنوعی، بر شیوهای که ما هوش مصنوعی را میبینیم، تسلط دارد؛ تا جایی که ممکن است حتی این شیوه را وضع کرده باشد، و ما واقعاً نمیدانیم که این شیوه جالب است یا خطرناک. شخصاً نمیتوانم به کارشناسانی که در این زمینه اظهار نظر میکنند، اعتماد کنم.»
در بین کسانی که ابعاد و کاربریهای مختلف فنآوری را پوشش میدهند، به تنوع بیشتری نیاز است. یک راه آزموده شده برای افزایش تنوع همکاران در یک رشته خاص خبرنگاری، استفاده از سیستم ساده اما مؤثر ِ۵۰:۵۰ بیبیسی است. از این سیستم برای ردگیری جنسیت و دیگر ویژگیهای شخصیتی شرکتکنندگان در یک برنامه استفاده میشود. با شمردن آنها در تهیه گزارش با استفاده از هوش مصنوعی مولد، خبرنگاران و ویراستاران متوجه تعصبات خود میشوند، که نخستین گام برای تغییر است.
بیشتر بخوانید: ایجاد تحول رسانه ای با طرح ۵۰:۵۰ بی بی سی
راه حلهایی برای صنعت رسانه
۴- یک بانک اطلاعاتی از زنان متخصص هوش مصنوعی تهیه کنید
روزنامه گاردین مقالهای درباره کمبود حضور مديران زن در صنعت هوش مصنوعی و کمبود صدای زنان در پوشش خبری هوش مصنوعی منتشر کرده بود. خوانندگان و اینفلوئنسرها، در پاسخ به این مطلب، مقالات و تعدادی پُست در رسانههای اجتماعی منتشر کردند که حاوی فهرستی از زنانِ متخصص هوش مصنوعی بود که میشد در این مقاله با آنها مصاحبه کرد. تهیه یک بانک اطلاعاتی متخصصان زنِ هوش مصنوعی/هوش مصنوعی مولد که امکان همرسانی آن در صنعت خبرنگاری وجود داشته باشد، باعث حفظ منابع (مصاحبهشوندگان) خواهد شد و فرصتی واقعی را برای افزایش سهم صدای متخصصان گوناگون در اخبارهوش مصنوعی فراهم خواهد کرد. این کار به نوبه خود، دید ما را نسبت به چالشهای مختلف هوش مصنوعی مولد، توسعه میدهد.
۵- نیاز به کاهش تبعیضهای جنسیتی و نژادی را در معیارهای تحریریه و دستورالعملهای استفاده از هوش مصنوعی مولد، برجسته کنید
از بررسی پنج منشور، معیار و دستورالعمل هوش مصنوعی که از سوی سازمانهای خبری و نهادهای خبرنگاری تهیه شدهاند، دریافت میشود که در زمینه تشخیصِ ضرورت کاهش تعصبات الگوریتمی در آینده، هیچ گونه هماهنگی و اتفاق نظری وجود ندارد. برخی از اسناد (برای مثال اصول موتور یادگیری ماشینیِ بیبیسی و اصول راهنمای هوش مصنوعیِ اسوشیتدپرس) این ضرورت را برآورده میکنند، اما برخی دیگر از اسناد مثل منشور پاریس پیرامون هوش مصنوعی و خبرنگاری گزارشگران بدون مرز و استانداردهای اسوشتیدپرس پیرامون هوش مصنوعی مولد) این هدف را تأمین نمیکنند.
از این میان، اصول موتور یادگیری ماشینی بیبیسی، بهعلت اشاره جامع به وجود تبعیض، ضرورت رعايت انصاف و تنوع، برجسته است. این اصول، همچنین سؤالهای مهمی را مطرح میکنند: آیا گروه رسانه ای مورد نظر، افراد تحصیلکرده در رشتههای مختلف را دربرمیگیرد؟ آیا در منابع دادهها، روند طراحی و ملاحظات دیگر، تنوع فکری در نظر گرفته شده است؟ برای اطمینان یافتن از لحاظ شدن دیدگاههای کارشناسان موضوع مورد نظر، چه تدابیری در نظر گرفته شده است؟ برای مقابله با منابع تبعیض غیرمنصفانه دادهها، چه گامهایی برداشته میشود؟
۶- برای درک تعصبات و تعديل محتوای تولیدی، همکاری را در سطح صنعت هوش مصنوعی تسهیل کنید
لارا الیس از بیبیسی مؤکداً گفته است که برای مبارزه موفق با تعصبات الگوریتمها، همکاری نهادهای خبری با یکدیگر ضروری است. وی میگوید: «ما باید در زمینه ایجاد قوانینی [در حوزه هوش مصنوعی مولد] همکاری کنیم و با هم صادق باشیم، چون مشترکات بسیاری داریم و همکاری بهتر از آن است که هر یک از ما در فضای کاری محدود خودمان، به شکلی جدا از دیگران، آنچه را همواره انجام دادهایم، تکرار کنیم.»
او سال گذشته پلتفرمی را بهنام سالن هوش مصنوعی برای خبرنگاران (AI Salon for Journalists) ایجاد کرد که برای سازمانهای خبری مختلف، زمینه همرسانی چالشها و راه حلهای احتمالی را فراهم کرده است.
بیشتر بخوانید: هدایت هوش مصنوعی بهسوی ایجاد تغییرات مثبت در اتاق خبر
راه حلهایی با محور فنآوری
۷- از هوش مصنوعی برای سنجش سهمِ صدای زنان در اخبار، ترجیحاً بهصورت مقطعی استفاده کنید
هوش مصنوعی میتواند در روشن کردن شکافهای جنسیتی در پوشش خبری، مؤثر باشد. پروفسور Nicholas Diakopoulos نیکلاس دیاکوپولوس، استاد ارتباطات در دانشگاه Northwestern (نورثوسترن شیکاگو) در پاسخ به پرسشی درباره ابزارهای هوش مصنوعی برای حمایت از گسترش برابری جنسیتی در اخبار، به ابزار ردیاب شکاف جنسیتی که در دانشگاه سایمون فریزر ساخته شده است، اشاره کرد: «ابزارهای اینچنینی میتوانند توجه را به موضوع جلب کنند و در حالت مطلوب، میتوانند برای عملکرد بهتر، به رسانهها فشار بیاورند.» تابودا که مسئول این طرح است، میگوید سازمانهای خبری بیشتری مشغول ثبتنام برای استفاده از این ابزار هستند و این، دلگرمکننده است: « طی حدود یک سال گذشته، یک تحول جالب رخ داده است؛ همه میخواهند نامنویسی کنند و در فهرست باشند. فکر میکنم این حساسیت وجود دارد که این نوع محاسبات به درآمدزایی کمک میکند.» در صورت امکان، از آن دسته سیستمهای هوش مصنوعی استفاده کنید که هنگام اندازهگیری سهمِ صدای زنان در اخبار، نژاد و جنسیت را هم پوشش میدهند. این روشی است که سازمان MediaCatch در دانمارک برای رادیو تلویزیونها و تهیهکنندگان اخبار به کار میبرد، هرچند هنوز در حال پالایشِ روششناسی خود است.
۸- هوش مصنوعی را برای مبارزه با آزار و اذیت در فضای مجازی بهکار گیرید. آزار در فضای مجازی، مانع بزرگی در راه پوشش خبری منصفانه جنسیتی است
آزار و اذیت جنسیتی خبرنگاران و عوامل تهیه اخبار بخشی از شکاف کنونی در امنیت جنسیتی است و بر تمایل زنان به ادامه کار خبرنگاری یا اظهار نظر در گزارشهای خبری، تأثیر منفی دارد.
Lynette Mukami لینت موکامی که کارش در گروه رسانهای Nation در کنیا بر ویرایش گزارشهای تحلیلی و شبکههای اجتماعی متمرکز است، چندی پیش در یک گفتگو احتمال استفاده اتاقهای خبر از هوش مصنوعی را مطرح کرد و گفت زنان، بهخصوص زنانِ سیاستمدار، در پلتفرمهای مختلف، بیش از مردان هدف آزار و اذیت هستند. او میگوید: «اگر بتوانید ابزاری بسازید که محتوای زنستیز را فیلتر کند، کار ما بسیار آسانتر خواهد شد.»
چند ابزار هوش مصنوعی از جمله TRFilter از بنیاد تامسون رویترز، Google Jigsaw، و Perspective API برای کمک به خبرنگاران در مقابله با آزار و اذیت در فضای مجازی ساخته شدهاند.
اگر ما متولی تنوع دیدگاهها در پوشش خبری باشیم و از هوش مصنوعی برای کمک به تشخیص و اصلاح نقاط کور خود استفاده کنیم، گزارشهایمان در ذهن مخاطبان بیشتری طنین خواهند انداخت. مگر در نهایت، همه همین را نمیخواهیم؟»
تصویر از Pexels، عکاس: cottonbro studio