۸ راه کاهش تبعیض جنسیتی در گزارش‌های هوش مصنوعی مولد

نوشته Luba Kassova
Mar 15, 2024 در تنوع
Woman with data on face

تعصباتی که به هوش مصنوعی مولد آموزش داده شده، گروه‌هایی را که نمایندگان خوبی ندارند، ساکت می‌کند -- به‌ویژه زنان و زنان رنگین‌پوست. تحریف هم در میان انتخاب‌های دیگری است که این تعصبات به بار می‌آورد. اگر اتاق‌های خبری بخواهند با تبعیض‌های جنسیتی و نژادی در هوش مصنوعی مولد، مقابله کنند، گام اول و مهم برای آنها، تشخیص این تبعیض‌ها و عمق تأثیر آنها بر پوشش خبری است.

برخی از پرسش‌های مهم در این زمینه: دیدگاه چه کسانی از خبرهای تهیه‌شده با هوش مصنوعی مولد و در کل پوشش خبری، غایب است؟ چگونه می‌توان این دیدگاه‌ها را در پوشش خبری گنجانید؟

من برای یافتن پاسخ این پرسش‌ها، با متخصصانی که با هوش مصنوعی کار می‌کنند، درباره پیشنهادهای‌ آنها برای کاهش تبعیض جنسیتی در اخبار تهیه‌شده با هوش مصنوعی مولد گفتگو کردم. بر اساس این فرضیه که تنوع در رهبری و تیم‌های اتاق‌های خبر، به تنوع فکری خواهد انجامید، برخی از این راه حل‌ها بر رفتارهای انسانی متمرکزند -- بر خبرنگارانی که خودشان مسئول استفاده از فن‌آوری هستند. راه‌ حل‌های دیگر، برای استفاده در خود فن‌آوری هوش مصنوعی، پیشنهاد شده‌اند.

 

در ادامه، توصیه‌های این کارشناسان را می‌خوانید:

راه حل‌های سازمانی

 

۱- اطمینان یابید که تیم‌ها و فرایندهای کاری برای تهیه هوش مصنوعی مولد، همه‌شمول و متنوعند

Laura Ellis لارا الیس، رئیس بخش پیش‌بینی فن‌آوری در بی‌بی‌سی، سال گذشته در مصاحبه‌ای بر ضرورت وجود تنوع در تیم‌هایی که در دفاتر خبری و راسنه‌ای کار می‌کنند، تأکید کرد. او گفت: «این چیزی است که از همان ابتدای کار برای تشکیل گروه راهبری‌مان در زمینه هوش مصنوعی مولد، در نظر داشتیم. مشخصاً از خود پرسیدیم: آیا تیم ما به اندازه کافی متنوع است؟ آیا به اندازه کافی، طیف متنوعی از صداها را در این گروه داریم؟»

از این روست که Agnes Stenbom آگنس استنبام، رئیس آزمایشگاه خبری IN/LAB در گروه خبری Schibsted شیبستد در سوئد، پیشنهاد کرده است که گروه‌های متنوعی از افراد در تیم‌ها کار کنند و درباره این که چگونه می‌توان هوش مصنوعی را در خبرنگاری جا داد، بحث کنند.

وی می‌گوید: «اجازه ندهید که کمبودهای کنونی در زمینه تنوع در سازمان خبری شما، برخورد شما را با هوش مصنوعی محدود کند؛ خلاق باشید و تیم‌های همه‌شمول تازه‌ای تشکیل دهید تا از قابلیت هوش مصنوعی بهره ببرید و خطرهای آن را مهار کنید.»

۲- حضور زنان، از جمله زنان رنگین‌پوست، را در بین خبرنگاران و ویراستاران بخش فن‌آوری، افزایش دهید

وقتی ویراستاران درباره این که دیدگاه چه کسانی را بجویند و چه چیزی را منتشر کنند تصمیم می‌گیرند، تجربه‌های زیسته‌شان بر تعریف آنها از گزارش تأثیر دارد.

اگر قرار باشد خبرنگاران در زمینه پوشش خبری هوش مصنوعی مولد، دید خود را وسعت دهند و اعتماد مخاطبان را عمیق‌تر کنند، افزایش حضور زنان در نقش‌های گزارش‌گری و ویراستاری در زمینه هوش مصنوعی، اقدامی کلیدی خواهد بود.

۳- سهم دیدگاه زنان متخصص هوش مصنوعی را در اخبار، افزایش دهید

پروفسور Maite Taboada مایته تابوآدا، از دانشگاه Simon Fraser سایمون فریزر در ونکوور(کانادا)، می‌گوید از این رو که همیشه تنها صدای گروه کوچکی از متخصصان هوش مصنوعی را در اخبار می‌شنود، دچار حس بی‌اعتمادی به اخبار شده است. به باور وی، این متخصصان، اهداف و غرض‌ورزی‌های سیاسی خاص خود را دارند.

او می‌گوید: «سیاست هوش مصنوعی، بر شیوه‌ای که ما هوش مصنوعی را می‌بینیم، تسلط دارد؛ تا جایی که ممکن است حتی این شیوه را وضع کرده باشد، و ما واقعاً نمی‌دانیم که این شیوه جالب است یا خطرناک. شخصاً نمی‌توانم به کارشناسانی که در این زمینه اظهار نظر می‌کنند، اعتماد کنم.»

در بین کسانی که ابعاد و کاربری‌های مختلف فن‌آوری را پوشش می‌دهند، به تنوع بیشتری نیاز است. یک راه آزموده شده برای افزایش تنوع همکاران در یک رشته خاص خبرنگاری، استفاده از سیستم ساده اما مؤثر ِ۵۰:۵۰ بی‌بی‌سی است. از این سیستم برای ردگیری جنسیت و دیگر ویژگی‌های شخصیتی شرکت‌کنندگان در یک برنامه استفاده می‌شود. با شمردن آنها در تهیه گزارش با استفاده از هوش مصنوعی مولد، خبرنگاران و ویراستاران متوجه تعصبات خود می‌شوند، که نخستین گام برای تغییر است.

 

بیشتر بخوانید: ایجاد تحول رسانه ای با طرح ۵۰:۵۰ بی بی سی

راه حل‌هایی برای صنعت رسانه

 

۴- یک بانک اطلاعاتی از زنان متخصص هوش مصنوعی تهیه کنید

روزنامه گاردین مقاله‌ای درباره کمبود حضور مديران زن در صنعت هوش مصنوعی و کمبود صدای زنان در پوشش خبری هوش مصنوعی منتشر کرده بود. خوانندگان و اینفلوئنسرها، در پاسخ به این مطلب، مقالات و تعدادی پُست‌ در رسانه‌های اجتماعی منتشر کردند که حاوی فهرستی از زنانِ متخصص هوش مصنوعی بود که می‌شد در این مقاله با آنها مصاحبه کرد. تهیه یک بانک اطلاعاتی متخصصان زنِ هوش مصنوعی/هوش مصنوعی مولد که امکان هم‌رسانی آن در صنعت خبرنگاری وجود داشته باشد، باعث حفظ منابع (مصاحبه‌شوندگان) خواهد شد و فرصتی واقعی را برای افزایش سهم صدای متخصصان گوناگون در اخبارهوش مصنوعی فراهم خواهد کرد. این کار به نوبه خود، دید ما را نسبت به چالش‌های مختلف هوش مصنوعی مولد، توسعه می‌دهد.

۵- نیاز به کاهش تبعیض‌های جنسیتی و نژادی را در معیارهای تحریریه و دستورالعمل‌های استفاده از هوش مصنوعی مولد، برجسته کنید

از بررسی پنج منشور، معیار و دستورالعمل‌ هوش مصنوعی که از سوی سازمان‌های خبری و نهادهای خبرنگاری تهیه شده‌اند، دریافت می‌شود که در زمینه تشخیصِ ضرورت کاهش تعصبات الگوریتمی در آینده، هیچ گونه هماهنگی و اتفاق نظری وجود ندارد. برخی از اسناد (برای مثال اصول موتور یادگیری ماشینیِ بی‌بی‌سی و اصول راهنمای هوش مصنوعیِ اسوشیتدپرس) این ضرورت را برآورده می‌کنند، اما برخی دیگر از اسناد مثل منشور پاریس پیرامون هوش مصنوعی و خبرنگاری گزارش‌گران بدون مرز و استانداردهای اسوشتیدپرس پیرامون هوش مصنوعی مولد) این هدف را تأمین نمی‌کنند.

از این میان، اصول موتور یادگیری ماشینی بی‌بی‌سی، به‌علت اشاره جامع به وجود تبعیض‌، ضرورت رعايت انصاف و تنوع، برجسته است. این اصول، همچنین سؤال‌های مهمی را مطرح می‌کنند: آیا گروه رسانه ای مورد نظر، افراد تحصیل‌کرده در رشته‌های مختلف را دربرمی‌گیرد؟ آیا در منابع داده‌ها، روند طراحی و ملاحظات دیگر، تنوع فکری در نظر گرفته شده است؟ برای اطمینان‌ یافتن از لحاظ شدن دیدگاه‌های کارشناسان موضوع مورد نظر، چه تدابیری در نظر گرفته شده‌ است؟ برای مقابله با منابع تبعیض غیرمنصفانه داده‌ها، چه گام‌هایی برداشته می‌شود؟

۶- برای درک تعصبات و تعديل محتوای تولیدی، همکاری را در سطح صنعت هوش مصنوعی تسهیل کنید

 

لارا الیس از بی‌بی‌سی مؤکداً گفته است که برای مبارزه موفق با تعصبات الگوریتم‌ها، همکاری نهادهای خبری با یکدیگر ضروری است. وی می‌گوید: «ما باید در زمینه ایجاد قوانینی [در حوزه هوش مصنوعی مولد] همکاری کنیم و با هم صادق باشیم، چون مشترکات بسیاری داریم و همکاری بهتر از آن است که هر یک از ما در فضای کاری محدود خودمان، به شکلی جدا از دیگران، آنچه را همواره انجام داد‌ه‌ایم، تکرار کنیم.»

او سال گذشته پلتفرمی را به‌نام سالن هوش مصنوعی برای خبرنگاران (AI Salon for Journalists) ایجاد کرد که برای سازمان‌های خبری مختلف، زمینه هم‌رسانی چالش‌ها و راه حل‌های احتمالی را فراهم کرده است.

 

بیشتر بخوانید: هدایت هوش مصنوعی به‌سوی ایجاد تغییرات مثبت در اتاق خبر

 

راه حل‌هایی با محور فن‌آوری

 

۷- از هوش مصنوعی برای سنجش سهمِ صدای زنان در اخبار، ترجیحاً به‌صورت مقطعی استفاده کنید

هوش مصنوعی می‌تواند در روشن کردن شکاف‌های جنسیتی در پوشش خبری، مؤثر باشد. پروفسور Nicholas Diakopoulos نیکلاس دیاکوپولوس، استاد ارتباطات در دانشگاه Northwestern (نورث‌وسترن شیکاگو) در پاسخ به پرسشی درباره ابزارهای هوش مصنوعی برای حمایت از گسترش برابری جنسیتی در اخبار، به ابزار ردیاب شکاف جنسیتی که در دانشگاه سایمون فریزر ساخته شده است، اشاره کرد: «ابزارهای این‌چنینی می‌توانند توجه را به موضوع جلب کنند و در حالت مطلوب، می‌توانند برای عملکرد بهتر، به رسانه‌ها فشار بیاورند.» تابودا که مسئول این طرح است، می‌گوید سازمان‌های خبری بیشتری مشغول ثبت‌نام برای استفاده از این ابزار هستند و این، دلگرم‌کننده است: « طی حدود یک سال گذشته، یک تحول جالب رخ داده است؛ همه می‌خواهند نام‌نویسی کنند و در فهرست باشند. فکر می‌کنم این حساسیت وجود دارد که این نوع محاسبات به درآمدزایی کمک می‌کند.» در صورت امکان، از آن دسته سیستم‌های هوش مصنوعی استفاده کنید که هنگام اندازه‌گیری سهمِ صدای زنان در اخبار، نژاد و جنسیت را هم پوشش می‌دهند. این روشی است که سازمان MediaCatch در دانمارک برای رادیو تلویزیون‌ها و تهیه‌کنندگان اخبار به کار می‌برد، هرچند هنوز در حال پالایشِ روش‌شناسی‌ خود است.

۸- هوش مصنوعی را برای مبارزه با آزار و اذیت در فضای مجازی به‌کار گیرید. آزار در فضای مجازی، مانع بزرگی در راه پوشش خبری منصفانه جنسیتی است

آزار و اذیت جنسیتی خبرنگاران و عوامل تهیه اخبار بخشی از شکاف کنونی در امنیت جنسیتی است و بر تمایل زنان به ادامه کار خبرنگاری یا اظهار نظر در گزارش‌های خبری، تأثیر منفی دارد.

Lynette Mukami لینت موکامی که کارش در گروه رسانه‌ای Nation در کنیا بر ویرایش گزارش‌های تحلیلی و شبکه‌های اجتماعی متمرکز است، چندی پیش در یک گفتگو احتمال استفاده اتاق‌های خبر از هوش مصنوعی را مطرح کرد و گفت زنان، به‌خصوص زنانِ سیاست‌مدار، در پلتفرم‌های مختلف، بیش از مردان هدف آزار و اذیت هستند. او می‌گوید: «اگر بتوانید ابزاری بسازید که محتوای زن‌ستیز را فیلتر کند، کار ما بسیار آسانتر خواهد شد.»

چند ابزار هوش مصنوعی از جمله TRFilter از بنیاد تامسون رویترز، Google Jigsaw، و Perspective API  برای کمک به خبرنگاران در مقابله با آزار و اذیت در فضای مجازی ساخته شده‌اند.

اگر ما متولی تنوع دیدگاه‌ها در پوشش خبری باشیم و از هوش مصنوعی برای کمک به تشخیص و اصلاح نقاط کور خود استفاده کنیم، گزارش‌هایمان در ذهن مخاطبان بیشتری طنین خواهند انداخت. مگر در نهایت، همه همین را نمی‌خواهیم؟»

 

 

تصویر از Pexels، عکاس: cottonbro studio