شیوه‌هایی برای مبارزه خبرنگاران با سوگیری تبعیض‌آمیز هوش مصنوعی

نوشته Nia Springer-Norris
Dec 8, 2022 در داده‌نگاری
AI diagram

این مطلب نخست در Reynolds Journalism Institute منتشر شده بود و با اجازه در وبسایت آی جی نت بازنشر می‌شود.

هوش مصنوعی ساخته انسان است و تعجب‌آور نیست که سوگیری تبعیض آمیز انسان‌ها در هوش مصنوعی هم بازتاب یابد. در سال ۲۰۲۰ میلادی شرکت مایکروسافت ده‌ها کارمند اتاق خبرش را اخراج کرد و هوش مصنوعی را جایگزین آنها ساخت. متاسفانه، آنها مسائل مربوط به تبعیض در الگوریتم‌ها و ناتوانی مکرر الگوریتم‌ها را در تشخیص افراد رنگین‌پوست در نظر نگرفتند.

اندکی پس از آن که ربات‌های گزارشگر مایکروسافت کارشان را شروع کردند، الگوریتم تهیه اخبار، موضوعی را در مورد Jade Thirwell، خواننده و ترانه سرای انگلیسی گروه موسیقی Little Mix و دیدگاه‌های شخصی او در مورد نژادپرستی منتشر کرد؛ اما با عکسی اشتباه. به جای تصویر Thirwell در این مطلب تصویر همکارش در این گروه موسیقی، Leigh-Ann Pinnock منتشر شد. این مطلب نگاهی دارد به شیوه‌هایی که خبرنگاران از راه آنها می‌توانند با جهت‌گیری تبعیض‌آمیز هوش مصنوعی مبارزه کنند. 

ناتوانی هوش مصنوعی در شناخت چهره‌های افراد رنگین‌پوست یک موضوع بسیار نگران‌کننده است. در سال ۲۰۲۱ فیلم مستند Coded Bias درباره کشف شگفتی‌آور Joy Buolamwini، یک متخصص کامپیوتر در M.I.T Media Lab ساخته شد که دریافته بود نرم‌افزار تشخیص چهره هوش مصنوعی نمی‌تواند چهره‌های افراد سیه‌چرده را تشخیص دهد و همچنین زنان را با دقت نمی‌شناسد.

بیشتر بخوانید: استفاده از هوش مصنوعی برای تحلیل حضور زنان در اخبار

چرا الگوریتم‌ها نژادپرست هستند؟

Meridith Broussard، یک استاد داده‌نگاری در کتابش به نام Automated (Un)Intelligence توضیح می‌دهد که اصطلاح یادگیری ماشینی خودش گمراه کننده است. وقتی متخصصان کامپیوتر می‌گویند که اپلیکیشن‌های هوش مصنوعی «می‌آموزند»، منظورشان همان آموختن به شیوه انسان‌ها نیست. هوش مصنوعی از داده‌های آموزشی می‌آموزد. یعنی مجموعه داده‌های بزرگی که الگوهای آماری جهان را به او یاد می‌دهد. اساساً هوش مصنوعی می‌آموزد که چگونه مسائل را بهتر و سریع‌تر حل کند، زیرا می‌تواند از روی داده‌هایی که از آنها یاد می‌گیرد پیش‌بینی کند که چه اتفاقی خواهد افتاد.

با این حال، در نتیجه این روند، دستگاه، بسیاری از ظرافت‌های هوش و ارتباطات انسانی را از دست می‌دهد - برای مثال، احتمالاً قادر به تشخیص سخنان طعنه‌آمیز یا آرایه‌های ادبی نخواهد بود. ضمناً هوش مصنوعی توسط انسان‌ها ساخته شده است و انسان‌ها تعصب دارند.

در نتیجه اگر یک مجموعه داده، تعصب انسانی را بازتاب دهد، هوش مصنوعی هم یک خروجی آمیخته به تعصب تولید خواهد کرد. برای مثال وقتی شرکت Amazon از هوش مصنوعی برای بررسی رزومه‌ها و فیلتر کردن متقاضیان شغل استفاده کرد، به زودی دریافته شد که آن الگوریتم در حال جداسازی رزومه‌های زنان است. این الگوریتم بر اساس رزومه‌های کارمندان موفق آموزش دیده بود و تنوع جنسیتی، خصیصه Silicon Valley نیست. بنابراین، اپلیکیشن به رد کردن رزومه‌هایی پرداخت که زبان زنانه داشتند و رزومه‌هایی را که کلمه «زنان» و یا نام برخی از کالج‌های زنانه در آنها بود قربانی کرد.

به این ترتیب، Amazon مجبور شد مدت کوتاهی پس از معرفی این اپلیکیشن، استفاده از آن را متوقف کند. هرچند این ابزار برای بی‌طرف بودنِ بیشتر ویرایش شد، هیچ راهی برای آن که ثابت شود دوباره به شیوه تبعیض‌آمیز عمل نخواهد کرد، وجود نداشت، و به همین علت هم دیگر مورد استفاده قرار نگرفت. 

در مورد مشکلات زنان خبرنگار در دنیای امروز اینجا بیشتر بخوانید.

چگونه می‌توانم با در نظر گرفتن تبعیض، از هوش مصنوعی استفاده کنم؟

در حالی که در نظر گرفتن اشکالات تبعیض الگوریتمی مهم است، مجبور نیستیم که هوش مصنوعی را تماماً کنار بگذاریم. 

استفاده مسئولانه هوش مصنوعی به معنای اذعان به این است که انسان‌ها تعصبات خودشان را به ماشین‌ها می‌آموزند و هنوز هم در بسیاری از موارد به مداخله انسانی نیاز داریم. در قضیه نشر عکس اشتباه زن رنگین‌پوست از سوی هوش مصنوعی، اگر یک ویراستار انسانی، آن مطلب را راستی‌آزمایی می‌کرد به آسانی از آن اشتباه جلوگیری می‌شد. بنابراین بهتر است اتاق‌های خبری که به دنبال اضافه کردن اپلیکیشن‌های یادگیری ماشینی به برخی از جنبه‌های چرخه خبری هستند، تبعیض الگوریتمی را به‌خوبی بشناسند. 

بعید است که هوش مصنوعی بتواند در آینده نزدیک جایگزین خبرنگاران انسانی شود و این مسأله مطابق پاسخ‌های تصمیم‌گیرندگان اخبار محلی‌ است که در یک پژوهش Associated Press در مورد استفاده هوش مصنوعی در اتاق‌های خبر محلی انجام شده بود. 

برخی از راه‌های در نظر گرفتن تبعیض الگوریتمی در هنگام استفاده از هوش مصنوعی در اتاق خبر اینهاست:

املای نام‌ها را بازنگری تایید کنید

از راستی‌آزمایی انسانی استفاده کنید

پیش از نشر موضوع مطمئن شوید که عکس‌های افراد صحیح هستند

برنامه‌های هوش مصنوعی را به طور مداوم برای دریافتن تبعیض، بررسی کنید

 

هوش مصنوعی به عنوان یک کمک‌کننده بهتر عمل می‌کند تا یک مامور کنترل نشده. هرچند پتانسیل اپلیکیشن‌های الگوریتمی در اتاق‌های خبر هنوز یک عرصه در حال توسعه است، ما می‌توانیم کارمان را با ایجاد درک اولیه از چگونگی کار آنها و این که چگونه می‌توانیم با حمایت فن‌آوری کار خبرنگاری بهتری انجام دهیم، آغاز کنیم.

 

 

 عکس از آنسپلش، عکاس: Resource Database™