این مطلب نخست در Reynolds Journalism Institute منتشر شده بود و با اجازه در وبسایت آی جی نت بازنشر میشود.
هوش مصنوعی ساخته انسان است و تعجبآور نیست که سوگیری تبعیض آمیز انسانها در هوش مصنوعی هم بازتاب یابد. در سال ۲۰۲۰ میلادی شرکت مایکروسافت دهها کارمند اتاق خبرش را اخراج کرد و هوش مصنوعی را جایگزین آنها ساخت. متاسفانه، آنها مسائل مربوط به تبعیض در الگوریتمها و ناتوانی مکرر الگوریتمها را در تشخیص افراد رنگینپوست در نظر نگرفتند.
اندکی پس از آن که رباتهای گزارشگر مایکروسافت کارشان را شروع کردند، الگوریتم تهیه اخبار، موضوعی را در مورد Jade Thirwell، خواننده و ترانه سرای انگلیسی گروه موسیقی Little Mix و دیدگاههای شخصی او در مورد نژادپرستی منتشر کرد؛ اما با عکسی اشتباه. به جای تصویر Thirwell در این مطلب تصویر همکارش در این گروه موسیقی، Leigh-Ann Pinnock منتشر شد. این مطلب نگاهی دارد به شیوههایی که خبرنگاران از راه آنها میتوانند با جهتگیری تبعیضآمیز هوش مصنوعی مبارزه کنند.
ناتوانی هوش مصنوعی در شناخت چهرههای افراد رنگینپوست یک موضوع بسیار نگرانکننده است. در سال ۲۰۲۱ فیلم مستند Coded Bias درباره کشف شگفتیآور Joy Buolamwini، یک متخصص کامپیوتر در M.I.T Media Lab ساخته شد که دریافته بود نرمافزار تشخیص چهره هوش مصنوعی نمیتواند چهرههای افراد سیهچرده را تشخیص دهد و همچنین زنان را با دقت نمیشناسد.
بیشتر بخوانید: استفاده از هوش مصنوعی برای تحلیل حضور زنان در اخبار
چرا الگوریتمها نژادپرست هستند؟
Meridith Broussard، یک استاد دادهنگاری در کتابش به نام Automated (Un)Intelligence توضیح میدهد که اصطلاح یادگیری ماشینی خودش گمراه کننده است. وقتی متخصصان کامپیوتر میگویند که اپلیکیشنهای هوش مصنوعی «میآموزند»، منظورشان همان آموختن به شیوه انسانها نیست. هوش مصنوعی از دادههای آموزشی میآموزد. یعنی مجموعه دادههای بزرگی که الگوهای آماری جهان را به او یاد میدهد. اساساً هوش مصنوعی میآموزد که چگونه مسائل را بهتر و سریعتر حل کند، زیرا میتواند از روی دادههایی که از آنها یاد میگیرد پیشبینی کند که چه اتفاقی خواهد افتاد.
با این حال، در نتیجه این روند، دستگاه، بسیاری از ظرافتهای هوش و ارتباطات انسانی را از دست میدهد - برای مثال، احتمالاً قادر به تشخیص سخنان طعنهآمیز یا آرایههای ادبی نخواهد بود. ضمناً هوش مصنوعی توسط انسانها ساخته شده است و انسانها تعصب دارند.
در نتیجه اگر یک مجموعه داده، تعصب انسانی را بازتاب دهد، هوش مصنوعی هم یک خروجی آمیخته به تعصب تولید خواهد کرد. برای مثال وقتی شرکت Amazon از هوش مصنوعی برای بررسی رزومهها و فیلتر کردن متقاضیان شغل استفاده کرد، به زودی دریافته شد که آن الگوریتم در حال جداسازی رزومههای زنان است. این الگوریتم بر اساس رزومههای کارمندان موفق آموزش دیده بود و تنوع جنسیتی، خصیصه Silicon Valley نیست. بنابراین، اپلیکیشن به رد کردن رزومههایی پرداخت که زبان زنانه داشتند و رزومههایی را که کلمه «زنان» و یا نام برخی از کالجهای زنانه در آنها بود قربانی کرد.
به این ترتیب، Amazon مجبور شد مدت کوتاهی پس از معرفی این اپلیکیشن، استفاده از آن را متوقف کند. هرچند این ابزار برای بیطرف بودنِ بیشتر ویرایش شد، هیچ راهی برای آن که ثابت شود دوباره به شیوه تبعیضآمیز عمل نخواهد کرد، وجود نداشت، و به همین علت هم دیگر مورد استفاده قرار نگرفت.
در مورد مشکلات زنان خبرنگار در دنیای امروز اینجا بیشتر بخوانید.
چگونه میتوانم با در نظر گرفتن تبعیض، از هوش مصنوعی استفاده کنم؟
در حالی که در نظر گرفتن اشکالات تبعیض الگوریتمی مهم است، مجبور نیستیم که هوش مصنوعی را تماماً کنار بگذاریم.
استفاده مسئولانه هوش مصنوعی به معنای اذعان به این است که انسانها تعصبات خودشان را به ماشینها میآموزند و هنوز هم در بسیاری از موارد به مداخله انسانی نیاز داریم. در قضیه نشر عکس اشتباه زن رنگینپوست از سوی هوش مصنوعی، اگر یک ویراستار انسانی، آن مطلب را راستیآزمایی میکرد به آسانی از آن اشتباه جلوگیری میشد. بنابراین بهتر است اتاقهای خبری که به دنبال اضافه کردن اپلیکیشنهای یادگیری ماشینی به برخی از جنبههای چرخه خبری هستند، تبعیض الگوریتمی را بهخوبی بشناسند.
بعید است که هوش مصنوعی بتواند در آینده نزدیک جایگزین خبرنگاران انسانی شود و این مسأله مطابق پاسخهای تصمیمگیرندگان اخبار محلی است که در یک پژوهش Associated Press در مورد استفاده هوش مصنوعی در اتاقهای خبر محلی انجام شده بود.
برخی از راههای در نظر گرفتن تبعیض الگوریتمی در هنگام استفاده از هوش مصنوعی در اتاق خبر اینهاست:
املای نامها را بازنگری تایید کنید
از راستیآزمایی انسانی استفاده کنید
پیش از نشر موضوع مطمئن شوید که عکسهای افراد صحیح هستند
برنامههای هوش مصنوعی را به طور مداوم برای دریافتن تبعیض، بررسی کنید
هوش مصنوعی به عنوان یک کمککننده بهتر عمل میکند تا یک مامور کنترل نشده. هرچند پتانسیل اپلیکیشنهای الگوریتمی در اتاقهای خبر هنوز یک عرصه در حال توسعه است، ما میتوانیم کارمان را با ایجاد درک اولیه از چگونگی کار آنها و این که چگونه میتوانیم با حمایت فنآوری کار خبرنگاری بهتری انجام دهیم، آغاز کنیم.
عکس از آنسپلش، عکاس: Resource Database™