۴ سوگیری منتج به حذف گروه‌های در حاشیه از خبرنگاری با هوش مصنوعی

نوشته Luba Kassova
Mar 23, 2024 در تنوع
Computer with ChatGPT on screen on a desk

این مطلب، بخش نخست مقالاتی پیرامون مبارزه با سوگیری‌ در هوش مصنوعی مولد است. بخش دوم آن را اینجا بخوانید.

 

 

«برای ایجاد تغییر در مبارزه برای عدالت الگوریتم‌ها، ضروری نیست که از دانشگاه‌ ام‌ای‌تی دکترا داشته باشید؛ ذهنی کنجکاو و قلبی مهربان کافی است.»

جمله‌ای از کتاب Unmasking AI (پرده‌برداری از هوش مصنوعی)، نوشته دکتر Joy Buolamwini جوی بولاموینی

 

در سال ۲۰۲۳، رسانه‌های انگلیسی‌زبان جهان، از پنج مرد مطرح هشت برابر ۴۲ زن متخصص هوش مصنوعی نقل قول کرده‌اند. ایلان ماسک، سم آلتمن، جفری هینتون، جنسن هوانگ و گرِگ براکمن در میان این مردان بوده‌اند. این درحالی است که این ۴۲ زن در فهرست صد اینفلوئنسر برتر هوش مصنوعی مجله تايم بوده‌اند. گرایمز، مارگرته وستاگر، تیمنیت گبرو، مارگارت میچل، امیلی بندر و جوی بولاموینی در میان زنانی بودند که نامشان در این فهرست به‌چشم می‌خورد.

این تبعیض جنسیتی، از رادار خبرنگاری پنهان مانده بود، اما طرح AKAS با تجزیه و تحلیل ۵ میلیون مقاله خبری منتشر شده در سال ۲۰۲۳ در پایگاه داده اخبار دیجیتال جهان GDELT، آن را کشف کرد. کاهش تبعیض جنسیتی در بحث‌های پیرامون هوش مصنوعی، راه مهمی برای اطمینان یافتن از این است که اخبار، تنوع جهان ما را بازتاب می‌دهد و به اندازه وسعت مخاطبان، به ما مربوط می‌شود.

من با چندین کارشناس، درباره تبعیض‌هایی چون تبعیض جنسیتی در هوش مصنوعی مولد و نقش خبرنگاری در از بین بردن این تبعیض‌ها گفتگو کرده‌ام که نتیجه آن را در ادامه این مطلب می‌خوانید.

 

بیشتر بخوانید: دورخیز هوش مصنوعی به‌سوی انتخابات و اثرات پیش‌بینی‌نشدنی آن

 

سه تبعیض بشرْساخته هوش مصنوعی مولد

تبعیض‌هایی که در کنه هوش مصنوعی مولد از جمله چت‌جی‌پی‌تی، پلتفرم Bard از گوگل و تولیدکنندگان تصویر مثل Midjourney وجود دارد، اگر صداهای گروه‌های حاشیه‌نشین را کاملاً خاموش نکند، آنها را تحریف و تلخیص می‌کند. این به این دلیل است که هوش مصنوعی مولد، از طریق مجموعه داده‌هایی که در الگوریتم‌ها برای تولید متن، تصویر و ویدیو استفاده می‌کند، باعث تقویت تبعیض‌های اجتماعی می‌شود؛ چون گروه کوچکی را که نماینده همه نیست، به جمعیت همه جهان تعمیم می‌دهد.

دیدگاه‌های شخصی برنامه‌نویسان درباره جهان هم، در الگوریتم‌هایی که توسعه می‌دهند نمایان می‌شود و یا باعث تبعیض بیشتر در محتوای تولیدشده با هوش مصنوعی می‌شود. به‌طور مثال فن‌آوری تشخیص چهره که از سوی نیروهای پلیس استفاده می‌شود، به‌طرز نامتناسبی بر اساس داده‌هایی که ۸۰ درصد آن از صورت افراد سفیدپوست و ۷۵ درصد آن از چهره مردان به‌دست آمده، ساخته شده است. دقت این فن‌آوری برای تشخیص صورت مردان سفیدپوست ۹۹ تا۱۰۰ درصد است، اما برای زنان سیاه‌پوست تنها ۶۵ درصد. به‌همین صورت، مقالات خبری تهیه‌شده با کمک هوش مصنوعی مولد، قویاً به مجموعه‌ای تاریخی از مقالات متکی‌اند که سهم مردانِ مشارکت‌کننده یا قهرمان داستان در آنها، چندین برابر زنان است.

جوی بولاموینی در کتاب تازه‌اش به نام Unmasking AI (پرده‌برداری از هوش مصنوعی)، الگوریتم‌هایی را که با این تبعیض‌ها ساخته می‌شوند، «نگاه کدگذاری‌شده» می‌نامد (یعنی اولویت‌ها، سلایق و حتی پیش‌داوری‌های برنامه‌نویسان که در محصولات تولیدی آنها بازتاب می‌یابند). گروه‌هایی که از آنها به خوبی نمایندگی نمی‌شود به اصطلاح «the excoded» نامیده می‌شوند (افراد و جوامعی که از سیستم‌های الگوریتم آسیب می‌بینند). «نگاه کدگذاری شده»، تعصباتی را که در مجموعه‌داده‌ها وجود دارند، عمیق‌تر می‌کند.

لایه سوم تبعیض از کاربران محصولات می‌آید، مثل کسانی که در اوایل رواج هوش مصنوعی مولد، برای تولید متن از ChatGPT چت‌جی‌پی‌تی و یا برای تولید عکس از Midjourney میدجرنی، DALL-E دال-ایی و Stable Diffusion استیبل دیفیوژن استفاده کردند.

به گفته Octavia Sheepshanks اوکتاویا شیپ‌شانکس، خبرنگار و محقق هوش مصنوعی «چیزی که معمولاً به آن اشاره نمی‌شود، این است که همان کسانی که از تصویرها استفاده می‌کنند، الگوهای تولید تصویر را ایجاد کرده‌اند.»

این کاربران اولیه محصولات، محتوای تولیدشده با هوش مصنوعی را از طریق شیوه تعامل خود با محصولات، بیشتر شکل می‌دهند و تعصبات خود را به الگوریتم‌های خودآموز باز می‌گردانند.

دیدگاه‌های جهانی در چنگ مردان سفیدپوست غربی

این مجموعه‌داده‌ها، برنامه‌نویسان و کاربران محصولات، چه وجه اشتراکی دارند؟ آنها به احتمال بسیار زیاد، دیدگاه‌ها، ارزش‌ها و سیلقه‌های مردان سفیدپوستِ انگلیسی‌زبان از فرهنگ‌های غربی هستند.

در یک برنامه تجزیه و تحلیل محتوای چت‌جی‌پی‌تی در ماه اوت سال ۲۰۲۳ که چگونگی نفوذ جنسیت و نژاد را در به تصویر کشیدن مدیران اجرایی در محتوای چت‌جی‌پی‌تی بررسی می‌کرد، Kalev Leetaru کیلِو لیتارو، مؤسس طرح GDELT نتیجه‌گیری کرد که «نتیجه نهایی، پرسش‌هایی ماهوی را درباره تبعیض‌های جنسیتی و نژادی» پیرامون مدل‌های زبانی بزرگ (LLMs) به وجود می‌آورد.

برای مثال در حالی که چت‌جی‌پی‌تی، مدیران اجرایی موفقِ مرد و سفیدپوست را بر اساس مهارت‌های‌شان تعریف کرده است، مدیران اجرایی زن و مدیران اجرایی رنگین‌پوست،  به جای مهارت‌های مبتنی بر شایستگی، بر اساس هویت و توانایی‌شان برای مبارزه با مشکلات، تعریف شده‌اند.

نظریات آزادی‌خواهانه‌ای که برای دفاع از آزادی بیان و صیانت از نوآوری در فضای مجازی ارزش قائلند، به شرکت‌های بزرگ فن‌آوری و دانشکده‌های مهندسی، راه یافته‌اند. آنها سد راه مقابله با سوگیری در هوش مصنوعی هستند. Hany Farid هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا نگران است که این دیدگاه‌ها در بهترین حالت، ناآگاهی اخلاقی و در بدترین حالت، بی‌تفاوتی اساسی و نبود نظارت در صنعت هوش مصنوعی را پنهان می‌کنند. به گفته او، این امر نمایانگر «یک روش خطرناک برای دیدن جهان است، به‌خصوص وقتی بر ضررهایی‌ که به دموکراسی، زنان، کودکان و گروه‌هایی که در حاشیه هستند، تمرکز کنید.»

 

بیشتر بخوانید: شیوه‌هایی برای مبارزه خبرنگاران با سوگیری تبعیض‌آمیز هوش مصنوعی

خبرنگاری، ريشه مانع چهارم بر سر راه مقابله با سوگیری تبعیض‌آمیز هوش مصنوعی مولد

خطر آن وجود دارد که خبرنگاران هم در گزارش‌هایی که تهیه می‌کنند، به بیرون راندن زنان و به حاشیه راندن گروه‌های دیگری که در حاشیه هستند، کمک کنند. در حال حاضر، تنها اقلیت اندکی از سردبیران اخبار فن‌آوری در ایالات متحده (۱۸٪) و بریتانیا (۲۳٪) زن هستند؛ در ایالات متحده ۱۸٪ و در بریتانیا (۲۳٪.) جدا از آن، بررسی GDELT نشان می‌دهد که در پوشش اخبار هوش مصنوعی، مردان چهار برابر زنان به عنوان کارشناس، منبع نقل قول و یا موضوع تمركز گزارش به تصویر کشیده می‌شوند.

وقتی بعد نژاد را در کنار جنسیت قرار می‌دهیم، مشکل به چند شکل، پیچیده می‌شود. اول آنکه زنان رنگین‌پوست به‌طرز چشم‌گیری بیشتر از مردان یا زنان سفیدپوست، با احتمال حذف شدن از تصمیم‌گیری‌های تحریریه و یا نقش داشتن در تهیه گزارش‌ها مواجهند. دوم، زمانی‌ که با زنان رنگین‌پوست مصاحبه می‌شود، احتمال آن بسیار بیشتر است که به جای تخصص‌شان، درباره هویت‌شان از آنها سؤال شود.  Agnes Stenbom اگنس استنبام، مدیر آزمایشگاه خبر IN/LAB در گروه خبری Schibsted شیبستد در سوئد، به سازمان‌های خبری هشدار می‌دهد که در استفاده از زبان جنسیتی، محتاط باشند -- برای مثال، پیش‌فرضشان این نباشد که پزشکان، مرد هستند و پرستاران، زن -- چرا که این گونه پیش‌فرض‌ها، «به تشدید تبعیض جنسیتی منجر می‌شود.»

Lars Damgaard Nielsen لارس دمگارد نیلسن، مدیر اجرایی و یکی از مؤسسان گروه  MediaCatch در دانمارک، می‌گوید که در آن کشور، زنان رنگین‌پوست از پوشش خبری مناسبی برخوردار نیستند. این، نشان می‌دهد که رنگین‌پوستان چگونه در اخبار به تصویر کشیده می‌شوند. سال گذشته، MediaCatch با استفاده از ابزار هوش مصنوعی DiversityCatch دریافت که «شهروندان غیرغربی، معمولاً نه به علت تخصص، بلکه به سبب هویتشان است که خبرساز می‌شوند.»

برای کاهش تبعیض‌های کنونی، خبرنگاری باید ناظر هوش مصنوعی مولد باشد

بولاموینی در کتاب خود استدلال می‌کند که مؤثرترین راه برای کاهش تعصبات مربوط به همگنی، ایجاد مجموعه‌داده‌های فراگیرتر است. با این حال تنظیم‌کنندگان خبر و خبرنگاران با چالشی بزرگ مواجهند که باید با آن مقابله کنند؛ آنها نمی‌دانند که هوش مصنوعی دقیقاً از کدام داده‌ها استفاده می‌کند، و علت آن، نبود شفافیت در صنعت هوش مصنوعی است.

Jessica Kuntz جسیکا کُنتز، مدیر سیاست‌گذاری شرکت  Pitt Cyber، می‌گوید: «شفافیت روزبه‌روز محدودتر می‌شود. با ورود سود به معادله، شرکت‌ها نسبت به الگوهایشان حس مالکیت بیشتری می‌یابند و تمایل کمتری به همرسانی پیدا می‌کنند.» نبود شفافیت، مانع تفتیش الگوریتم‌ها می‌شود و فراهم آوردن تدارکاتی برای پیشگیری از تبعیض‌ها را برای خبرنگاران دشوار می‌کند. اگر اجازه داده شود که فضای هوش مصنوعی به همین‌ شکل، بدون چالش، توسعه یابد -- چنان  که شرکت‌های بزرگ فن‌آوری نشان داده‌اند --  جهان آینده مملو از هوش مصنوعی و فاقد تنوع دیدگاه خواهد بود؛ دیدگاه‌هایی مثل دیدگاه زنان، اقلیت‌های قومی، شهروندان کشورهای در حال توسعه و فرهنگ‌های گوناگون.

در مقاله بعدی، راهکارهایی را برای کاهش تسلط دیدگاه‌های مردانه بر پوشش اخبار هوش مصنوعی مولد معرفی خواهم کرد.

 

تصویر از آنسپلش، عکاس: Emiliano Vittoriosi