این مطلب، بخش نخست مقالاتی پیرامون مبارزه با سوگیری در هوش مصنوعی مولد است. بخش دوم آن را اینجا بخوانید.
«برای ایجاد تغییر در مبارزه برای عدالت الگوریتمها، ضروری نیست که از دانشگاه امایتی دکترا داشته باشید؛ ذهنی کنجکاو و قلبی مهربان کافی است.»
جملهای از کتاب Unmasking AI (پردهبرداری از هوش مصنوعی)، نوشته دکتر Joy Buolamwini جوی بولاموینی
در سال ۲۰۲۳، رسانههای انگلیسیزبان جهان، از پنج مرد مطرح هشت برابر ۴۲ زن متخصص هوش مصنوعی نقل قول کردهاند. ایلان ماسک، سم آلتمن، جفری هینتون، جنسن هوانگ و گرِگ براکمن در میان این مردان بودهاند. این درحالی است که این ۴۲ زن در فهرست صد اینفلوئنسر برتر هوش مصنوعی مجله تايم بودهاند. گرایمز، مارگرته وستاگر، تیمنیت گبرو، مارگارت میچل، امیلی بندر و جوی بولاموینی در میان زنانی بودند که نامشان در این فهرست بهچشم میخورد.
این تبعیض جنسیتی، از رادار خبرنگاری پنهان مانده بود، اما طرح AKAS با تجزیه و تحلیل ۵ میلیون مقاله خبری منتشر شده در سال ۲۰۲۳ در پایگاه داده اخبار دیجیتال جهان GDELT، آن را کشف کرد. کاهش تبعیض جنسیتی در بحثهای پیرامون هوش مصنوعی، راه مهمی برای اطمینان یافتن از این است که اخبار، تنوع جهان ما را بازتاب میدهد و به اندازه وسعت مخاطبان، به ما مربوط میشود.
من با چندین کارشناس، درباره تبعیضهایی چون تبعیض جنسیتی در هوش مصنوعی مولد و نقش خبرنگاری در از بین بردن این تبعیضها گفتگو کردهام که نتیجه آن را در ادامه این مطلب میخوانید.
بیشتر بخوانید: دورخیز هوش مصنوعی بهسوی انتخابات و اثرات پیشبینینشدنی آن
سه تبعیض بشرْساخته هوش مصنوعی مولد
تبعیضهایی که در کنه هوش مصنوعی مولد از جمله چتجیپیتی، پلتفرم Bard از گوگل و تولیدکنندگان تصویر مثل Midjourney وجود دارد، اگر صداهای گروههای حاشیهنشین را کاملاً خاموش نکند، آنها را تحریف و تلخیص میکند. این به این دلیل است که هوش مصنوعی مولد، از طریق مجموعه دادههایی که در الگوریتمها برای تولید متن، تصویر و ویدیو استفاده میکند، باعث تقویت تبعیضهای اجتماعی میشود؛ چون گروه کوچکی را که نماینده همه نیست، به جمعیت همه جهان تعمیم میدهد.
دیدگاههای شخصی برنامهنویسان درباره جهان هم، در الگوریتمهایی که توسعه میدهند نمایان میشود و یا باعث تبعیض بیشتر در محتوای تولیدشده با هوش مصنوعی میشود. بهطور مثال فنآوری تشخیص چهره که از سوی نیروهای پلیس استفاده میشود، بهطرز نامتناسبی بر اساس دادههایی که ۸۰ درصد آن از صورت افراد سفیدپوست و ۷۵ درصد آن از چهره مردان بهدست آمده، ساخته شده است. دقت این فنآوری برای تشخیص صورت مردان سفیدپوست ۹۹ تا۱۰۰ درصد است، اما برای زنان سیاهپوست تنها ۶۵ درصد. بههمین صورت، مقالات خبری تهیهشده با کمک هوش مصنوعی مولد، قویاً به مجموعهای تاریخی از مقالات متکیاند که سهم مردانِ مشارکتکننده یا قهرمان داستان در آنها، چندین برابر زنان است.
جوی بولاموینی در کتاب تازهاش به نام Unmasking AI (پردهبرداری از هوش مصنوعی)، الگوریتمهایی را که با این تبعیضها ساخته میشوند، «نگاه کدگذاریشده» مینامد (یعنی اولویتها، سلایق و حتی پیشداوریهای برنامهنویسان که در محصولات تولیدی آنها بازتاب مییابند). گروههایی که از آنها به خوبی نمایندگی نمیشود به اصطلاح «the excoded» نامیده میشوند (افراد و جوامعی که از سیستمهای الگوریتم آسیب میبینند). «نگاه کدگذاری شده»، تعصباتی را که در مجموعهدادهها وجود دارند، عمیقتر میکند.
لایه سوم تبعیض از کاربران محصولات میآید، مثل کسانی که در اوایل رواج هوش مصنوعی مولد، برای تولید متن از ChatGPT چتجیپیتی و یا برای تولید عکس از Midjourney میدجرنی، DALL-E دال-ایی و Stable Diffusion استیبل دیفیوژن استفاده کردند.
به گفته Octavia Sheepshanks اوکتاویا شیپشانکس، خبرنگار و محقق هوش مصنوعی «چیزی که معمولاً به آن اشاره نمیشود، این است که همان کسانی که از تصویرها استفاده میکنند، الگوهای تولید تصویر را ایجاد کردهاند.»
این کاربران اولیه محصولات، محتوای تولیدشده با هوش مصنوعی را از طریق شیوه تعامل خود با محصولات، بیشتر شکل میدهند و تعصبات خود را به الگوریتمهای خودآموز باز میگردانند.
دیدگاههای جهانی در چنگ مردان سفیدپوست غربی
این مجموعهدادهها، برنامهنویسان و کاربران محصولات، چه وجه اشتراکی دارند؟ آنها به احتمال بسیار زیاد، دیدگاهها، ارزشها و سیلقههای مردان سفیدپوستِ انگلیسیزبان از فرهنگهای غربی هستند.
در یک برنامه تجزیه و تحلیل محتوای چتجیپیتی در ماه اوت سال ۲۰۲۳ که چگونگی نفوذ جنسیت و نژاد را در به تصویر کشیدن مدیران اجرایی در محتوای چتجیپیتی بررسی میکرد، Kalev Leetaru کیلِو لیتارو، مؤسس طرح GDELT نتیجهگیری کرد که «نتیجه نهایی، پرسشهایی ماهوی را درباره تبعیضهای جنسیتی و نژادی» پیرامون مدلهای زبانی بزرگ (LLMs) به وجود میآورد.
برای مثال در حالی که چتجیپیتی، مدیران اجرایی موفقِ مرد و سفیدپوست را بر اساس مهارتهایشان تعریف کرده است، مدیران اجرایی زن و مدیران اجرایی رنگینپوست، به جای مهارتهای مبتنی بر شایستگی، بر اساس هویت و تواناییشان برای مبارزه با مشکلات، تعریف شدهاند.
نظریات آزادیخواهانهای که برای دفاع از آزادی بیان و صیانت از نوآوری در فضای مجازی ارزش قائلند، به شرکتهای بزرگ فنآوری و دانشکدههای مهندسی، راه یافتهاند. آنها سد راه مقابله با سوگیری در هوش مصنوعی هستند. Hany Farid هانی فرید، استاد علوم کامپیوتر در دانشگاه کالیفرنیا نگران است که این دیدگاهها در بهترین حالت، ناآگاهی اخلاقی و در بدترین حالت، بیتفاوتی اساسی و نبود نظارت در صنعت هوش مصنوعی را پنهان میکنند. به گفته او، این امر نمایانگر «یک روش خطرناک برای دیدن جهان است، بهخصوص وقتی بر ضررهایی که به دموکراسی، زنان، کودکان و گروههایی که در حاشیه هستند، تمرکز کنید.»
بیشتر بخوانید: شیوههایی برای مبارزه خبرنگاران با سوگیری تبعیضآمیز هوش مصنوعی
خبرنگاری، ريشه مانع چهارم بر سر راه مقابله با سوگیری تبعیضآمیز هوش مصنوعی مولد
خطر آن وجود دارد که خبرنگاران هم در گزارشهایی که تهیه میکنند، به بیرون راندن زنان و به حاشیه راندن گروههای دیگری که در حاشیه هستند، کمک کنند. در حال حاضر، تنها اقلیت اندکی از سردبیران اخبار فنآوری در ایالات متحده (۱۸٪) و بریتانیا (۲۳٪) زن هستند؛ در ایالات متحده ۱۸٪ و در بریتانیا (۲۳٪.) جدا از آن، بررسی GDELT نشان میدهد که در پوشش اخبار هوش مصنوعی، مردان چهار برابر زنان به عنوان کارشناس، منبع نقل قول و یا موضوع تمركز گزارش به تصویر کشیده میشوند.
وقتی بعد نژاد را در کنار جنسیت قرار میدهیم، مشکل به چند شکل، پیچیده میشود. اول آنکه زنان رنگینپوست بهطرز چشمگیری بیشتر از مردان یا زنان سفیدپوست، با احتمال حذف شدن از تصمیمگیریهای تحریریه و یا نقش داشتن در تهیه گزارشها مواجهند. دوم، زمانی که با زنان رنگینپوست مصاحبه میشود، احتمال آن بسیار بیشتر است که به جای تخصصشان، درباره هویتشان از آنها سؤال شود. Agnes Stenbom اگنس استنبام، مدیر آزمایشگاه خبر IN/LAB در گروه خبری Schibsted شیبستد در سوئد، به سازمانهای خبری هشدار میدهد که در استفاده از زبان جنسیتی، محتاط باشند -- برای مثال، پیشفرضشان این نباشد که پزشکان، مرد هستند و پرستاران، زن -- چرا که این گونه پیشفرضها، «به تشدید تبعیض جنسیتی منجر میشود.»
Lars Damgaard Nielsen لارس دمگارد نیلسن، مدیر اجرایی و یکی از مؤسسان گروه MediaCatch در دانمارک، میگوید که در آن کشور، زنان رنگینپوست از پوشش خبری مناسبی برخوردار نیستند. این، نشان میدهد که رنگینپوستان چگونه در اخبار به تصویر کشیده میشوند. سال گذشته، MediaCatch با استفاده از ابزار هوش مصنوعی DiversityCatch دریافت که «شهروندان غیرغربی، معمولاً نه به علت تخصص، بلکه به سبب هویتشان است که خبرساز میشوند.»
برای کاهش تبعیضهای کنونی، خبرنگاری باید ناظر هوش مصنوعی مولد باشد
بولاموینی در کتاب خود استدلال میکند که مؤثرترین راه برای کاهش تعصبات مربوط به همگنی، ایجاد مجموعهدادههای فراگیرتر است. با این حال تنظیمکنندگان خبر و خبرنگاران با چالشی بزرگ مواجهند که باید با آن مقابله کنند؛ آنها نمیدانند که هوش مصنوعی دقیقاً از کدام دادهها استفاده میکند، و علت آن، نبود شفافیت در صنعت هوش مصنوعی است.
Jessica Kuntz جسیکا کُنتز، مدیر سیاستگذاری شرکت Pitt Cyber، میگوید: «شفافیت روزبهروز محدودتر میشود. با ورود سود به معادله، شرکتها نسبت به الگوهایشان حس مالکیت بیشتری مییابند و تمایل کمتری به همرسانی پیدا میکنند.» نبود شفافیت، مانع تفتیش الگوریتمها میشود و فراهم آوردن تدارکاتی برای پیشگیری از تبعیضها را برای خبرنگاران دشوار میکند. اگر اجازه داده شود که فضای هوش مصنوعی به همین شکل، بدون چالش، توسعه یابد -- چنان که شرکتهای بزرگ فنآوری نشان دادهاند -- جهان آینده مملو از هوش مصنوعی و فاقد تنوع دیدگاه خواهد بود؛ دیدگاههایی مثل دیدگاه زنان، اقلیتهای قومی، شهروندان کشورهای در حال توسعه و فرهنگهای گوناگون.
در مقاله بعدی، راهکارهایی را برای کاهش تسلط دیدگاههای مردانه بر پوشش اخبار هوش مصنوعی مولد معرفی خواهم کرد.
تصویر از آنسپلش، عکاس: Emiliano Vittoriosi