دورخیز هوش مصنوعی به‌سوی انتخابات و اثرات پیش‌بینی‌نشدنی آن

نوشته Laura Zommer
Sep 26, 2023 در مبارزه با شیوع اطلاعات غلط و جعلی
A picture of the AI-generated image of the Pope in a puffer coat and underneath it is picttures of inconsistences in the photo including his ear, the cup he's holding and his glasses.

این واقعیت غیر قابل انکار است که قبل از برگزاری انتخابات‌های پیش رو در جهان، از هوش مصنوعی برای تولید اطلاعات غلط استفاده خواهد شد. چیزی که نامشخص است، تاثیر این اطلاعات نادرست تولیدشده با هوش مصنوعی است. یکی از نگرانی‌های عمده این است که آیا نامزدان و تیم‌های انتخاباتی آنها، درباره استفاده از هوش مصنوعی با رأی‌دهندگان صادق خواهند بود؟

برای مثال، تیم ما در رسانه Factchequeado اخیراً حقیقت یک ویدیوی تبلیغاتی را که از تصویرهای تولیدشده با هوش مصنوعی استفاده کرده بود، برملا کرد. این ویدیو از سوی تیم ران دِسَنتِس (Ron DeSantis)، فرماندار فلوریدا که نامزدی‌اش را برای ریاست‌جمهوری ایالات متحده اعلام کرده، تهیه شده بود. در این ویدیو، شش تصویر از دونالد ترامپ، رئیس‌جمهوری سابق آمریکا -- که دِسَنتِس برای به دست آوردن نامزدی نهایی حزب جمهوری‌خواه در انتخابات ریاست‌جمهوری با وی رقابت می‌کند -- و آنتونی فائوچی (Anthony Fauci)، رئیس پیشین مجموعه انستیتوی ملی سلامت آمریکا یا NIH، دیده می‌شوند. سه تصویر از این شش تصویر با هوش مصنوعی تولید شده‌اند و ترامپ را در حال بغل کردن و بوسیدن فائوچی که در بین رای‌دهندگان جمهوری‌خواه، شخصیتی نامحبوب است، نشان می‌دهند. اما با این‌که این تصویرها با چند تصویر واقعی یک‌جا نشان داده می‌شوند، در این ویدیو توضیح داده نشده که این تصویرها با هوش مصنوعی تولید شده‌اند.

موافقید که این کار معادل فریب دادن مردم است؟ آیا کسی هست که مخالف این استدلال باشد؟

 

بیشتر بخوانید: پیچیدگی مبارزه با اطلاعات نادرست در پی ایجاد تصاویر تولید شده با هوش مصنوعی

 

در ماه آوریل امسال (۲۰۲۳) پس از آن که جو بایدن، رئیس‌جمهوری ایالات متحده، از قصد خود برای نامزدی‌ دوباره در انتخابات ریاست جمهوری خبر داد، حزب جمهوری‌خواه از هوش مصنوعی برای تهیه یک ویدیو در انتقاد از وی استفاده کرد. در این مورد، حساب حزب جمهوری‌خواه توضیحی همراه ویدیو منتشر کرد که از ساخته شدن ویدیو با هوش مصنوعی خبر می‌داد. اما ویدیوی کمپین انتخاباتی DeSantis (که پیشتر به آن اشاره کردیم) فاقد این شفافیت است. در هیچ جایی از آن به بینندگان توضیح داده نشده که عکس‌های مورد استفاده در ویدیو با هوش مصنوعی تولید شده‌اند. تیم ما در Factchequeado هم نتوانست تشخيص دهد که این تصویرها با کدام نرم‌افزار هوش مصنوعی ساخته شده‌اند.

ما طی این مقاله در Factchequeado، توضیح داده‌ایم که چگونه می‌توانید دریابید که تصویری با هوش مصنوعی ساخته شده است. به طور کلی، اگر به‌دنبال منبع تصویر باشید و دریابید که آیا قبلاً در جایی منتشر یا پخش شده یا نه، مفید خواهد بود. این نیز مهم است که به جزئیات کوچک توجه کنید. به طور مثال به دست‌ها و چشم‌های افراد با دقت نگاه کنید تا کاستی‌ها و آثار دیگر هوش مصنوعی را پیدا کنید.

ابزار خودکار تشخيص اصالت تصاویر هم می‌توانند برای تفکیک تصاویر حقیقی از آنهایی که با هوش مصنوعی ایجاد شده‌اند، به کار بروند. اما آنها هم مثل بسیار از ابزار دیگر، بی‌نقص نیستند و امکان اشتباه در ایجاد آنها وجود دارد.

این مطلب تازه‌ای نیست که اَشکال مورد استفاده برای انتشار اطلاعات نادرست، پویا هستند و کسانی که این نوع تصاویر را می‌سازند، بسیار سریع‌تر از کسانی که با آنها مقابله می‌کنند، تکنیک‌های خود را کامل‌تر و بهتر می‌کنند. این پدیده در همه انتخابات‌های اخیر دیده شده ‌است: ما شاهد تصویرهای دست‌کاری‌شده، ویدیوهای آهسته‌شده، «محتوای جعلی ارزان» با تصویرهای دست‌کاری‌شده (به این علت به آن ارزان می‌گوییم که در گذشته، ساخت محتوای جعل عمیق گران‌تر بود و برای ساختن این تصویرها به آنها نیازی دیده نمی‌شد) و پیام‌های صوتی جعلی در واتس‌اپ بودیم.

در هر انتخاباتی، افرادی که اطلاعات نادرست منتشر می‌کنند با تکنیک‌های تازه خود، خبرنگاران، مردم و مقام‌های انتخاباتی را غافلگیر می‌کنند. «بهترین سناریو» که با وجود بهترین بودن، مطلوب نیست، آماده‌سازی مردم برای مقابله با اطلاعات نادرست با استفاده از روش‌هایی است که در دوره‌های انتخاباتی قبلی مؤثر بوده‌اند. بیش از یک سال مانده تا برگزاری انتخابات ریاست‌جمهوری سال ۲۰۲۴ ایالات متحده، متخصصان درباره راه‌های مختلفی که هوش مصنوعی می‌تواند این انتخابات را تهدید کند و یا به مشروعیت آن صدمه بزند هشدار داده‌اند. برخی از این کارشناسان، راه‌کارهایی را برای محافظت از انتخابات ارائه کرده‌اند.

 

بیشتر بخوانید: ابزارهای هوش مصنوعی برای مقابله با جعل عمیق (دیپ فیک)

 

The Brennan Center for Justice یا مرکز برِنان برای عدالت، تحلیلی را به نام «هوش مصنوعی چگونه انتخابات را با خطر مواجه می‌کند -- و احتیاطات لازم» منتشر کرده که آن را مِکیلا پندیتاراتنِه (Mekela Panditharatne)، کارشناس تشخیص اطلاعات نادرست در مرکز برنان، و نوآ جیان‌سیراکوزا (Noah Giansiracusa)، استادیار ریاضی و علوم داده در دانشگاه بنتلی، نوشته‌اند و در آن خطرات محتوای تولیدشده با هوش مصنوعی و مرتبط با انتخابات را توضیح داده‌اند.

آنها در این تحلیل، دولت فدرال، توسعه‌دهندگان هوش مصنوعی، شرکت‌های رسانه‌های اجتماعی و نهادهای دیگر را به افزایش تلاش‌ برای صیانت از دموکراسی فراخوانده‌اند.

اقدامات پیشنهادی آنها را اینجا می‌خوانید:

  • برای از بین بردن اطلاعات نادرست درباره انتخابات، فیلترهای هوش مصنوعی را اصلاح کنید و محدودیت‌هایی وضع کنید که ایجاد کمپین‌های گسترده اطلاعات نادرست را دشوارتر ‌سازند.
  • از دولت فدرال بخواهید که ابزارهایی برای مقابله با جعل عمیق و تقلب الکترونیک (فیشینگ/phishing) بسازد. این ابزارها را با مقامات انتخاباتی در سطح محلی و ایالتی هم‌رسانی کنید تا در تشخیص محتوای تولیدشده با هوش مصنوعی به آنها کمک کنید.
  • یک نهاد دولتی پیشتاز را در قوه مجریه، به‌عنوان مسئول هماهنگی اداره مسائل حوزه هوش مصنوعی در انتخابات، تعیین کنید.
  • اگر گزارش‌گر، سردبیر و یا مالک رسانه‌ای هستید و در ایالات متحده به لاتین‌تباران خدماتی ارائه می‌کنید، با Factchequeado تماس بگیرید و عضو جامعه ما شوید.

 

انتشار تصویر اصلی با اجازه Factchequeado انجام شده‌ است. 

وبسایت آی جی نت بدواً این مقاله را به زبان اسپانیایی منتشر کرده بود. Natalie Van Hoozer خبرنگاری است که آن را به انگلیسی برگردانده است.