دانستی‌هایی درباره هوش مصنوعی مولد و اثرات آن بر انتشار اطلاعات جعلی

نوشته Emma Manring
Dec 22, 2023 در مبارزه با شیوع اطلاعات غلط و جعلی
Chat GPT logo on a phone in front of a computer screen

از ماه نوامبر سال ۲۰۲۲ که ابزار هوش مصنوعی چت‌جی‌پی‌تی (ChatGPT) در دسترس عموم مردم قرار گرفته، هوش مصنوعی مولد در کانون توجه بوده است. این فن‌آوری که با سرعت در حال تکامل بوده، مقولاتی مثل آموزش، مسافرت و حکومت‌ها را تحت تاثیر قرار داده و رسانه‌ها نیز در امان نخواهند بود.

هوش مصنوعی مولد، شیوه‌های تولید و مصرف محتوا را تغییر می‌دهد و این امر به ایجاد چالش‌های جدید در مبارزه با اطلاعات نادرست می‌انجامد. در یکی از کلاس‌های اخیر بخش خلع سلاح اطلاعات نادرست مربوط به مرکز بین‌المللی خبرنگاران که درباره گزارش‌های تحقیقی برگزار شده بود، اِیمی راینهارت (Aimee Rinehart)، مدیر ارشد تولید در خبرگزاری اسوشیتدپرس (AP)، بینش‌ خود را درباره هوش مصنوعی مولد و اثرات آن بر انتشار اطلاعات نادرست با شرکت کنندگان در میان گذاشت که مهمترین‌ آنها را در ادامه این مطلب می‌خوانید.

تصاویر

برای آن که خبرنگاران تشخیص بدهند که یک تصویر با هوش مصنوعی ساخته شده است یا نه، راینهارت سه راه را پیشنهاد می‌کند:

۱- به دنبال یافتن جزئیات عجیب و غریب در افراد باشید، مثل شکل غیرطبیعی دست و پا و یا زیورآلاتی که در جای نامناسبی قرار گرفته‌اند.

۲- انحراف و یا تار بودن پس‌زمینه تصاویر را بررسی کنید و ببینید که علت وجود یا عدم وجود سایه در عکس چیست.

۳- برای تأیید جزئیات یک تصویر، به دنبال تصویر‌های دیگر و یا زوایای دیگر از همان صحنه باشید.

راینهارت همچنین برای راستی‌آزمایی، روشی معروف به SIFT را معرفی می‌کند. به‌کارگیری این روش مستلزم رعايت چندین نکته است: دست نگه دارید، منبع را بررسی کنید، پوشش بهتری بیابید و ادعاها، نقل قول‌ها و محتوای رسانه‌ای را تا یافتن زمینه اصلی آن، ردیابی کنید.

این روش را مایک کالفیلد (Mike Caulfield)، محقق مرکز جامعه آگاه در دانشگاه واشنگتن، بنیان گذاشته است.

راینهارت دراین باره می‌گوید: «ما وارد عصر فن‌آوری‌های شده‌ایم، اما خوب است که به بنیادهای کار خبرنگاری بازگردیم تا منبع محتوایی را که به‌کار می‌بریم، بیابیم.»

قبل از به اشتراک‌ گذاشتن یک تصویر مشکوک یا بحث‌برانگیز با دیگران، درباره معتبر بودن آن، به دقت فکر کنید. پیدا کردن جزئیات ناآشنا و یا زوایا و تصویرهایی که عکس شما را تأیید کنند، به شما کمک می‌کند که منبع اصلی تصویر روشن شود و از انتشار اطلاعات نادرست، جلوگیری شود.

 

بیشتر بخوانید: پیچیدگی مبارزه با اطلاعات نادرست در پی ایجاد تصاویر تولید شده با هوش مصنوعی

آسیب‌ها و اثرات فراگیر هوش مصنوعی مولد

در سال جاری/روان (۲۰۲۳) پلتفرم‌های عمده اجتماعی، تلاش‌های خود را برای مبارزه با انتشار اطلاعات نادرست کاهش داده‌اند. به همین علت شاید در آینده، شاهد نظارت کمتری بر تدابیر امنیتی در فضای مجازی باشیم. این، ممکن است آسیب‌پذیری عمومی را در برابر انتشار اطلاعات غلط افزایش دهد.

در ایالات متحده آمریکا رهبران سیاسی جمهوری‌خواه به دنبال کاهش بودجه فدرال برای تحقیقات پیرامون تکثیر اطلاعات نادرست در فضای مجازی هستند. کاهش بودجه و در نتیجه کاهش تحقیقات، احتمالاً بر درک ما از چگونگی تأثیرگذاری انتشار اطلاعات نادرست و اطلاعات جعلی بر عموم مردم، اثر خواهد گذاشت.

به گفته راینهارت: «این موضوع باعث ایجاد انجماد در بودجه‌ای شده که صرف تحقیقات درباره اطلاعات نادرست و جعلی می‌شد. احتمالاً درباره انتشار اطلاعات نادرست پیرامون انتخابات سال ۲۰۲۴ کمتر خواهیم دانست و اگر این اطلاعات نادرست آسیبی به روند یا نتیجه انتخابات وارد کند، واقعاً نخواهیم دانست که این آسیب، چگونه و به کجا وارد شده است.»

با این وصف، نمی‌توان قطعاً نتیجه گرفت که هوش مصنوعی مولد به تشدید مصرف اطلاعات نادرست بین عموم مردم خواهد انجامید. محققان در یک بررسی که اخیراً انجام شده دریافته‌اند که افزایش تولید محتوای غلط توسط هوش مصنوعی لزوماً به معنی افزایش مصرف آن توسط مردم نیست.

راینهارت می‌گوید: «اگر مردم بخواهند محتوای مشکل‌دار را ببینند، آن را خواهند یافت. این گونه نیست که همه اطلاعات، نادرست باشد و هیچ چیز دیگری، یعنی هیچ جایگزینی، برای دیدن و هم‌رسانی این محتوای مشکل‌دار وجود نداشته باشد.»

پیشرفت‌های فن‌آوری

ارتقاء فن‌آوری هوش مصنوعی، کیفیت محتوای نادرست را به طور مثال با ارائه جزئیات واقعی‌تر، بهبود بخشیده است.

راینهارت می‌گوید: «ابزارهایی مثل DALL-E3 و ChatGPT4 و پیشرفت‌های دیگر بهتر حدس خواهند زد که منظور شما در درخواستی که برای تولید محتوا داده‌اید، چه بوده است.»

محققان و سازندگان یا برنامه‌ریزان نرم‌افزار به گونه‌ای یکسان نشان داده‌اند که ارتقاء و بهبود هوش مصنوعی مولد، هم مقرون به صرفه و هم امکان‌پذیر است. یک بررسی وب‌سایت WIRED نشان می‌دهد که سازندگان نرم‌افزار چگونه توانسته‌اند آنها را دست‌کاری کنند تا تنها با هزینه کردن۴۰۰ دلار آمریکا، محتوای ضد روسیه تولید کند. دانشمندی از زلاند نو تنها با ۳۰۰ دلار آمریکا توانست یک چت بات مایل به جناح راست بسازد.

«می‌توان انتظار داشت که ببینید مردم دیگر از این فن‌آوری به سود خود استفاده می‌کنند؛ چه در حال پیکارهای انتخاباتی باشند و چه محل‌های کسب و کار را اداره کنند. آنها از تغییر دادن روایت، سود می‌برند.»

تعدادی از نهادها یا شرکت‌ها، در تلاشند تا راه‌های تشخیص تصویرهای تولید شده با هوش مصنوعی را بهبود بخشند و تاکنون میزان موفقیت آنها گاه بیشتر و گاه کمتر بوده است. برای مثال، واترمارک‌ها را به راحتی می‌توان دور زد و یا دست‌کاری کرد. در این میان شرکت OpenAI در حال توسعه یک ابزار یادگیری ماشینی است که بتواند تصویرهای تولید شده با ابزار هوش مصنوعی DALL-E را شناسایی کند و انتظار می‌رود که میزان دقت آن، ۹۹ درصد باشد.

 

بیشتر بخوانید: ابزارهای هوش مصنوعی برای مقابله با جعل عمیق (دیپ فیک)

اثرات هوش مصنوعی مولد بر انتخابات‌ها

در سال ۲۰۲۴ که تعداد زیادی از کشورهای جهان، شاهد برگزاری انتخابات خواهند بود، هوش مصنوعی مولد بر روند این انتخابات اثرات زیادی خواهد داشت. اکنون در ایالات متحده از با تولید تبلیغات، صوت، ویدیو و عکس، از هوش مصنوعی مولد در حمله رقبای انتخاباتی به یکدیگر استفاده شده است. تیم انتخاباتی ران دِسَنتز (Ron DeSantis)، نامزد جمهوری‌خواه انتخابات ریاست‌جمهوری آمریکا، تصویرهای جعلی تولید کرده‌اند که در آنها دونالد ترامپ، رئیس‌جمهور پیشین ایالات متحده و آنتونی فاوچی، مشاور ارشد بهداشت و سلامت کاخ سفید در دوران ترامپ، یکدیگر را در آغوش گرفته‌اند. در تبلیغی دیگر، یک گروه هوادار دِسنتز از هوش مصنوعی برای تولید صدای ترامپ در یک ویدیو استفاده کرده که در آن به کیم رنولدز (Kim Reynolds) فرمان‌دار جمهوری‌خواه ایالت آیوا، حمله لفظی شده است.

در کشورهایی که مردم به زبان‌های مختلف حرف می‌زنند، هوش مصنوعی مولد می‌تواند کمک کند که پیام‌های نامزدهای انتخاباتی به مخاطبان متنوعی برسد که شاید پیش از ایجاد هوش مصنوعی، رسیدن پیام به آنها ممکن نبود. برای مثال در هند، با کمک هوش مصنوعی مولد، ترانه طنز مشهوری درباره نارندرا مودی، نخست‌وزیر این کشور، به چندین زبان ساخته شده است.

راینهارت می‌گوید: «مردم ChatGPT را دنبال می‌کنند. فکر می‌کنم که اگر خبرنگار هستید و راستی‌آزمایی می‌کنید، تنوع افکار و نظرات را در این زمینه در جوامع گوناگون، به‌خصوص در ایالات متحده، دیده‌اید. احتمالاً با این موضوع هم آشنا هستید که در دو سه سال آینده، وظیفه شما دشوارتر خواهد شد. اکنون بهترین زمان برای هم‌رسانی منابع، روش‌ها و فنون تشخیص اطلاعات نادرست تولیدشده با هوش مصنوعی است.»

 

 

تصویر از آنسپلش، عکاس: مجاهد متکین

 

Disarming Disinformation از سوی مرکز بین المللی خبرنگاران با پشتیبانی مالی بنیاد Scripps Howard که یک سازمان وابسته به Scripps Howard Fund است و اداره امور خیریه شرکت The E.W. Scripps را به‌عهده دارد، مدیریت می‌شود. این طرح سه ساله، به خبرنگاران و دانشجویان خبرنگاری امکان می‌دهد که با انتشار اطلاعات نادرست در رسانه‌های خبری مقابله کنند.