۴ ابزار هوش مصنوعی برای کمک به اتاق‌های خبر در اجتناب از انتشار محتوای زیانبار

نوشته Magdalena Klein
Feb 21, 2024 در مبارزه با شیوع اطلاعات غلط و جعلی
Circuitboard with chip reading "AI"

امروز می‌توان اطلاعات غلط و مضر را در فضای مجازی به‌وفور یافت. این محتوا از توطئه‌ها و سخنان نفرت‌پراکن گرفته تا اطلاعات نادرستِ تولیدشده با هوش مصنوعی، در اشکال مختلفی ظاهر می‌شود. این اطلاعات نادرست بدون در نظرداشتن عمدی بودن یا نبودنِ انتشار آن، در زندگی واقعی پیامدهایی دارد. یک گزارش سازمان جهانی بهداشت دریافته است که انتشار اطلاعات نادرست در جریان بحران‌هایی مثل شیوع بیماری‌های واگیر و بلایا می‌تواند بر سلامت روان شهروندان تأثیر منفی بگذارد و تلاش‌ها را برای ارائه مراقبت‌های بهداشتی مختل کند. امروز با ظهور فن‌آوری‌های هوش مصنوعی، توانایی مردم برای تشخیص واقعیت از دروغ، پیچیده‌تر شده است. حیاتی است که هم خبرنگاران و هم کاربران اخبار بتوانند این تفاوت را تشخیص دهند -- به‌خصوص در سال جاری که در سراسر جهان رقابت‌های انتخاباتی‌ متعدد و مهمی در جریان خواهد بود.

در ادامه این مطلب، چند ابزار هوش مصنوعی معرفی شده‌اند که خبرنگاران می‌توانند از آنها برای تشخیص اطلاعات غلط، یافتن منابع معتبر و موارد دیگر استفاده کنند:

 

جی‌پی‌تی‌زیرو GPTZero

این ابزار که از سوی یک دانشجوی پیشین خبرنگاری به نام Edward Tian (ادوارد تیان) در ژانویه سال ۲۰۲۳ ساخته شده، اول برای تشخیص محتوایی که با استفاده از ChatGPT تولید شده، طراحی شده بود. از آن زمان، GPTZero توسعه یافته تا بتواند محتوای تولید شده با ابزارهای دیگر هوش مصنوعی مثل Bard و LLaMa را هم تشخیص دهد. این ابزار به کاربران اجازه می‌دهد که سندها و متن‌ها را برای تشخیص سرقت ادبی جستجو کنند. ویراستاران می‌توانند از GPTZero برای ارزیابی بهتر مقالاتِ دریافتی استفاده کنند تا دریابند که آیا واقعاً انسان‌ها آنها را نوشته‌اند یا خیر. خبرنگاران هم با به‌کارگیری این ابزار، صحت اطلاعاتی را که از منابع خود دریافت می‌کنند، تشخیص دهند. مهم است بدانید که ممکن است GPTZero گاهی جواب مثبت کاذب بدهد؛ از این رو، کاربران باید همیشه قبل از آن که یک کار را کاملاً کنار بگذارند، آن را پی‌گیری کنند و تلاش خود را به کار بندند.

هزینه:

نوع رایگان با قابلیت‌های محدود

نوع با پرداخت اشتراک:  از ۱۰ دلار تا ۲۳ دلار در ماه

 

بیشتر بخوانید: هدایت هوش مصنوعی به‌سوی ایجاد تغییرات مثبت در اتاق خبر

فکتیورس ای آی ادیتور Factiverse AI Editor

Factiverse AI Editor یک دستیار نگارش است که برای ارزیابی درست یا نادرست بودنِ مطالب طراحی شده است. این مدل یادگیری ماشینی بر مبنای گزارش‌های خبری معتبر و کار راستی‌آزمایی طراحی شده و وقتی بهترین کارکرد را دارد که برای ارزیابی موضوعاتی مثل تغییرات اقلیمی و یا کووید-۱۹ که پوشش بسیاری یافته‌اند، از آن استفاده شود. شیوه عملکرد این ابزار ساده است. متنی را که می‌خواهید تأیید کنید، مستقیماً در صفحه ویرایش‌گر می‌نویسید و یا جای‌گذاری می‌کنید و این ابزار، کاربران را به منابعی راهنمایی می‌کند که می‌توانند به تشخیص درست یا نادرست بودن ادعایی که در متن آمده، کمک کنند. این ویرایش‌گر هوش مصنوعی مستقلاً نمی‌تواند بین اطلاعات دقیق و غلط، فرق قائل شود. هنگام ارزیابی متن، این ابزار طی زمان حقیقی، بانک‌های اطلاعاتی راستی‌آزمایی را جستجو می‌کند. از این ابزار می‌توان برای راستی‌آزمایی ادعاها به بیش از ۴۰ زبان استفاده کرد.

هزینه:

 دوره آزمایشی ۱۴ روزه آن رایگان است

نسخه ساده ۱۰ دلار در ماه

نسخه پیشرفته ۲۵ دلار در ماه

تیم‌های خبری یا رسانه‌ای با حداقل پنج عضو می‌توانند نرخ جداگانه‌ای را برای کار تیمی دریافت کنند

هارو (به یک خبرنگار کمک کنید) HARO (Help A Reporter Out)

تعامل با کارشناسان، راه دیگری برای تأیید اطلاعات و جلوگیری از انتشار اطلاعات غلط است. HARO با پیوند دادن خبرنگاران به منابعی که تخصص و یا تجربه دست اولی از یک موضوع دارند، به تشخیص صحت اطلاعات کمک می‌کند. این کارشناسان، بینش‌ها و نقل قول‌هایی را هم‌رسانی می‌کنند که خبرنگاران می‌توانند با گنجاندن آنها در گزارش‌های خود، پوشش خبری خود را تقویت کنند و اعتماد خوانندگان را افزایش دهند. HARO سیاست‌هایی دارد که کارشناسان را از این که خودشان موضوعاتی را به خبرنگاران پیشنهاد کنند و یا خارج از حوزه تخصصی خود نظر بدهند، منع می‌کند.

یادداشت:  HARO اخیراً اعلام کرده که به اپلیکشین Connectively در Cision منتقل خواهد شد. نرم‌افزار فعلی HARO در اوایل سال ۲۰۲۴ (سال جاری) از دسترس خارج خواهد شد. در زمان انتشار این مطلب، هر دو اپلیکیشن در دسترس بوده‌اند.

 

هزینه:

 رایگان

 

بیشتر بخوانید: ردیابی اطلاعات نادرست با ابزار هوش مصنوعی

ترول‌وال TrollWall

ابزار هوش مصنوعی TrollWall برای محافظت از صفحات اجتماعی برندها در مقابل حملات نفرت‌آلود طراحی شده است. خبرنگاران با استفاده از این ابزار می‌توانند میزانِ تاثیرِ نظراتِ (کامنت‌های) مضر را در تعامل کلی کاربران با نمایه‌های‌شان دریابند. تعدیل محتوا به‌صورت غیر خودکار، روندی پرزحمت و زمان‌بر است. TrollWall تشخیص خودکار و توان پنهان کردن نظرات مضر را ارائه می‌کند. این ابزار می‌تواند در وقت گردانندگان حساب‌های اجتماعی سازمان‌ها صرفه‌جویی کند. این ابزار خلاق، با استفاده از ترکیبی از پردازش زبان طبیعی و الگوریتم‌های یادگیری ماشینی کار می‌کند و با برخورداری از قابلیت کار در زمان واقعی، می‌تواند به‌خصوص در جریان برنامه‌های زنده خبری مفید باشد. TrollWall حاوی داشبوردی است که به اتاق‌های خبر امکان می‌دهد که فهرست سیاهی از عبارت‌ها یا کلیدواژه‌های ممنوع داشته باشند و تعداد نظراتی را که در حساب‌های رسانه‌های اجتماعی پنهان شده‌اند، ردیابی کنند. این به خبرنگاران کمک می‌کند که منابع محتوای مضر را به‌گونه عمیق‌تری درک کنند.

 

هزینه:

 دوره آزمایشی ۱۴ روزه آن رایگان است

اشتراک ماهانه از ۷۵ دلار در ماه شروع می‌شود و مبلغ پرداختی هر ماه بر اساس تعداد نظرات پردازش‌شده محاسبه می‌شود

 

 

تصویر از آنسپلش، عکاس: Igor Omilaev