فرآیند علمی و نحوه رسیدگی به اطلاعات گمراه‌کننده

فرآیند علمی و نحوه رسیدگی به اطلاعات گمراه‌کننده

دیری نپایید که بعد از انتخابات 2016 و به قدرت رسیدن دونالد ترامپ به ریاست‌جمهوری ایالات‌متحده آمریکا، موضوع اطلاعات گمراه‌کننده[1] و البته مفهوم  خبیث‌تر از آن یعنی اطلاعات غلط[2] به موضوعات اضطراری و بسیار فوری اجتماعی و سیاسی تبدیل شدند.
درحالی که بیشتر دغدغه‌ها مربوط به گسترش اطلاعات غلط از ترول‌های روسی برای دخالت در انتخابات‌های آمریکا  بود، تئوری‌های توطئه و فریب‌کاری‌های دیگر در خصوص همه‌گیری کوید-19 بر آتش تنور اطلاعات گمراه‌کننده و غلط افزودند.
اگرچه امروزه اتفاق نظر مشخص و قاطعی بر سر تعریف اطلاعات گمراه‌کننده و غلط وجود ندارد، در خصوص راهکارها برای مقابله با این نوع اطلاعات هم بحث‌های زیادی مطرح است.
آیا حذف افراد منتشرکننده اطلاعات غلط مثل دونالد ترامپ و هم‌فکرانش از شبکه‌های اجتماعی راهکار درستی است؟ یا باید دست به دامن دولت فدرال برای وضع و اعمال مقررات بر پلتفرم‌های اجتماعی مثل توییتر و فیس‌بوک شد؟
بعد از فشارهای بسیار از سوی جامعه و همچنین رییس‌جمهور بایدن و اعضای کنگره سرانجام این پلتفرم‌های بزرگ اجتماعی مثل توییتر و فیس‌بوک و در سطح پایین‌تری یوتیوب اقدام به حذف محتواهای دربردارنده اطلاعات غلط کردند. در همین راستا، حساب‌های افراد سرشناسی مثل دونالد ترامپ و الکس جونز حذف شدند.
این پلتفرم‌ها همچنین محتواهای گمراه‌کننده مربوط به کووید که عامدانه آسیب می‌زدند را به طور کلی مسدود یا رتبه‌بندی پایین ‌کردند.
به نظر بسیاری شاید حذف  شدن کامل حساب کاربری کلون پارلر، از دست راستی‌ترین افراد در توییتر یا مسدود شدن حساب دونالد ترامپ کارساز باشد اما هستند کسانی هم که به کارکرد این روش‌ها با دیده تردید می‌نگرند.
جامعه سلطنتی، یک سازمان علمی مستقر در بریتانیا،  در گزارشی اذعان داشته است که حذف محتواهای غیردقیق، گمراه‌کننده و غلط چه مغرضانه یا  غیر عمدی از لحاظ فرآیند علمی و اعتماد عمومی ایراد دارد.
فرانک کِلی، پروفسور دانشگاه کمبریج و رییس این گزارش، در نوشته خود به عدم قطعیت در علم اشاره می‌کند. او به این ویژگی علم  به‌خصوص در زمان مواجه با  شرایط غیر‌منتظره و بحرانی مثل اوان همه‌گیری اشاره می‌کند. کِلی می‌گوید: «علم اغلب به صورت مطلق ترسیم می‌شود و زمانی‌ هم که خودش را اصلاح می‌کند، غیر قابل اعتماد می‌شود.» در عین حال او این نکته را اضافه می‌کند که  بررسی  و آزمایش کردن  خِرَد به دست آمده از علم جزء لاینفک پیشرفت خود علم و جامعه است.
به عنوان نمونه،  اوایل سال پیش بود که پلتفرم‌های بزرگ اجتماعی محتواهایی که مدعی بودند ریشه ویروس کوید-19 منشأ آزمایشگاهی دارد را به دلیل گمراه کردن عموم حذف می‌کردند ولی در نهایت شاهد بودیم که این ادعاها، از سوی برخی دانشمندان به صورت کامل رد نشد.
کِلی در یک پست وبلاگی که در ارتباط با گزارش انجمن سلطنتی منتشر شده بود، اذعان دارد که اقدام پلتفرم‌های اجتماعی درخصوص حذف محتواهایی که خارج از دایره شمول اجماع علمی هستند، شاید درظاهر اقدامی هوشمندانه به نظر بیاید ولی در نهایت فرآیند علمی را مختل کرده و جریان‌های واقعی جعلی و غیر علمی را  به سمت زیرمینی شدن بیشتر هدایت می‌کند.
در گزارش مذکور آمده  است که اگرچه اطلاعات گمراه کننده رایج هستند ولی درخصوص حدود تاثیر آن باید دوباره بررسی شود.
جامعه سلطنتی با نظرسنجی عمومی میان مردم به این نتیجه رسیده که قاطبه مردم بریتانیا باور دارند که واکسن‌های کوید-19 ایمن بوده و یا انسان‌ها با فعالیت‌های‌شان مسئول تغییرات آب و هوایی هستند. همچنین اکثر مردم اینترنت‌های نسل پنجم 5G را مضر نمی‌دانستند.
همچنین این گزارش نسبت به میزان گستردگی محفظه‌های پژواکی بر خلاف تصورهای پیشین، ابراز تردید داشته و ادعا شده که شواهدی کمی در خصوص فرضیه جباب فیلتری[3] در شبکه‌های اجتماعی وجود دارند.
راهکارهای پیشنهادی گزارش مذکور، منع کسب درآمد و تبلیغات یا عدم اشاعه محتواهای گمراه‌کننده به سایر کاربران به جای حذف کامل آنها است.
این گزارش همچنین به کارآمدی برچسب‌های راستی‌آزمایی، راهکارهایی که فیس‌بوک و توییتر آن را مدتی اجرا می‌کنند اشاره داشته ولی باز هم مباحث و تردید‌های زیادی در خصوص اینکه این برچسب‌ها در مقابل محتواهای گمراه‌کننده یا غلط واقعا بازدارنده باشند، وجود دارد.

منابع:

Ingram, M. (2022, January 26). The scientific process, and how to handle misinformation. Retrieved from Columbia Journalism Review: https://www.cjr.org/the_media_today/the-scientific-process-and-how-to-handle-misinformation.php
 
[1]  misinformation
[2] disinformation
[3] فرضیه حباب فیلتری دال بر وجود الگوریتمی در شبکه‌های اجتماعی است که به‌واسطه آن، افراد فقط با اطلاعات که موجب تقویت عقایدشان می‌شود روبه‌رو می‌شوند.