تا به حال با کسی که به تئوریهای توطئه مضحک باور دارد صحبت کردهاید؟ نظریاتی مثل این که «زمین تخت است» یا «انسانها هرگز روی ماه فرود نیامدهاند» یا «در واکسنهای کرونا میکروچیب ردیاب کار گذاشته بودند» و …؟
به گفته gizmodo یک پژوهش گسترده با عنوان «روشن گری برای معتقدان به تئوریهای توطئه از طریق گفتگو با هوش مصنوعی» ثابت کرده که اگر این انسانها با ربات های هوش مصنوعی به گفتگو بشینند، احتمالا قانع شوند که اشتباه میکنند!
این مطالعه شامل دو آزمایش با ۲,۱۹۰ شرکت کننده آمریکایی بود که به یک تئوری توطئه خاص باور داشتند.
از شرکتکنندگان خواسته شد شواهدی که به نظرشان از این تئوری خاص حمایت میکند را توضیح دهند و سپس با هوش مصنوعی GPT-4 Turbo وارد گفتگو شدند. ربات سعی کرد با ارائه شواهد آنها را قانع کند که اشتباه میکنند. نتیجه بسیار دلگرم کننده بود:
هوش مصنوعی توانایی خیلی خوبی در ارائه استدلال و برقراری گفتگوهای شخصی و عمیق با این افراد داشت و توانست پس از چند ماه این باورها را تغییر دهد!
شاید فکر کنید بحث با این افراد بیاهمیت است اما یک تئوری توطئه میتواند بالقوه برای جامعه خطرناک و آسیبزا باشد. اطلاعات نادرست همیشه برای جامعه آسیب زاست و این باورها اعتماد عمومی به نهادها را کاهش داده و باعث دوقطبی شدن و افزایش تنشهای اجتماعی میشوند. اما احتمالا هوش مصنوعی واقعا میتواند چنین اثر و منفتی برای بشریت داشته باشد و این افراد با باورهای عجیبشان را قانع کند!