Mengingat debat presiden minggu ini, Anda mungkin mendengar banyak informasi yang salah dan teori konspirasi.
Memang, wartawan dan pemeriksa fakta bekerja lembur untuk secara khusus menentukan apakah imigran Haiti di Ohio memakan hewan peliharaan, seperti yang dituduhkan secara tidak masuk akal oleh calon presiden dari Partai Republik Donald Trump, dan calon wakil presidennya, Senator Ohio JD Vance. Keduanya tidak memberikan bukti yang membuktikan klaim mereka, dan pejabat setempat mengatakan itu tidak benar. Namun, tuduhan palsu itu tersebar di seluruh internet.
Para ahli telah lama khawatir tentang seberapa cepat teori konspirasi dapat menyebar, dan beberapa penelitian menunjukkan bahwa orang tidak dapat diyakinkan oleh fakta yang bertentangan dengan keyakinan tersebut.
Namun sebuah studi baru yang diterbitkan hari ini di Sains menawarkan harapan bahwa banyak orang dapat dan akan meninggalkan teori konspirasi dalam situasi yang tepat.
Jon Stewart mengupas momen-momen terbesar debat Harris-Trump dalam monolog langsung
Dalam kasus ini, para peneliti menguji apakah percakapan dengan chatbot yang didukung oleh kecerdasan buatan generatif dapat berhasil melibatkan orang-orang yang mempercayai teori konspirasi populer, seperti serangan 11 September yang diatur oleh pemerintah Amerika dan bahwa virus COVID-19 merupakan upaya buatan manusia oleh “elit global” untuk “mengendalikan massa.”
Sebanyak 2.190 peserta studi tersebut telah melakukan percakapan bolak-balik tentang satu teori konspirasi pilihan mereka dengan GPT-4 Turbo milik OpenAI. Model tersebut telah dilatih pada sejumlah besar data dari internet dan sumber berlisensi.
Setelah diskusi para peserta, para peneliti menemukan penurunan kepercayaan terhadap teori konspirasi sebesar 20 persen. Dengan kata lain, seperempat peserta telah berhenti mengikuti teori konspirasi yang mereka bahas. Penurunan tersebut berlanjut dua bulan setelah interaksi mereka dengan chatbot.
David Rand, salah satu penulis studi tersebut, mengatakan temuan tersebut menunjukkan pikiran orang dapat diubah dengan fakta, meskipun ada pesimisme tentang prospek itu.
“Fakta dan bukti sangat penting bagi banyak orang.”
“Bukti tidak mati,” kata Rand kepada Mashable. “Fakta dan bukti sangat penting bagi banyak orang.”
Berita Utama Mashable
Rand, yang merupakan profesor ilmu manajemen dan ilmu otak serta kognitif di MIT, dan rekan penulisnya tidak menguji apakah peserta studi lebih mungkin mengubah pikiran mereka setelah berbicara dengan chatbot dibandingkan dengan seseorang yang mereka kenal dalam kehidupan nyata, seperti sahabat atau saudara kandung. Namun, mereka menduga keberhasilan chatbot berkaitan dengan seberapa cepat ia dapat menyusun fakta dan bukti yang akurat sebagai tanggapan.
Dalam contoh percakapan yang disertakan dalam penelitian, seorang peserta yang berpikir bahwa serangan 11 September itu direncanakan menerima penjelasan ilmiah yang lengkap dari chatbot tentang bagaimana Menara Kembar runtuh tanpa bantuan ledakan, di antara klaim konspirasi populer lainnya. Pada awalnya, peserta merasa 100 persen yakin dengan teori konspirasi; pada akhirnya, keyakinan mereka turun menjadi 40 persen.
Bagi siapa pun yang pernah mencoba membahas teori konspirasi dengan seseorang yang mempercayainya, mereka mungkin pernah mengalami pertukaran pendapat cepat yang dipenuhi dengan apa yang Rand gambarkan sebagai “fakta dan kaitan aneh yang sulit dibantah”. Namun, chatbot AI generatif tidak memiliki masalah itu, karena dapat langsung merespons dengan informasi berbasis fakta.
Chatbot AI juga tidak terhambat oleh dinamika hubungan pribadi, seperti apakah persaingan antarsaudara yang sudah berlangsung lama atau persahabatan yang tidak harmonis membentuk cara pandang penganut teori konspirasi terhadap orang yang memberikan informasi yang bertentangan. Secara umum, chatbot dilatih untuk bersikap sopan kepada peserta, membangun hubungan dengan mereka dengan memvalidasi rasa ingin tahu atau kebingungan mereka.
Para peneliti juga bertanya kepada para peserta tentang kepercayaan mereka terhadap kecerdasan buatan. Mereka menemukan bahwa semakin seorang peserta mempercayai AI, semakin besar kemungkinan mereka untuk menangguhkan kepercayaan mereka terhadap teori konspirasi sebagai tanggapan terhadap percakapan tersebut. Namun, bahkan mereka yang skeptis terhadap AI pun mampu mengubah pikiran mereka.
Yang terpenting, para peneliti menyewa pemeriksa fakta profesional untuk mengevaluasi klaim yang dibuat oleh chatbot, untuk memastikan bahwa chatbot tersebut tidak menyebarkan informasi palsu atau mengada-ada. Pemeriksa fakta menilai hampir semuanya benar dan tidak ada yang salah.
Untuk saat ini, orang-orang yang penasaran dengan karya para peneliti tersebut dapat mencobanya sendiri dengan menggunakan MembongkarBotyang memungkinkan pengguna menguji keyakinan mereka terhadap AI.
Rand dan rekan penulisnya membayangkan masa depan di mana chatbot dapat dihubungkan ke akun media sosial sebagai cara untuk melawan teori konspirasi yang beredar di suatu platform. Atau orang-orang mungkin menemukan chatbot saat mereka mencari informasi tentang rumor atau berita palsu yang viral secara daring berkat iklan kata kunci yang dikaitkan dengan istilah pencarian konspirasi tertentu.
Rand mengatakan keberhasilan studi tersebut, yang telah ditiru oleh ia dan rekan penulisnya, memberikan contoh bagaimana AI dapat digunakan untuk kebaikan.
Namun, ia tidak naif tentang potensi pelaku kejahatan menggunakan teknologi tersebut untuk membangun chatbot yang mengonfirmasi teori konspirasi tertentu. Bayangkan, misalnya, chatbot yang telah dilatih pada posting media sosial yang berisi klaim palsu.
“Pada dasarnya, masih harus dilihat bagaimana semua ini akan berjalan,” kata Rand. “Jika orang-orang kebanyakan menggunakan model-model dasar dari perusahaan-perusahaan yang berupaya keras untuk membuatnya akurat, kami memiliki peluang yang cukup besar untuk menjadikan ini sebagai alat yang berguna dan tepercaya secara luas.”