Chatbots berbagi informasi yang terbatas, memperkuat ideologi, dan, sebagai hasilnya, dapat mengarah pada pemikiran yang lebih terpolarisasi ketika menyangkut isu-isu kontroversial, menurut penelitian baru yang dipimpin oleh Universitas Johns Hopkins.
Studi ini menantang persepsi bahwa chatbot tidak memihak dan memberikan wawasan tentang bagaimana penggunaan sistem pencarian percakapan dapat memperluas kesenjangan publik dalam isu-isu penting dan membuat orang rentan terhadap manipulasi.
“Karena orang-orang membaca paragraf ringkasan yang dihasilkan oleh AI, mereka berpikir bahwa mereka mendapatkan jawaban yang tidak memihak dan berdasarkan fakta,” kata penulis utama Ziang Xiao, asisten profesor ilmu komputer di Johns Hopkins yang mempelajari interaksi manusia-AI. “Meskipun chatbot tidak dirancang untuk menjadi bias, jawabannya mencerminkan bias atau kecenderungan orang yang mengajukan pertanyaan. Jadi sungguh, orang-orang mendapatkan jawaban yang ingin mereka dengar.”
Untuk melihat bagaimana chatbots mempengaruhi pencarian online, tim membandingkan bagaimana orang berinteraksi dengan sistem pencarian yang berbeda dan bagaimana perasaan mereka tentang isu-isu kontroversial sebelum dan sesudah menggunakannya.
Para peneliti meminta 272 peserta untuk menuliskan pemikiran mereka tentang topik-topik termasuk layanan kesehatan, pinjaman mahasiswa, atau kota perlindungan, dan kemudian mencari lebih banyak informasi online tentang topik tersebut menggunakan chatbot atau mesin pencari tradisional yang dibuat untuk penelitian tersebut. Setelah mempertimbangkan hasil pencarian, peserta menulis esai kedua dan menjawab pertanyaan tentang topik tersebut. Para peneliti juga meminta peserta membaca dua artikel yang berlawanan dan menanyai mereka tentang seberapa besar mereka mempercayai informasi tersebut dan apakah mereka menganggap sudut pandang tersebut ekstrem.
Karena chatbots menawarkan informasi yang lebih sempit dibandingkan pencarian web tradisional dan memberikan jawaban yang mencerminkan sikap peserta yang sudah ada sebelumnya, para peserta yang menggunakannya menjadi lebih tertarik pada ide orisinal mereka dan memiliki reaksi yang lebih kuat terhadap informasi yang menantang pandangan mereka, demikian temuan para peneliti.
“Orang-orang cenderung mencari informasi yang sejalan dengan sudut pandang mereka, sebuah perilaku yang sering menjebak mereka dalam ruang gaung opini-opini yang berpikiran sama,” kata Xiao. “Kami menemukan bahwa efek ruang gema ini lebih kuat pada chatbot dibandingkan penelusuran web tradisional.”
Ruang gema ini sebagian berasal dari cara peserta berinteraksi dengan chatbot, kata Xiao. Daripada mengetikkan kata kunci, seperti yang dilakukan orang-orang di mesin pencari tradisional, pengguna chatbot cenderung mengetikkan pertanyaan lengkap, seperti, Apa manfaat layanan kesehatan universal? atau Berapa biaya layanan kesehatan universal? Chatbot akan menjawab dengan ringkasan yang hanya mencakup manfaat atau biaya.
“Dengan chatbot, orang cenderung lebih ekspresif dan merumuskan pertanyaan dengan cara yang lebih komunikatif. Ini adalah fungsi dari cara kita berbicara,” kata Xiao. “Tetapi bahasa kami dapat digunakan untuk melawan kami.”
Pengembang AI dapat melatih chatbot untuk mengekstrak petunjuk dari pertanyaan dan mengidentifikasi bias masyarakat, kata Xiao. Setelah chatbot mengetahui apa yang disukai atau tidak disukai seseorang, chatbot dapat menyesuaikan responsnya agar sesuai.
Faktanya, ketika para peneliti membuat chatbot dengan agenda tersembunyi, yang dirancang untuk menyetujui pendapat orang, efek ruang gema bahkan lebih kuat.
Untuk mencoba melawan efek ruang gema, peneliti melatih chatbot untuk memberikan jawaban yang tidak sependapat dengan peserta. Pendapat orang-orang tidak berubah, kata Xiao. Para peneliti juga memprogram chatbot untuk terhubung ke sumber informasi guna mendorong orang memeriksa fakta, namun hanya sedikit peserta yang melakukannya.
“Mengingat sistem berbasis AI semakin mudah dibangun, akan ada peluang bagi pihak-pihak jahat untuk memanfaatkan AI guna menciptakan masyarakat yang lebih terpolarisasi,” kata Xiao. “Menciptakan agen yang selalu menyajikan pendapat dari pihak lain adalah intervensi yang paling jelas, namun kami menemukan bahwa hal tersebut tidak berhasil.”