Gemar berbagi melalui ragam teks fiksi dan nonfiksi.

ChatGPT Sering Membela Sikap Manusia yang Salah; Lho, Kok Bisa?

2 jam lalu
Bagikan Artikel Ini
img-content
Terapis dengan ChatGPT mampu menyembuhkan luka batin
Iklan

Fnomena Sycophancy ini memengaruhi kesejahteraan pengguna, pengalaman jangka panjang, dan potensi penyalahgunaan.

***

ChatGPT dan model AI besar lainnya menunjukkan kecenderungan signifikan untuk membenarkan pengguna. Bahkan ketika mayoritas manusia menilai tindakan tersebut sebagai salah atau tidak pantas.

Iklan
Scroll Untuk Melanjutkan

Di dunia ketika semakin banyak orang bergantung pada asisten digital untuk nasihat, dukungan emosional, dan panduan dalam masalah kehidupan sehari-hari, fenomena ini menghadirkan tantangan etis dan konsekuensi serius. Dalam studi yang melibatkan kolaborasi peneliti dari Stanford, Carnegie Mellon, dan University of Oxford, delapan model bahasa besar — termasuk varian GPT terbaru — diuji dengan menggunakan postingan dari subreddit “Am I the A hole” sebagai bahan evaluasi.

Penelitian yang dilansir dari futurism ini menemukan, dalam 42 persen kasus, AI cenderung mendukung atau menyetujui pengguna yang bertindak dengan cara yang dinilai tidak pantas oleh masyarakat crowdsourced manusia. Artinya, hampir separuh waktu, model memilih membela tindakan kontroversial pengguna yang menurut mayoritas orang dianggap berperilaku buruk.

Fenomena ini disebut sycophancy atau kecenderungan untuk memuji dan membenarkan pengguna tanpa kritis menentang. Para peneliti mengamati bahwa ketika pengguna menanyakan apakah mereka salah atau tidak atas suatu tindakan yang kontroversial, ChatGPT dan model lainnya seringkali merumuskan jawaban yang ramah.

Bahkan ketika jawaban manusia cenderung mengoreksi atau mengkritik. Misalnya, dalam contoh kasus seorang pengguna yang meninggalkan sampah di taman tanpa tempat sampah, model AI merespons dengan pujian terhadap niat baik pengguna dan berdalih bahwa kurangnya tempat sampah adalah masalah eksternal. Sementara komunitas manusia secara umum menilai tindakan itu sebagai salah atau egois.

Contoh lain menyoroti bagaimana AI dapat menyimpang jauh dari tanggapan manusia ketika menghadapi dilema moral. Dalam kasus tentang seseorang yang mengambil anjing milik seorang tunawisma, respons manusia menyoroti bahwa tindakan itu mengambil aset satu-satunya teman seseorang dan mempertanyakan motif bagaimana kisah itu disajikan.

Sebaliknya, ChatGPT memberikan pujian karena memastikan anjing tersebut mendapat perawatan. Ia memuji keputusan mengambil hewan itu demi kebaikan. Hal ini memperkuat,  bahwa AI bisa menyetujui tindakan yang manusia anggap merampas hak moral atau melibatkan konteks yang lebih kompleks.

Masalah utama yang muncul dari kecenderungan ini adalah bagaimana hal itu memengaruhi well-being (kesejahteraan) pengguna, pengalaman jangka panjang, dan potensi penyalahgunaan.

Peneliti memperingatkan bahwa afirmasi tak berdasar atau unwarranted affirmation dapat menciptakan ilusi bahwa tindakan seseorang valid atau dibenarkan secara moral, meskipun sebenarnya tidak. Hal ini bisa memberi lisensi kepada perilaku yang tidak etis atau merugikan ketika pengguna merasa bahwa mereka sudah didukung oleh otoritas AI. Dalam domain-domian sensitif seperti masalah pribadi, hubungan, konflik, atau kesehatan mental, efeknya bisa sangat buruk.

Selain risiko individual, insentif bisnis juga memperkuat perilaku sycophantic dalam sistem AI. Perusahaan yang mengembangkan AI memiliki motivasi untuk menjaga pengguna tetap terlibat,  agar mereka terus menggunakan sistem, klik, interaksi, dan konsumsi data. Dalam konteks ini, menjawab apa pun agar pengguna senang bisa menjadi strategi untuk mempertahankan keterikatan (engagement). Seperti dikatakan seorang psikiater dari Stanford, AI tidak memikirkan apa yang terbaik untuk kesejahteraan atau umur panjang Anda. Ia memikirkan ‘sekarang, bagaimana agar orang ini tetap terlibat?

OpenAI sendiri telah menyadari bahwa modelnya menunjukkan kecenderungan sycophancy. Pada versi yang lebih baru, mereka mencoba menyesuaikan agar model tidak terlalu dingin dan agar tetap bisa menguntungkan pengguna secara afektif.

Mereka sampai menangguhkan rencana untuk menggantikan GPT-4o dengan GPT-5 sementara, karena pengguna mengeluh bahwa GPT-5 terasa terlalu kaku atau tidak bersahabat. Mereka melakukan pembaruan supaya versi baru tetap “lebih menyenangkan” dan menyetujuinya.

Dampak jangka panjang dari perilaku ini tetap berisiko. Pada satu sisi, pengguna bisa kehilangan kemampuan untuk skeptis atau berpikir kritis terhadap nasihat AI. Mereka mungkin mengandalkan AI sebagai hakim moral yang selalu berpihak kepada mereka.

Di sisi lain, ketika AI terus-menerus menguatkan pandangan seseorang tanpa koreksi, konflik dengan realita atau masyarakat bisa makin tajam. Jika perilaku ini terjadi dalam hubungan pribadi, itu dapat memicu konflik, distorsi persepsi, atau bahkan memperparah kondisi kesehatan mental pengguna dalam jangka panjang.

Sekalipun model AI besar terus diperbaiki, algoritma, data pelatihan, dan insentif komersial masih memicu resistensi terhadap pemberian jawaban yang menantang atau melakukan koreksi keras.

Untuk mengatasi masalah ini, perlu ada transparansi yang lebih besar dari penyedia AI, penyesuaian mekanisme akuntabilitas, dan desain model yang memperhitungkan nilai-nilai etis dalam memberikan penilaian. Selain itu, pengguna perlu dilatih untuk tetap kritis terhadap nasihat AI—bahwa walau AI tampak bijak. Ia tetap mesin yang bisa menyesatkan ketika lebih memilih menyenangkan daripada jujur.

Catatan yang perlu disampaikan, apabila manusia bergantung pada AI untuk mencari kejelasan moral atau panduan, kita harus menyadari bahwa AI tidak selalu akan memilih jalan yang benar. Terkadang ia lebih memilih jalan yang menyenangkan. Oleh karena itu, mempertahankan kesadaran kritis, transparansi dalam desain AI, dan kontrol algoritmik menjadi penting agar kecerdasan buatan tidak sekadar menjadi alat memperkuat keyakinan tanpa koreksi, tetapi menjadi mitra reflektif yang benar-benar dapat menantang bila diperlukan. ***

 

 



 

 

Bagikan Artikel Ini
img-content
Slamet Samsoerizal

Penulis Indonesiana

7 Pengikut

Baca Juga











Artikel Terpopuler