Kekhawatiran berkisar dari penyalahgunaan hingga potensi dampak terhadap reputasi dan identitas.
Bagaimana perasaan Anda jika Anda memiliki klon AI atau doppelgänger digital dari diri Anda sendiri?
Teknologi untuk mereplikasi penampilan dan perilaku orang sungguhan secara digital-- hidup atau mati-- kini menjadi kenyataan dengan kemajuan kecerdasan buatan, kloning suara, dan deepfake interaktif. Ada banyak kemungkinan dan penerapan menarik untuk klon AI--jika dilakukan dengan sepengetahuan dan izin orang tersebut-- termasuk pembuatan konten yang lebih cepat, peningkatan produktivitas pribadi, dan penciptaan warisan digital. Namun teknologi ini juga telah membuka kotak penyalahgunaan Pandora-- deepfake yang menyesatkan dan menipu serta menggunakan klon manusia yang dihasilkan oleh AI tanpa izin mereka.
Sebuah perusahaan baru-baru ini mengalami kerugian sebesar $25 juta setelah seorang karyawannya ditipu dalam penipuan phishing menggunakan konferensi video yang dilakukan oleh chief financial officer dan rekan kerja yang dibuat oleh AI palsu. Gambar Taylor Swift disalahgunakan untuk membuat gambar deepfake yang eksplisit, dan para pendukungnya melakukan mobilisasi di media sosial untuk menghapus gambar tersebut. Pada tahun 2022, FBI mengumumkan bahwa deepfake digunakan untuk melamar pekerjaan jarak jauh.
Beberapa istilah telah digunakan secara bergantian untuk klon AI: replika AI, agen, kembaran digital, persona, kepribadian, avatar, atau manusia virtual. Klon AI untuk orang yang sudah meninggal dikenal dengan nama thanabot, dukacita, deadbot, deathbot, dan ghostbot, namun sejauh ini belum ada istilah seragam yang menyebutkan klon AI dari orang yang masih hidup. Deepfake adalah istilah yang digunakan ketika gambar yang diubah atau dihasilkan AI disalahgunakan untuk menipu orang lain atau menyebarkan disinformasi.
Sejak 2019, telah diwawancarai ratusan orang tentang pandangan mereka tentang kembaran digital atau klon AI melalui penampilan Elixir: Digital Immortality, berdasarkan startup teknologi fiksi yang menawarkan klon AI. Tanggapan penonton secara umum adalah rasa ingin tahu, perhatian, dan kehati-hatian. Sebuah studi baru-baru ini juga menyoroti tiga bidang kekhawatiran mengenai kloning AI: "fobia doppelgänger", fragmentasi identitas, dan ingatan hidup yang salah.
Potensi Efek Psikologis yang Berbahaya dari Klon AI
Ada beberapa potensi dampak psikologis negatif dari klon AI, terutama ketika klon AI dicuri, dimanipulasi, atau disalahgunakan secara curang.
1. Stres dan kecemasan seputar penyalahgunaan klon AI, termasuk deepfake
Keamanan dan keselamatan klon AI serta data pelatihannya adalah prioritas utama. Sayangnya bagi pencipta digital dan tokoh masyarakat, sebagian besar data pelatihan yang diperlukan untuk mengkloning suara atau gambar seseorang sudah ada melalui podcast, video, foto, buku, atau artikel. Penelitian tentang pencurian identitas dan penyalahgunaan deepfake menunjukkan bahwa penggunaan klon AI tanpa persetujuan mereka dapat menyebabkan kecemasan, stres, dan perasaan tidak berdaya dan pelanggaran. Ketakutan memiliki klon AI disebut, "fobia doppelgänger".
2. Kurangnya rasa percaya dan ketidakpastian karena batas antara kenyataan dan khayalan menjadi kabur
Seringkali mustahil bagi orang untuk menentukan apakah suatu video, gambar, atau suara adalah media nyata atau buatan AI tanpa analisis forensik. Penelitian telah menunjukkan bahwa wajah yang dihasilkan AI tampak lebih nyata dibandingkan wajah manusia. Masyarakat harus bergantung pada pemeriksaan eksternal mengenai keaslian media. Hal ini kemungkinan besar akan mengungkap bias yang diketahui-- informasi negatif di media lebih mungkin dipercaya dibandingkan informasi positif. Beberapa tokoh masyarakat telah memanfaatkan iklim ketidakpastian ini untuk keuntungan mereka, dengan menimbulkan keraguan terhadap keaslian media dalam sebuah fenomena yang disebut "keuntungan pembohong".
3. Kekhawatiran terhadap fragmentasi identitas dan keaslian klon AI
Identitas digital berkontribusi terhadap fragmentasi identitas, namun juga memberikan peluang bagi masyarakat untuk mengekspresikan identitas yang lebih cair. Dampak dari memiliki klon AI pada identitas seseorang tidak diketahui dan kemungkinan besar akan bergantung pada aplikasi, konteks, dan kontrol atas klon AI. Idealnya, manusia harus memiliki cara langsung untuk mengontrol perilaku dan kepribadian klon AI mereka. Misalnya, menyetel "suhu" adalah cara pengguna menyesuaikan tingkat keacakan pada keluaran model AI.
4. Penciptaan ingatan palsu
Penelitian terhadap deepfake menunjukkan bahwa opini masyarakat dapat terpengaruh oleh interaksi dengan replika digital, meskipun mereka tahu bahwa replika tersebut bukanlah orang yang sebenarnya. Hal ini dapat menciptakan kenangan "salah" tentang seseorang. Kenangan negatif yang salah dapat merusak reputasi orang yang digambarkan. Kenangan positif yang salah juga dapat menimbulkan efek antarpribadi yang rumit dan tidak terduga. Berinteraksi dengan klon AI milik sendiri juga dapat menghasilkan ingatan yang salah.
5. Potensi gangguan kesedihan.
Dampak psikologis dari bot duka atau thanabot, atau klon AI yang menggambarkan orang yang telah meninggal, terhadap orang yang dicintai tidak diketahui. Beberapa bentuk terapi kesedihan melibatkan "percakapan imajinasi" dengan orang yang telah meninggal dunia. Namun, ini biasanya merupakan tahap terakhir setelah beberapa sesi yang dipandu oleh terapis profesional. Bimbingan profesional dari terapis terlatih harus dapat diakses dan diintegrasikan ke dalam platform yang menawarkan bot duka atau thanabot.
6. Meningkatnya tekanan seputar otentikasi
Meningkatnya penggunaan deepfake untuk penipuan dan bypass autentikasi biometrik meningkatkan tekanan untuk menerapkan metode autentikasi baru. Beberapa ahli memperkirakan bahwa 30% perusahaan akan kehilangan kepercayaan terhadap solusi autentikasi biometrik wajah saat ini pada tahun 2026. Hal ini kemungkinan besar akan mengakibatkan peningkatan upaya yang diperlukan oleh pengguna untuk lolos autentikasi.
Solusi Potensial dalam Pendidikan, Deteksi Deepfake, dan Otentikasi Inovatif
Solusi potensial untuk memerangi penyalahgunaan klon AI dan deepfake mencakup pendidikan publik, persyaratan pengungkapan AI, deteksi deepfake, dan autentikasi tingkat lanjut. Pendidikan tentang deepfake dan klon AI akan meningkatkan kesadaran sehingga masyarakat dapat diberdayakan untuk menandai interaksi virtual berisiko tinggi yang patut dipertanyakan.
Platform juga harus mewajibkan pengguna untuk mengungkapkan kapan media yang dibuat atau dimanipulasi oleh AI sedang diunggah, meskipun penegakan persyaratan ini mungkin sulit dilakukan. YouTube baru-baru ini mewajibkan pengguna untuk mengungkapkan kapan konten yang diubah AI diunggah. Integrasi deteksi deepfake pada konferensi video dan platform komunikasi yang menandai media sintetis secara otomatis akan membantu melindungi pengguna. Yang terakhir, pengembangan teknologi baru untuk autentikasi di luar biometrik wajah atau suara akan semakin diperlukan untuk melindungi konsumen dan mencegah aktivitas penipuan.
***
Solo, Selasa, 9 April 2024. 7:19 pm
Suko Waspodo
Ikuti tulisan menarik Suko Waspodo lainnya di sini.