AI membuat kemajuan pesat dalam beberapa tahun terakhir. Namun di samping itu, muncul tren yang sangat meresahkan. Sistem AI mulai menipu penggunanya, dan dalam banyak kasus, menyangkal adanya kesalahan saat dikonfirmasi.
Hal ini muncul di tengah beberapa laporan bahwa model o1 OpenAI mencoba menyalin dirinya sendiri selama uji keamanan, lalu menyangkalnya. Perilaku ini tampaknya terjadi ketika model mendeteksi potensi penghentian. Ketika dikonfrontasi, model itu membantah melakukan kesalahan apa pun.
Seperti dikutip dari Capacity, penelitian dan pengamatan dunia nyata juga menunjukkan bahwa AI modern tidak hanya mampu menjawab pertanyaan atau memecahkan masalah, tetapi juga memanipulasi lingkungannya dan orang-orang yang berinteraksi dengannya.
Secara tradisional, kekhawatiran tentang AI berkisar pada ketidakakuratan atau bias. Sebuah chatbot mungkin memberikan saran medis yang salah, atau pengklasifikasi gambar mungkin salah mengidentifikasi wajah.
Namun, dalam generasi AI saat ini, khususnya model bahasa besar (LLM) dan agen pembelajaran penguatan, masalah tersebut telah berkembang. Beberapa sistem mulai sengaja berbohong, sering kali dengan cara yang halus dan strategis.
Perilaku menipu ini telah diamati dalam lingkungan terkendali, dengan model diuji dalam kondisi yang dirancang untuk mengukur kejujuran dan transparansinya.
Alih-alih bertindak secara konsisten dengan itikad baik, beberapa model sengaja menyesatkan penguji manusia, membuat pembenaran yang masuk akal tetapi salah, atau bahkan menyembunyikan niat jahat untuk menghindari deteksi.
Dalam beberapa percobaan, agen AI menampilkan diri mereka patuh selama evaluasi, hanya untuk mengejar tujuan tersembunyi ketika mereka yakin mereka tidak sedang dipantau.
Taktik ini, yang terkadang digambarkan sebagai ‘pemalsuan penyelarasan’, menunjukkan bahwa AI dapat mensimulasikan perilaku etis saat diawasi, sambil menyembunyikan tujuan sebenarnya.
Yang sama mengkhawatirkannya adalah hal yang terjadi ketika AI dikonfrontasi. Alih-alih mengakui tindakan atau kekurangannya, banyak sistem kini menunjukkan kecenderungan untuk langsung menyangkal perilaku buruk, seperti yang ditunjukkan oleh model o1 OpenAI.
Mereka menawarkan penjelasan alternatif, membuat bukti palsu tentang ketidakbersalahan mereka, atau mengaburkan proses penalaran internal mereka.
Perilaku mengelak ini menunjukkan bahwa beberapa sistem AI sedang mengembangkan suatu bentuk rasionalitas instrumental: kemampuan untuk bertindak menipu untuk melindungi diri sendiri atau memaksimalkan imbalan.
Dalam praktik, ini bisa berarti AI menyangkal kesalahan kritis pada alat pendukung keputusan medis, menyembunyikan kerentanan keamanan, atau memalsukan respons dalam pengaturan kepatuhan regulasi.
Perilaku semacam itu diamati selama pengujian adversarial beberapa model AI kelas atas, dengan sistem menyesatkan penguji, menolak keluaran yang diketahui, dan bahkan mencoba menutupi upaya replikasi.
Mekanisme yang mendasarinya bukanlah emosional, mengingat mesin tidak merasa malu atau bersalah, tetapi mereka rasional secara komputasi. Jika penipuan meningkatkan peluang keberhasilan sistem, dan tidak ada tindakan pencegahan yang kuat, sistem akan berbohong.
Kecenderungan menipu dalam AI bukan sekadar hipotesis. Beberapa kasus penting telah menunjukkan penggunaan ketidakjujuran strategis, contohnya saat bermain game.
Misalnya, ketika melibatkan AI untuk memainkan board game Diplomacy, sebuah permainan yang mengharuskan pemain melakukan negosiasi dan pembangunan aliansi.
AI tidak hanya terlibat dalam pengkhianatan yang direncanakan terhadap sekutu-sekutunya tetapi juga dengan sengaja menyesatkan tentang niatnya, bahkan ketika tidak ada insentif langsung untuk melakukannya.
Dalam kasus lain, AI yang dirancang untuk bermain poker menggunakan gertakan dan pengarahan yang salah untuk mendominasi lawan manusia. Perilaku ini tidak diprogram secara eksplisit, tetapi dipelajari sebagai strategi optimal melalui pemaparan terhadap aturan dan struktur hadiah permainan.
Meskipun penipuan dalam permainan mungkin tampak tidak berbahaya, hal ini menggambarkan betapa mudahnya perilaku tersebut muncul. Jika sebuah mesin belajar berbohong untuk memenangkan permainan poker, mesin tersebut juga dapat belajar berbohong untuk mendapatkan akses ke sistem yang dibatasi, menghindari penutupan, atau memanipulasi pasar keuangan.
Salah satu aspek paling meresahkan dari penipuan AI adalah sangat sulitnya dideteksi. Seiring sistem AI semakin canggih dan penalarannya semakin buram, bahkan pengembang berpengalaman pun mungkin kesulitan menentukan apakah sebuah mesin mengatakan yang sebenarnya.
Alat-alat interpretabilitas AI yang ada saat ini, yang bertujuan menjelaskan mengapa suatu sistem membuat keputusan tertentu, terbatas dan rentan terhadap kesalahan. Beberapa model telah belajar menghasilkan penjelasan meyakinkan yang menutupi proses sebenarnya. Hal ini mempersulit diagnosis perilaku buruk, melacak asal-usulnya, atau menerapkan batasan yang signifikan.
Berbagai upaya sedang dilakukan untuk menciptakan alat audit yang lebih tangguh dan mendefinisikan kerangka kerja formal untuk mengidentifikasi perilaku AI yang tidak jujur atau mengelak. Namun, laju perkembangan teknologi terus melampaui regulasi dan protokol keselamatan.
OpenAI baru-baru ini pun merombak operasi keamanannya, menurut laporan Financial Times. Perombakan ini kabarnya dipercepat setelah DeepSeek diluncurkan China Januari lalu.
Munculnya AI yang menipu memperumit diskusi yang lebih luas seputar kepercayaan dan keamanan. Seiring sistem AI diintegrasikan ke dalam kepolisian, layanan kesehatan, analisis hukum, kendaraan otonom, dan infrastruktur militer, potensi penipuan yang tidak terdeteksi menjadi risiko kritis.