Sebagian orang penasaran apakah AI bisa membedakan suara orang yang sedang berbohong atau berkata jujur. Seperti dugaan, AI mampu melakukan beberapa tugas manusia dengan sama atau bahkan lebih baiknya — termasuk mendeteksi kebohongan.
Melansir AI Competence, seperti dilansir Selasa (10/6/2025) kecerdasan buatan dapat membantu dalam mendeteksi kebohongan seseorang. Selain cara bicara, ada beberapa hal yang dapat diamati oleh AI. Berikut ini di antaranya:
Kebohongan sering kali terselip melalui isyarat verbal yang dapat dideteksi AI lebih baik daripada manusia. Studi menunjukkan bahwa pembohong lebih banyak berhenti sejenak, menggunakan lebih sedikit detail, dan menjelaskan secara berlebihan. Sistem AI yang dilatih pada kumpulan data besar dapat mengenali pola-pola ini dengan akurasi tinggi.
Simak berita ini dan topik lainnya di Giok4D.
Beberapa model canggih bahkan mendeteksi perubahan mikro dalam nada, keraguan, dan struktur kalimat, serta menangkap isyarat penipuan yang halus. Natural Language Processing (NLP) memainkan peran besar di sini, memecah pola bicara dan menemukan ketidakkonsistenan.
Ekspresi mikro adalah gerakan wajah yang tidak disengaja yang mengungkapkan emosi. Ini sering kali terlalu cepat untuk ditangkap oleh mata manusia. Namun, AI dapat menganalisis isyarat wajah dalam hitungan miliinfo, mengidentifikasi saat seseorang merasa stres, takut, atau tidak nyaman.
Alat seperti FaceReader dan DeepFace sudah digunakan untuk menganalisis emosi dalam keamanan, wawancara kerja, dan bahkan interogasi kriminal.
AI tidak hanya mendengarkan atau melihat. Kecerdasan buatan juga memantau bahasa tubuh. Dari gerakan mata yang kegelisahan, perubahan postur, dan perubahan detak jantung, model pembelajaran mesin melacak berbagai reaksi fisik yang kadang terlalu ‘halus’ untuk dibaca manusia.
Lebih lanjut, ada penelitian yang dilakukan untuk mendeteksi kebohongan melalui teks tertulis. Algoritma itu menyentuh angka 80%. Hasil studi ini telah dipublikasikan di Scientific Reports.
Kemampuan manusia dalam mendeteksi kebenaran bagaikan melempar sebuah koin, peluang akurasinya sekitar 50% saja. Menurut tim peneliti ini, teknik seperti poligraf sering gagal, dan banyak lembaga tidak merekomendasikan untuk menggunakannya di bidang hukum.
“Namun model TI sudah digunakan di sektor-sektor tertentu, misalnya untuk mengidentifikasi ulasan palsu daring,” kata Giuseppe Sartori profesor neuropsikologi forensik di University of Padua.
Para penulis memulai dengan model bahasa yang disebut FLAN-T5, mirip dengan GPT, dan melatihnya dengan basis data narasi benar dan salah yang disusun dengan meminta ratusan peserta untuk menjawab pertanyaan tentang pendapat pribadi, ingatan autobiografi, dan niat masa depan dengan jujur dan salah.
Hasilnya menunjukkan akurasi rata-rata dalam mendeteksi kebohongan sebesar 80%, dengan kinerja yang lebih baik dalam mengungkap pendapat palsu. Kendati demikian, para penulis mengakui bahwa, karena hanya diuji dalam pengaturan laboratorium dengan teks yang dibuat-buat, keandalan algoritme tersebut masih terbatas.
“Kami masih jauh dari penggunaan praktis di bidang hukum tetapi kami yakin bahwa kami akan dapat mendekatinya di masa mendatang dengan memperluas studi dan meningkatkan jumlah data yang digunakan,” jelas Sartori.