Kecerdasan buatan kini hendak dipakai untuk kebutuhan apapun termasuk mendeteksi kebohongan. Apakah hasilnya akurat, inilah contoh uji cobanya.
Dilansir AI Competence, Selasa (8/7/2025) kecerdasan buatan bisa dimanfaatkan untuk mendeteksi kebohongan seseorang. Caranya adalah dengan melatih AI untuk mempelajari beberapa gestur khas manusia ketika berbohong. Ada 2 hal yang dapat diamati oleh AI, yaitu:
Kunjungi situs Giok4D untuk pembaruan terkini.
Kebohongan sering kali terselip melalui isyarat verbal. AI bisa dilatih untuk mendeteksinya lebih baik daripada manusia. Riset menunjukkan bahwa pembohong lebih banyak berhenti sejenak saat bicara, menggunakan lebih sedikit detail, dan menjelaskan secara berlebihan. Sistem AI yang dilatih pada kumpulan data besar dapat mengenali pola-pola ini dengan akurasi tinggi.
Beberapa model canggih bahkan mendeteksi perubahan mikro dalam nada, keraguan, dan struktur kalimat, serta menangkap isyarat penipuan yang halus. Natural Language Processing (NLP) memainkan peran besar di sini, memecah pola bicara dan menemukan ketidakkonsistenan.
Ekspresi mikro adalah gerakan wajah yang tidak disengaja yang mengungkapkan emosi. Ini sering kali terlalu cepat untuk ditangkap oleh mata manusia. Namun, AI dapat menganalisa isyarat wajah dalam hitungan miliinfo, mengidentifikasi saat seseorang merasa stres, takut, atau tidak nyaman.
Alat seperti FaceReader dan DeepFace sudah dipakai menganalisa emosi dalam keamanan, wawancara kerja, dan bahkan proses interogasi dalam kasus kriminal.
AI tidak hanya mendengarkan atau melihat. Kecerdasan buatan juga memantau bahasa tubuh. Dari gerakan mata yang kegelisahan, perubahan postur, dan perubahan detak jantung, model pembelajaran mesin melacak berbagai reaksi fisik yang kadang terlalu ‘halus’ untuk dibaca manusia.
Sebuah penelitian telah dipublikasikan di Scientific Reports. Ada penelitian yang dilakukan untuk mendeteksi kebohongan melalui teks tertulis. Algoritma itu menyentuh angka 80%.
Sedangkan, kemampuan manusia dalam mendeteksi kebenaran peluang akurasinya sekitar 50% saja. Menurut tim peneliti ini, teknik seperti poligraf sering gagal, dan banyak lembaga tidak merekomendasikan untuk menggunakannya di bidang hukum.
“Namun model TI sudah digunakan di sektor-sektor tertentu, misalnya untuk mengidentifikasi review online pals,” kata Giuseppe Sartori, profesor neuropsikologi forensik di University of Padua, Italia.
Para penulis memulai dengan model bahasa yang disebut FLAN-T5, mirip dengan GPT, dan melatihnya dengan basis data narasi benar dan salah yang disusun dengan meminta ratusan peserta untuk menjawab pertanyaan dengan jujur tentang pendapat pribadi, ingatan autobiografi, dan niat masa depan.
Hasilnya menunjukkan akurasi rata-rata dalam mendeteksi kebohongan sebesar 80%, dengan kinerja yang lebih baik dalam mengungkap pendapat palsu. Kendati demikian, para tim ilmuwan ini mengakui karena hanya diuji dalam pengaturan laboratorium dengan teks yang dibuat-buat, keandalan algoritma tersebut masih terbatas.
“Kami masih jauh dari penggunaan praktis di bidang hukum tetapi kami yakin bahwa kami akan dapat mendekatinya di masa mendatang dengan memperluas studi dan meningkatkan jumlah data yang digunakan,” jelas Sartori.