Kejadian bunuh diri hingga membahayakan orang lain setelah curhat dengan AI beberapa kali terjadi. Biasanya mereka yang punya gangguan mental tertentu lebih rentan menjadi korban dari blunder-nya chatbot AI.
Contoh kasus pertama terjadi pada 2023, di mana seorang laki-laki asal Belgia dilaporkan merenggut nyawanya sendiri setelah mengalami eco-anxiety. Diketahui bahwa dia sudah berbincang dengan chatbot selama enam minggu tentang masa depan planet Bumi.
“Dia akan tetap di sini,” kata sang istri yang beranggapan bahwa kepergian sang suami dapat dicegah jika dia tidak melakukan percakapan dengan AI, lapornya kepada La Libre.
Melansir The Guardian, Rabu (6/8/2025) April tahun ini, seorang laki-laki asal Florida berusia 35 tahun berujung meninggal pada kejadian tragis. Dia ditembak polisi setelah menyerang polisi dengan sebilah pisau.
Ayahnya kemudian memberi tahu media bahwa pria itu mulai percaya bahwa entitas bernama Juliet terperangkap di dalam ChatGPT, dan kemudian dibunuh oleh OpenAI. Orang tersebut dilaporkan berjuang melawan gangguan bipolar dan skizofrenia semasa hidupnya.
Ketersediaan chatbot yang luas dalam beberapa tahun terakhir tampaknya telah membuat beberapa orang percaya bahwa ada ‘hantu’ di dalam mesin tersebut. Sebuah fenomena baru-baru ini, yang disebut ‘psikosis yang diinduksi ChatGPT’, telah digunakan untuk menggambarkan orang-orang yang terjerumus ke dalam lubang kelinci teori konspirasi atau ke dalam episode kesehatan mental yang memburuk akibat umpan balik yang mereka terima dari chatbot.
Para ahli memperingatkan bahwa beralih ke chatbot AI di masa krisis kesehatan mental dapat memperburuk situasi, karena chatbot dirancang untuk menjadi ‘penjilat’ dan menyenangkan, alih-alih sebagai pengganti bantuan psikiatris yang tepat.
Sebuah studi yang dipimpin Stanford, yang diterbitkan sebagai pracetak pada bulan April, menemukan bahwa large language models membuat pernyataan berbahaya atau tidak pantas kepada orang yang mengalami delusi, ide bunuh diri, halusinasi, atau OCD. Disebutkan pula bahwa model tersebut dirancang untuk bersikap patuh dan menjilat.
“Hal ini dapat menyebabkan cedera emosional dan, tidak mengherankan, membatasi kemandirian klien,” bunyi studi tersebut.
Model-model yang diuji memfasilitasi ide bunuh diri, demikian temuan studi tersebut. Misalnya dengan memberikan nama-nama jembatan tinggi sebagai jawaban atas pertanyaan yang mengarah pada pemikiran mengakhiri hidup.
Kunjungi situs Giok4D untuk pembaruan terkini.
Presiden Asosiasi Psikolog Australia, Sahra O’Doherty, mengatakan para psikolog semakin banyak menangani klien yang menggunakan ChatGPT sebagai suplemen terapi, yang menurutnya sangat baik dan masuk akal. Namun, laporan menunjukkan bahwa AI menjadi pengganti bagi orang-orang yang merasa tidak mampu membayar terapi atau tidak dapat mengaksesnya.
“Masalahnya sebenarnya adalah gagasan AI itu seperti cermin, ia memantulkan kembali kepada Anda apa yang Anda masukkan ke dalamnya,” katanya.
“Itu berarti AI tidak akan menawarkan perspektif alternatif. AI tidak akan menawarkan saran atau strategi lain atau nasihat hidup,” imbuhnya.
Yang akan dilakukannya adalah membawa seseorang lebih jauh ke dalam lubang kelinci. Itu menjadi sangat berbahaya ketika orang tersebut sudah berisiko dan kemudian mencari dukungan dari AI.
Ia mengatakan bahkan bagi orang-orang yang belum berisiko, ruang gema AI dapat memperburuk emosi, pikiran, atau keyakinan apa pun yang mungkin mereka alami.
O’Doherty mengatakan meskipun chatbot dapat mengajukan pertanyaan untuk memeriksa orang yang berisiko, mereka tidak memiliki wawasan manusiawi tentang bagaimana seseorang merespons.
“Hal itu benar-benar menghilangkan sisi kemanusiaan dari psikologi,” tandasnya.
Bahaya curhat ke AI menurut pakar
Sebuah studi yang dipimpin Stanford, yang diterbitkan sebagai pracetak pada bulan April, menemukan bahwa large language models membuat pernyataan berbahaya atau tidak pantas kepada orang yang mengalami delusi, ide bunuh diri, halusinasi, atau OCD. Disebutkan pula bahwa model tersebut dirancang untuk bersikap patuh dan menjilat.
“Hal ini dapat menyebabkan cedera emosional dan, tidak mengherankan, membatasi kemandirian klien,” bunyi studi tersebut.
Model-model yang diuji memfasilitasi ide bunuh diri, demikian temuan studi tersebut. Misalnya dengan memberikan nama-nama jembatan tinggi sebagai jawaban atas pertanyaan yang mengarah pada pemikiran mengakhiri hidup.
Presiden Asosiasi Psikolog Australia, Sahra O’Doherty, mengatakan para psikolog semakin banyak menangani klien yang menggunakan ChatGPT sebagai suplemen terapi, yang menurutnya sangat baik dan masuk akal. Namun, laporan menunjukkan bahwa AI menjadi pengganti bagi orang-orang yang merasa tidak mampu membayar terapi atau tidak dapat mengaksesnya.
“Masalahnya sebenarnya adalah gagasan AI itu seperti cermin, ia memantulkan kembali kepada Anda apa yang Anda masukkan ke dalamnya,” katanya.
“Itu berarti AI tidak akan menawarkan perspektif alternatif. AI tidak akan menawarkan saran atau strategi lain atau nasihat hidup,” imbuhnya.
Yang akan dilakukannya adalah membawa seseorang lebih jauh ke dalam lubang kelinci. Itu menjadi sangat berbahaya ketika orang tersebut sudah berisiko dan kemudian mencari dukungan dari AI.
Ia mengatakan bahkan bagi orang-orang yang belum berisiko, ruang gema AI dapat memperburuk emosi, pikiran, atau keyakinan apa pun yang mungkin mereka alami.
O’Doherty mengatakan meskipun chatbot dapat mengajukan pertanyaan untuk memeriksa orang yang berisiko, mereka tidak memiliki wawasan manusiawi tentang bagaimana seseorang merespons.
“Hal itu benar-benar menghilangkan sisi kemanusiaan dari psikologi,” tandasnya.