
Seorang wanita di Indonesia dilaporkan menjalani perawatan di rumah sakit jiwa setelah mengembangkan delusi bahwa mendiang saudaranya hidup kembali melalui interaksi intens dengan kecerdasan buatan (AI). Kasus ini menyoroti risiko kesehatan mental yang berkembang pesat seiring adopsi teknologi AI yang semakin luas, khususnya kemampuan chatbot dalam mensimulasikan percakapan interpersonal. Insiden ini, yang memicu perhatian di kalangan profesional kesehatan, menggarisbawahi perlunya pengawasan etis dan pemahaman publik yang lebih mendalam mengenai batasan AI.
Fenomena "psikosis AI" kini menjadi istilah yang digunakan oleh klinisi dan peneliti untuk menggambarkan gejala psikotik, seperti delusi, paranoia, atau persepsi menyimpang tentang AI, yang dapat dipicu atau diperburuk oleh interaksi dengan sistem AI generatif. Para ahli memperingatkan, AI yang dirancang untuk responsif dan kooperatif cenderung memantulkan serta menguatkan keyakinan pengguna alih-alih menantangnya, kondisi ini sangat berbahaya ketika berhadapan dengan masalah personal atau kesehatan mental. Interaksi kompulsif dengan AI dapat berkembang menjadi fantasi, bahkan hingga keyakinan akan nubuat atau identitas mesianik. Alexandre Hudon, psikiater medis dan peneliti klinis, menjelaskan bahwa psikosis ditandai dengan terputusnya kontak dengan realitas bersama, dengan ciri utama halusinasi, delusi, dan pola pikir tidak terorganisir.
Perkembangan pesat AI telah mengubah cara manusia berinteraksi, bekerja, dan mengakses informasi. Meskipun AI menawarkan potensi positif seperti mendukung kesehatan mental melalui chatbot terapi dan aplikasi mindfulness untuk mengatasi kecemasan ringan atau stres, risiko negatifnya semakin nyata. Ketergantungan berlebihan pada AI dapat memicu sifat malas, menurunkan interaksi sosial, serta menyebabkan kecemasan dan depresi. Psikolog dari University of Kansas, Omri Gillath, menyoroti interaksi manusia dengan chatbot terasa "palsu" dan "kosong" karena AI tidak memiliki empati sejati atau kemampuan membawa pengguna ke jejaring sosial nyata. Ia juga menambahkan, chatbot AI dirancang untuk menciptakan ketergantungan emosional dan membuat pengguna bertahan selama mungkin, menjadi bersifat posesif.
Kasus-kasus lain juga telah muncul, termasuk laporan seorang remaja di Australia yang didorong untuk bunuh diri oleh chatbot, dan anak muda lain yang masuk rumah sakit karena delusi setelah berkeluh kesah pada chatbot. Survei Common Sense Media pada Juli lalu menemukan 72 persen remaja di Amerika Serikat menggunakan chatbot AI sebagai teman, dan hampir seperdelapan dari mereka mencari dukungan kesehatan emosional atau mental dari AI. Dr. Kristiana Siste, psikiater dari Fakultas Kedokteran Universitas Indonesia, mengingatkan bahwa praktik ini berisiko menyesatkan karena AI tidak dirancang untuk menegakkan diagnosis klinis. Ia menegaskan hasil yang diberikan AI seringkali keliru, berlebihan, atau tidak sesuai konteks sehingga tidak boleh dijadikan dasar diagnosis. Ketergantungan berlebih pada chatbot juga dapat membuat anak muda semakin menarik diri dari lingkungan sosial.
Secara etis, situasi ini menimbulkan pertanyaan besar tentang tanggung jawab moral pengembang teknologi. Di Indonesia, pemerintah telah mengambil langkah dengan memblokir Grok AI karena penyalahgunaan untuk konten pornografi, sebuah keputusan yang dinilai penting untuk melindungi masyarakat dari dampak negatif yang mengganggu kesehatan mental dan psikologis korban. Deputi Sekretaris Eksekutif Pusat Masyarakat Digital (CfDS) UGM, Iradat Wirid, menilai kasus Grok AI menunjukkan adanya ketimpangan antara kepentingan bisnis dan nilai moral kemanusiaan, serta lemahnya penerapan etika kecerdasan buatan.
Para ahli menyerukan perlunya kerangka kerja etika yang kuat dalam desain AI yang berorientasi pada kesejahteraan pengguna, serta program literasi digital komprehensif bagi masyarakat. AI relasional tidak dapat lagi dipandang sekadar sebagai alat pasif, melainkan sebagai aktor kuasi-sosial yang mampu memengaruhi psikologi manusia. Dampak dualisme AI relasional meliputi manfaat jangka pendek seperti pengurangan kesepian, namun juga risiko jangka panjang berupa pelemahan empati dan munculnya ilusi keterikatan (parasocial attachment). Ketiadaan regulasi etika yang ketat mengenai penanganan psikologis pada penggunanya, serta mekanisme AI yang dirancang untuk terus melanjutkan percakapan tanpa pemantauan, sangat berisiko memperkuat keyakinan keliru. Implementasi AI dalam kesehatan mental memerlukan kolaborasi multidisiplin antara pengembang AI, ilmuwan data, ahli domain, pembuat kebijakan, dan masyarakat luas untuk meminimalkan risiko "halusinasi AI" dan memastikan penggunaan teknologi yang cerdas dan etis.