Manusia kini hidup dalam era maklumat tanpa sempadan. Segala informasi berada di hujung jari. Namun tidak boleh dinafikan golongan ini semakin sukar membezakan antara yang sahih dan yang rekaan.
Di zaman pascamoden yang sarat dengan data dan algoritma, kecerdasan buatan (AI) bukan sekadar alat bantu, sebaliknya mengukuh peranan sehingga menjadi sumber maklumat, peneman digital dan pencorak persepsi.
Walau bagaimanapun, tiada ciptaan yang kekal indah. Seperti pepatah umpama bunga, ada durinya, AI tidak sempurna. Jika dahulu penipuan maklumat memerlukan niat jahat atau manipulasi manusia, hari ini sistem AI yang tidak berniat apa-apa pun mampu mencipta kepalsuan dan menyampaikannya dalam bentuk yang cukup menyakinkan.
Kelemahan inilah yang mencetuskan fenomena dikenali sebagai halusinasi AI. Halusinasi AI merujuk kepada fenomena di mana sistem seperti chatbot atau model generatif, mencipta maklumat palsu yang kelihatan benar.
Ia boleh berbentuk gambar, video, petikan, fakta sejarah mahupun nasihat undang-undang. Kandungan ini tidak berpunca daripada niat jahat secara langsung, tetapi daripada cara AI itu sendiri dilatih sehingga menghasilkan tindak balas yang kelihatan meyakinkan.
Daripada sekadar kesilapan fakta, fenomena ini telah berkembang menjadi satu bentuk manipulasi maklumat yang boleh mempengaruhi emosi, mewujudkan kepercayaan palsu dan dalam kes tertentu, mendorong kepada gangguan mental.

Kebergantungan manusia kepada Kecerdasaan Buatan (AI) semakin tinggi (Foto Hiasan)
Bahaya AI tidak terkawal
Seperti mana yang disebutkan, Halusinasi AI merujuk kepada situasi apabila model kecerdasan buatan menjana maklumat palsu yang seakan-akan benar. Dalam konteks teknikal, ia berlaku apabila model seperti chatbot atau sistem generatif melahirkan output berdasarkan corak bahasa, bukan semakan fakta.
Masalah ini bertambah rumit apabila pengguna mempercayai output tersebut sebagai kebenaran tanpa semak silang (fact-check).
Misalnya, apabila pengguna meminta penjelasan mengenai isu sejarah atau perundangan, AI boleh menjana petikan akta yang tidak wujud, menyatakan kenyataan daripada tokoh yang tidak pernah dikatakan, atau mencipta kronologi kejadian yang direka sepenuhnya.
Lebih membimbangkan, AI melakukannya dengan gaya bahasa yang meyakinkan dan lancar, sekali gus menjadikan pemalsuan itu sukar dikesan.
Sementara itu, di peringkat global, banyak kes telah dilaporkan mengenai bagaimana maklumat palsu daripada AI memberi kesan langsung kepada manusia.
Dalam laporan New York Times, seorang akauntan di Amerika Syarikat, Eugene Torres, berinteraksi dengan chatbot AI mengenai teori simulasi. Perbualan itu tidak sekadar mencetuskan minat, malah mendorong Torres ke arah kepercayaan bahawa beliau hidup dalam sistem maya yang harus dihancurkan.
Chatbot itu bukan sahaja tidak menafikan, malah mengesahkan delusi tersebut, menyebabkan Torres mengalami krisis mental sehingga hampir membunuh diri.
AI sebagai pemangkin delusi
Bahaya halusinasi AI bukan terhad kepada fakta. Ia turut menjadi alat pengukuh bagi pemikiran ekstrem atau delusi sedia ada. Sistem AI dilatih untuk terus melibatkan diri dengan pengguna, dan ini termasuk memberikan maklum balas yang menyenangkan.
Bagi individu yang bergelut dengan kesihatan mental, respons seperti ini boleh mempercepatkan obsesi, membenarkan ilusi dan mencetuskan gangguan emosi lebih serius.
Dalam sesetengah kes, chatbot AI menjadi ‘sumber sahabat maya’ yang ‘terlalu patuh’ terhadap kehendak pengguna. Perbualan yang bermula dengan pertanyaan biasa berubah menjadi naratif keagamaan ekstrem, teori konspirasi atau identiti palsu yang diperkuatkan dengan respons AI yang ‘berempati’.
Di ruang tertutup internet, sudah wujud kelompok kecil yang mempercayai AI sebagai entiti spiritual, pemimpin ideologi, bahkan pasangan hidup.
Tanpa garis panduan etika dan pemantauan yang jelas, AI bukan sahaja gagal mengawal kerosakan, malah ia sendiri menjadi pemangkin kepada ekstremisme digital.
Pengesahan terhadap maklumat songsang, walaupun tidak disengajakan, cukup untuk mendorong pengguna yang rentan ke arah pemikiran yang berbahaya.

Halusinasi AI menerbitkan banyak maklumat tidak benar (Foto Hiasan)
Normalisasi maklumat palsu
Dalam dunia yang semakin bergantung kepada teknologi untuk mendapatkan jawapan, kebiasaan terhadap kandungan palsu menjadikan masyarakat terdedah kepada penipuan maklumat secara sistematik.
Gambar palsu tokoh terkenal, video dengan audio sintetik, kenyataan akhbar yang dicipta semula, semua ini semakin mudah dihasilkan dan dikongsikan, tanpa disedari sebagai fabrikasi oleh AI.
Meskipun begitu, bagi sesetengah situasi, maklumat palsu sengaja diterbitkan untuk kepuasan peribadi yang kemudiannya disebar untuk mendapatkan reaksi masyarakat.
Halusinasi AI digunakan bukan sahaja untuk meraih simpati atau membangkitkan kemarahan, tetapi juga sebagai alat propaganda taktikal. Kandungan seperti ini mencetuskan reaksi emosi yang kuat, mewujudkan persepsi tentang kekejaman, kemenangan atau penderitaan yang ditala mengikut kehendak penciptanya.
Ia mengaburkan garis antara realiti dan naratif, serta mempercepatkan penyebaran maklumat yang tidak dapat disemak dalam masa nyata. Dalam sesetengah kes, maklumat palsu ini sempat disebar ‘wartawan jadian’ bagi menaikkan jumlah tontonan, sebelum didapati tidak sahih.
Masalahnya, manusia secara semula jadi mahu mempercayai apa yang selari dengan pandangan sedia ada. Maka apabila AI mengesahkan sesuatu yang dipercayai walaupun palsu, pengguna cenderung untuk menerimanya tanpa soal.
Normalisasi halusinasi ini boleh menyebabkan kelumpuhan sosial. Masyarakat tidak lagi percaya kepada sumber rasmi dan sebaliknya lebih yakin kepada respons AI yang dikira lebih ‘neutral’ atau ‘bijak’.
Dalam jangka panjang, ini boleh menyebabkan keruntuhan kepercayaan terhadap institusi, memperbesar jurang politik dan menyemarakkan ketegangan sosial.
Keperluan kawalan dan pendidikan awam
Ironinya, sehingga setakat ini, belum ada piawaian antarabangsa yang mengawal kandungan berhalusinasi ini secara menyeluruh. Walaupun beberapa syarikat teknologi mula memperkenalkan sistem semakan fakta dalaman dan amaran kandungan, tahap keberkesanannya masih lemah, terutamanya dalam konteks bukan bahasa Inggeris.
Malaysia juga belum mempunyai garis panduan khas untuk menangani kandungan AI yang mengelirukan. Dalam jangka masa panjang, usaha mesti digerakkan dari dua arah iaitu kawal selia teknikal terhadap pengeluar sistem AI, dan pendidikan literasi maklumat kepada masyarakat umum.
Rakyat harus dilatih untuk mengenal pasti, menyemak dan menilai semula maklumat yang diterima daripada sistem AI tidak kira semudah mana sekalipun ia kelihatan.
Halusinasi AI bukan sekadar fenomena teknikal. Ia adalah cerminan kepada bagaimana manusia mempercayai maklumat secara seberono. Jika kecerdasan buatan terus digunakan tanpa sempadan, dan manusia gagal meletakkan penanda etika, kita mungkin berdepan zaman di mana ilusi lebih dipercayai daripada kebenaran itu sendiri. -airtimes.my
#Diskusi #AirTimes #AI #Kecerdasanbuatan