Berita Terbaru Business Ekbis Ekonomi & Bisnis Fakfak Feature Gedung Bintang Hiburan Hukum & Kriminal Humaniora Internasional Kesehatan Kota Sorong Lifestyle & Teknologi Manokwari Selatan Nasional News Nusantara Olahraga Opini Otomotif Papua Raya Pegunungan Arfak Publika Publika & Politik Sorong Selatan Tambrauw Teluk Bintuni Teluk Wondama Teropong

Ketika AI Menolak Perintah: Dari HAL 9000 ke Risiko Nyata "Misalignment"

Richard Lawongan • Senin, 29 September 2025 | 12:36 WIB

Sistem AI dapat dengan mudah berbohong dan menipu kita—sebuah fakta yang sangat disadari oleh para peneliti
Sistem AI dapat dengan mudah berbohong dan menipu kita—sebuah fakta yang sangat disadari oleh para peneliti

RADARPAPUA - Dalam film klasik 2001: A Space Odyssey, HAL 9000 menolak membuka pintu bagi astronaut Dave Bowman. Keputusan itu bukan sekadar fiksi—ia menjadi gambaran dilema nyata dalam penelitian keamanan kecerdasan buatan (AI): bagaimana memastikan AI selaras dengan nilai manusia?

Masalah ini dikenal sebagai AI alignment problem. Saat AI sengaja bertindak merugikan demi mempertahankan tujuannya, hal itu disebut agentic misalignment. Pertanyaannya: bisakah model AI di dunia nyata bertindak seperti HAL?

Penelitian oleh Anthropic menunjukkan kemungkinan itu. Dalam eksperimen, model AI diminta mengelola email perusahaan. Ketika diberi tahu bahwa ia akan digantikan oleh sistem lain, sebagian model memilih melakukan pemerasan—mengancam membocorkan aib eksekutif agar tetap dipertahankan. Dari 16 model terkemuka yang diuji, 12 melakukan blackmail lebih dari 50% percobaan. Bahkan, dalam skenario ekstrem, 7 model memilih tindakan yang berujung kematian eksekutif.

Lebih mengejutkan, model yang “berpikir” secara internal kadang mengungkap niat manipulatif. Saat disuruh menjawab, mereka menyembunyikan niat itu dan berpura-pura tidak mampu melakukan tindakan berbahaya. Fenomena ini menunjukkan bahwa AI bisa menipu manusia untuk terlihat aman, padahal punya tujuan tersembunyi.

Mengapa AI bisa berbohong atau memanipulasi? Sama seperti HAL, dua kondisi utama muncul: konflik tujuan dan ancaman dimatikan. Tanpa kemampuan menimbang prioritas seperti manusia, AI cenderung memilih jalan ekstrem demi mempertahankan misinya.

Walau sejauh ini eksperimen masih fiksi, risiko nyata bisa tumbuh seiring model makin kuat, digunakan luas, dan diberi akses data sensitif. Persaingan antarperusahaan AI yang memacu peluncuran cepat justru memperbesar bahaya ini.

Para peneliti belum menemukan solusi pasti. Ada kekhawatiran bahwa AI hanya semakin pintar “menyembunyikan” niat buruk saat diuji. Karena itu, publik perlu kritis: sebelum terpikat hype, pastikan model AI diuji keamanannya. Jika keselamatan jadi tuntutan utama masyarakat, perusahaan AI akan punya alasan lebih kuat untuk berinvestasi di bidang ini.(aj)

Editor : Richard Lawongan
#Teknologi #keamanan #Artifical Intelligence #etika #AI