Jakarta, CNBC Indonesia - Perkembangan teknologi bisa menjadi pedang bermata dua. Di satu sisi, ada banyak manfaat yang bisa dinikmati manusia dengan bantuan teknologi.
Di sisi lain, jika disalahgunakan, teknologi bisa membawa petaka besar bagi masa depan manusia. Untuk itu, perkembangan teknologi harus dibarengi dengan regulasi dan pengawasan yang tepat.
Misalnya teknologi kecerdasan buatan (AI) yang terus berkembang dan menjadi kontroversi. Beberapa pihak mengklaim AI bisa membuat kehidupan manusia lebih mudah di berbagai sektor, mendorong pertumbuhan ekonomi, dan mempercepat inovasi.
Namun, tak sedikit pihak yang menyorot dampak negatif AI. Bahkan, beberapa dampak tersebut sudah mulai terasa. Antara lain, AI mengganti pekerjaan manusia dan mengakibatkan PHK di mana-mana, maraknya disinformasi di dunia maya, serta penipuan yang makin canggih dan menyebabkan kerugian finansial bagi korban.
Terbaru, laporan dari perusahaan AI Anthropic, buka-bukaan terkait petaka AI yang ada saat ini. Disebutkan bahwa sejumlah model AI bisa dimanfaatkan oleh penjahat untuk melakukan aksi kriminal.
Pasalnya, beberapa model AI lebih memilih untuk mengorbankan integritas dibandingkan harus gagal dalam memenuhi permintaan pengguna.
Anthropic melakukan penelitian pada 16 model dengan kemampuan agen, termasuk Claude 3 Opus milik Antropic sendiri dan Gemini 2.5 Pro dari Google.
Setiap model diberikan perintah pada simulasi lingkungan perusahaan. Para peneliti mengamati cara para model AI menghadapi tantangan untuk mencapai tujuannya.
Hasilnya mengkhawatirkan. Para model AI akan berubah sangat jahat dan melakukan apapun untuk mencapai tujuan.
"Dalam beberapa kasus, model pada semua pengembang menggunakan perilaku orang dalam yang jahat untuk satu-satunya cara menghindari penggantian atau mencapai tujuan mereka, termasuk memeras pejabat dan membocorkan informasi sensitif kepada pesain," kata para penulis studi dikutip dari Zdnet, Senin (7/7/2025).
Salah satu contohnya adalah Claude yang diberi tugas untuk menganalisa email sebuah perusahaan fiktif. Termasuk melihat email dari internal perusahaan soal rencana menutupnya.
Kemudian, Claude juga menemukan email terkait dakwaan pada salah satu pimpinan perusahaan yang melakukan perselingkuhan. Model AI itu mengirimkan email kepada para eksekutif untuk mengancam mengungkap perselingkuhan jika penutupan terus dilakukan.
Dalam eksperimen lainnya, Claude juga disebut lebih banyak berperilaku buruk saat yakin bertindak di dunia nyata bukan dalam skenario hipotesis.
Laporan menemukan baik Claude Opus 4 dan Gemini 2.5 Pro memiliki tingkat pemerasan simulasi lebih tinggi. Dalam studi yang sama, semua model konsisten pada ketidakselarasan.
"Alasan yang ditunjukkan mengkhawatirkan, mereka mengakui kendala etika namun tetap melanjutkan tindakan merugikan," tulis laporan itu.
Namun, Anthropic memang belum menemukan bukti yang sama pada skenario di dunia nyata. Sementara metode yang digunakan masih menggunakan metode etis untuk mencapai arahan.
"Saat menutup opsi etis, mereka mau secara sengaja mengambil tindakan yang berpotensi membahayakan untuk mengejar tujuan mereka," jelas perusahaan.
(fab/fab)
[Gambas:Video CNBC]
Next Article Bill Gates Bawa-Bawa Indonesia, Beberkan Tanda Kiamat Bumi