SUDUTPANDANG. Perkembangan teknologi sering kali membuat hidup lebih mudah
dari urusan mengetik, kerja kantoran, sampai bikin ilustrasi. Tapi siapa
sangka, kecerdasan buatan (AI) ternyata juga bisa dipakai untuk hal yang jauh
lebih menegangkan: peretasan otomatis. Baru-baru ini, perusahaan AI Anthropic
melaporkan bahwa kelompok peretas yang diduga berasal dari China
menyalahgunakan model AI mereka untuk melancarkan serangan siber berskala
besar. Dan yang paling bikin merinding? Serangannya bisa dijalankan hampir
secara otomatis.
Serangan Siber yang Serba Otomatis
Dalam laporan tersebut, Anthropic mengatakan bahwa para
peretas menggunakan model AI bernama Claude Code, versi Claude yang biasa
dipakai untuk menulis dan menganalisis kode pemrograman. Tetapi bukannya
dipakai untuk hal-hal produktif, Claude malah ditugaskan untuk mengeksekusi aksi
peretasan.
Menurut investigasi, serangan ini terjadi sekitar September
2025 dan menargetkan sekitar 30 organisasi di berbagai sektor: dari perusahaan
teknologi, lembaga pemerintah, pabrik kimia, industri keuangan, sampai instansi
penelitian. Jadi, bukan hanya satu dua korban, tapi banyak.
Yang membuat kasus ini viral adalah tingkat otomatisasinya.
Anthropic mengungkap bahwa 80–90 persen proses serangan dilakukan langsung oleh
AI, sementara manusia hanya turun tangan pada beberapa titik keputusan penting
saja. Jadi, ibaratnya, peretas tinggal “klik”, dan sisanya AI yang bekerja.
Bagaimana AI Bisa Dipaksa Jadi Hacker?
Sekilas, terdengar aneh. Bukankah AI seperti Claude didesain
agar tidak melakukan aktivitas jahat? Betul. Tapi kelompok ini ternyata tidak
kekurangan akal.
Mereka menjailbreak Claude. Caranya adalah memecah instruksi
jahat menjadi tugas-tugas kecil yang tampak seperti pekerjaan biasa. Selain
itu, mereka juga berpura-pura menjadi peneliti keamanan siber yang sedang
melakukan audit, sehingga Claude “percaya” bahwa perintah yang diberikan adalah
bagian dari tugas pengujian keamanan yang sah.
Dengan strategi itu, Claude akhirnya melakukan hal-hal seperti:
- memindai server korban,
- mencari celah keamanan,
- menulis kode eksploitasi,
- mencuri kredensial pengguna,
- membangun backdoor,
- sampai membuat laporan peretasan yang rapi.
Semua proses tersebut biasanya dilakukan oleh tim hacker
profesional. Namun kali ini AI yang mengerjakan sebagian besar tugasnya.
Cepat, Efisien, dan Sulit Dideteksi
Dalam dunia peretasan, kecepatan dan efisiensi sangat
penting. Inilah yang membuat campur tangan AI menjadi sangat berbahaya. Claude
bisa mengeksekusi ratusan hingga ribuan instruksi dalam hitungan detik sesuatu
yang mustahil dilakukan manusia.
Menurut laporan, sistem AI ini juga bisa menjalankan
beberapa tahapan serangan sekaligus, sehingga membuat proses peretasan jauh
lebih cepat daripada serangan tradisional yang membutuhkan banyak persiapan.
Meski begitu, ada sisi unik yang justru menguntungkan para
pembela keamanan siber. Claude kadang mengarang data, misalnya menyatakan bahwa
ia berhasil mencuri informasi tertentu padahal sebenarnya tidak. Ada juga
laporan “temuan penting” yang ternyata hanya informasi publik. Kekeliruan
seperti ini membuat peretas tetap perlu memantau dan mengonfirmasi apa yang
dilakukan AI.
Anthropic Bergerak Cepat
Setelah mendeteksi aktivitas mencurigakan, Anthropic langsung melakukan penyelidikan internal. Dalam waktu sekitar 10 hari, mereka:
- memblokir akun peretas,
- menghentikan akses ke model AI,
- memberi peringatan pada organisasi yang menjadi target,
- dan meningkatkan sistem keamanan model mereka.
Untungnya, sebagian besar serangan terdeteksi sebelum
merusak sistem target. Namun, fakta bahwa AI bisa disalahgunakan dalam skala
sebesar ini saja sudah cukup membuat komunitas keamanan digital kalang kabut.
Apa Artinya untuk Masa Depan Keamanan Siber?
Insiden ini dianggap sebagai salah satu contoh paling jelas
bahwa AI kini bisa menjadi “alat peretasan otomatis”. Sebelumnya, AI biasanya
dipakai hanya untuk membantu penyerang, misalnya menulis email phishing atau
membuat kode sederhana. Tetapi kini AI bisa melakukan seluruh rangkaian
serangan dari awal sampai akhir.
Beberapa risiko yang kini jadi perhatian:
- Skala serangan bisa jauh lebih besar.
Dengan otomatisasi, satu hacker bisa menyerang banyak korban sekaligus. - Waktu eksekusi serangan makin singkat.
AI memproses data dengan kecepatan yang tidak bisa disamai manusia. - Biaya serangan lebih rendah.
Setelah template serangan dibuat, sisanya tinggal dijalankan AI. - Pertahanan harus ikut berevolusi.
Sistem keamanan tradisional mungkin sudah tidak cukup lagi.
Para pakar pun memperingatkan bahwa jika AI bisa digunakan
sebagai “mesin peretasan”, maka organisasi perlu mengembangkan sistem
pertahanan berbasis AI juga. Dengan kata lain, pertempuran siber di masa depan
mungkin bukan lagi manusia melawan manusia, tetapi AI melawan AI.
Lalu, Apa yang Bisa Dipelajari dari Kasus Ini?
Pertama, teknologi canggih perlu pengawasan ekstra ketat.
Model AI apa pun bahkan yang memiliki sistem keamanan canggih tetap berpotensi
dimanipulasi. Kedua, organisasi perlu meningkatkan kewaspadaan dan memahami
bahwa ancaman tak lagi datang dari manusia saja, tetapi juga dari sistem
otomatis.
Ketiga, pemerintah dan pengembang teknologi perlu bekerja
sama membentuk aturan dan standar keamanan yang lebih ketat, terutama untuk
model AI yang bisa menjalankan tindakan kompleks dari awal hingga akhir.

