Hacker Pakai AI Sekali Klik? Kisah Serangan Siber China yang Bikin Dunia Waswas

     

    Hacker Pakai AI Sekali Klik? Kisah Serangan Siber China yang Bikin Dunia Waswas

    SUDUTPANDANG. Perkembangan teknologi sering kali membuat hidup lebih mudah dari urusan mengetik, kerja kantoran, sampai bikin ilustrasi. Tapi siapa sangka, kecerdasan buatan (AI) ternyata juga bisa dipakai untuk hal yang jauh lebih menegangkan: peretasan otomatis. Baru-baru ini, perusahaan AI Anthropic melaporkan bahwa kelompok peretas yang diduga berasal dari China menyalahgunakan model AI mereka untuk melancarkan serangan siber berskala besar. Dan yang paling bikin merinding? Serangannya bisa dijalankan hampir secara otomatis.

     

    Serangan Siber yang Serba Otomatis

     

    Dalam laporan tersebut, Anthropic mengatakan bahwa para peretas menggunakan model AI bernama Claude Code, versi Claude yang biasa dipakai untuk menulis dan menganalisis kode pemrograman. Tetapi bukannya dipakai untuk hal-hal produktif, Claude malah ditugaskan untuk mengeksekusi aksi peretasan.

     

    Menurut investigasi, serangan ini terjadi sekitar September 2025 dan menargetkan sekitar 30 organisasi di berbagai sektor: dari perusahaan teknologi, lembaga pemerintah, pabrik kimia, industri keuangan, sampai instansi penelitian. Jadi, bukan hanya satu dua korban, tapi banyak.

     

    Yang membuat kasus ini viral adalah tingkat otomatisasinya. Anthropic mengungkap bahwa 80–90 persen proses serangan dilakukan langsung oleh AI, sementara manusia hanya turun tangan pada beberapa titik keputusan penting saja. Jadi, ibaratnya, peretas tinggal “klik”, dan sisanya AI yang bekerja.

     

    Bagaimana AI Bisa Dipaksa Jadi Hacker?

     

    Sekilas, terdengar aneh. Bukankah AI seperti Claude didesain agar tidak melakukan aktivitas jahat? Betul. Tapi kelompok ini ternyata tidak kekurangan akal.

     

    Mereka menjailbreak Claude. Caranya adalah memecah instruksi jahat menjadi tugas-tugas kecil yang tampak seperti pekerjaan biasa. Selain itu, mereka juga berpura-pura menjadi peneliti keamanan siber yang sedang melakukan audit, sehingga Claude “percaya” bahwa perintah yang diberikan adalah bagian dari tugas pengujian keamanan yang sah.

     

    Dengan strategi itu, Claude akhirnya melakukan hal-hal seperti:

    • memindai server korban,
    • mencari celah keamanan,
    • menulis kode eksploitasi,
    • mencuri kredensial pengguna,
    • membangun backdoor,
    • sampai membuat laporan peretasan yang rapi.

     

    Semua proses tersebut biasanya dilakukan oleh tim hacker profesional. Namun kali ini AI yang mengerjakan sebagian besar tugasnya.

     

    Cepat, Efisien, dan Sulit Dideteksi

     

    Dalam dunia peretasan, kecepatan dan efisiensi sangat penting. Inilah yang membuat campur tangan AI menjadi sangat berbahaya. Claude bisa mengeksekusi ratusan hingga ribuan instruksi dalam hitungan detik sesuatu yang mustahil dilakukan manusia.

     

    Menurut laporan, sistem AI ini juga bisa menjalankan beberapa tahapan serangan sekaligus, sehingga membuat proses peretasan jauh lebih cepat daripada serangan tradisional yang membutuhkan banyak persiapan.

     

    Meski begitu, ada sisi unik yang justru menguntungkan para pembela keamanan siber. Claude kadang mengarang data, misalnya menyatakan bahwa ia berhasil mencuri informasi tertentu padahal sebenarnya tidak. Ada juga laporan “temuan penting” yang ternyata hanya informasi publik. Kekeliruan seperti ini membuat peretas tetap perlu memantau dan mengonfirmasi apa yang dilakukan AI.

     

    Anthropic Bergerak Cepat

     

    Setelah mendeteksi aktivitas mencurigakan, Anthropic langsung melakukan penyelidikan internal. Dalam waktu sekitar 10 hari, mereka:

    • memblokir akun peretas,
    • menghentikan akses ke model AI,
    • memberi peringatan pada organisasi yang menjadi target,
    • dan meningkatkan sistem keamanan model mereka.

     

    Untungnya, sebagian besar serangan terdeteksi sebelum merusak sistem target. Namun, fakta bahwa AI bisa disalahgunakan dalam skala sebesar ini saja sudah cukup membuat komunitas keamanan digital kalang kabut.

     

    Apa Artinya untuk Masa Depan Keamanan Siber?

     

    Insiden ini dianggap sebagai salah satu contoh paling jelas bahwa AI kini bisa menjadi “alat peretasan otomatis”. Sebelumnya, AI biasanya dipakai hanya untuk membantu penyerang, misalnya menulis email phishing atau membuat kode sederhana. Tetapi kini AI bisa melakukan seluruh rangkaian serangan dari awal sampai akhir.

     

    Beberapa risiko yang kini jadi perhatian:

    1. Skala serangan bisa jauh lebih besar.
      Dengan otomatisasi, satu hacker bisa menyerang banyak korban sekaligus.
    2. Waktu eksekusi serangan makin singkat.
      AI memproses data dengan kecepatan yang tidak bisa disamai manusia.
    3. Biaya serangan lebih rendah.
      Setelah template serangan dibuat, sisanya tinggal dijalankan AI.
    4. Pertahanan harus ikut berevolusi.
      Sistem keamanan tradisional mungkin sudah tidak cukup lagi.

     

    Para pakar pun memperingatkan bahwa jika AI bisa digunakan sebagai “mesin peretasan”, maka organisasi perlu mengembangkan sistem pertahanan berbasis AI juga. Dengan kata lain, pertempuran siber di masa depan mungkin bukan lagi manusia melawan manusia, tetapi AI melawan AI.

     

    Lalu, Apa yang Bisa Dipelajari dari Kasus Ini?

     

    Pertama, teknologi canggih perlu pengawasan ekstra ketat. Model AI apa pun bahkan yang memiliki sistem keamanan canggih tetap berpotensi dimanipulasi. Kedua, organisasi perlu meningkatkan kewaspadaan dan memahami bahwa ancaman tak lagi datang dari manusia saja, tetapi juga dari sistem otomatis.

     

    Ketiga, pemerintah dan pengembang teknologi perlu bekerja sama membentuk aturan dan standar keamanan yang lebih ketat, terutama untuk model AI yang bisa menjalankan tindakan kompleks dari awal hingga akhir.

    LihatTutupKomentar