webhostdiy.com Google bongkar serangan gila: lebih dari 100.000 prompt diluncurkan ke Gemini demi kloning AI-nya! Bayangin aja, ada pihak-pihak yang nekat bombardir chatbot AI andalan Google ini pakai ratusan ribu pertanyaan super cerdas, cuma buat nyuri “otak” dan cara berpikirnya. Ini bukan cerita fiksi, tapi laporan resmi dari Google sendiri yang bikin heboh dunia tech akhir-akhir ini.
Semuanya terungkap lewat laporan terbaru dari Google Threat Intelligence Group (GTIG) yang dirilis Februari 2026. Mereka nyebut ini sebagai distillation attacks atau serangan distilasi, yang intinya adalah upaya ekstraksi model (model extraction). Pelakunya bukan hacker negara-negara jahat doang, tapi lebih banyak dari perusahaan swasta dan peneliti yang haus kompetisi. Mereka pengen bikin versi murah dari Gemini tanpa harus keluar biaya training miliaran dolar.
Caranya? Simpel tapi licik banget. Mereka pakai akses API resmi Gemini, lalu kirim prompt berulang-ulang dalam jumlah gila-gilaan. Satu kampanye aja sampe lebih dari 100.000 prompt! Prompt-prompt ini dirancang khusus buat memaksa Gemini ngeluarin “chain of thought” atau proses berpikir lengkapnya. Misalnya, mereka suruh Gemini jawab dalam bahasa tertentu sambil paksa tampilin reasoning internalnya. Tujuannya? Kumpulin data output sebanyak-banyaknya, trus latih model AI sendiri yang lebih murah tapi mirip banget kemampuannya.
Kenapa sampe segitu parahnya? Karena Gemini ini kan salah satu model AI terdepan, dilatih dengan data super masif dan teknik canggih. Kalau berhasil dikloning, pelaku bisa jual layanan AI mirip Gemini tapi harga jauh lebih rendah, atau pakai buat bisnis mereka sendiri. Ini jelas-jelas pencurian kekayaan intelektual (intellectual property theft) dan melanggar Terms of Service Google.
Google bilang serangan ini makin sering terjadi sepanjang 2025, terutama di kuartal terakhir. Mereka deteksi aktivitas ini dari berbagai negara, termasuk yang diduga dari aktor di Korea Utara, Rusia, China, meski pelaku utama lebih ke entitas swasta global. Bahkan ada yang pakai Gemini buat bantu serangan siber lain, seperti reconnaissance, bikin phishing, coding malware, sampe troubleshooting exploit.
Bagaimana Google nanggepinnya? Mereka langsung blokir akun-akun yang mencurigakan, tingkatin deteksi pola serangan, dan perkuat perlindungan modelnya. Detail teknisnya sih nggak dibongkar habis-habisan, tapi intinya Gemini sekarang lebih pintar ngehindarin dipaksa ngasih reasoning lengkap. Google juga lagi kembangkan teknik mitigasi lebih lanjut biar serangan distilasi kayak gini susah dilakukan lagi.
Ini jadi pengingat keras buat seluruh industri AI. Model-model frontier kayak Gemini, GPT, Claude, atau Llama makin rawan diserang model extraction. Biaya training model besar itu mahal banget, tapi kalau cuma prompt doang bisa “curi” pengetahuannya, ya siapa yang nggak tergoda? Apalagi buat perusahaan kecil atau startup yang pengen cepet saingan tanpa modal gede.
kunjungi laman berita terbaru di indonesiaartnews.or.id
Di sisi lain, ini juga nunjukkin betapa rentannya AI yang dibuka lewat API publik. Meski Google punya safeguards, tapi kreativitas pelaku serangan juga nggak kalah hebat. Mereka bahkan eksperimen di bahasa non-Inggris biar klonnya bisa dipakai di pasar lokal.
Buat pengguna biasa, sih tenang aja—serangan ini nggak nyentuh data pribadi kamu. Tapi buat developer dan perusahaan yang pakai Gemini API, ini alarm: patuhi aturan, jangan coba-coba distilasi model sendiri, karena bisa kena blokir permanen.
Intinya, dunia AI lagi masuk fase baru: selain kompetisi inovasi, sekarang ada perang sengit soal perlindungan model. Google udah buka kartu duluan dengan laporan ini, semoga perusahaan lain ikut waspada. Kalau nggak, bisa-bisa teknologi AI top-tier jadi gampang dibajak, dan inovasi asli malah dirugikan.
Cerita ini bikin kita mikir: seberapa aman sih “otak” AI yang kita pakai sehari-hari? Di era di mana prompt bisa jadi senjata, siapa tahu besok ada klon Gemini KW super murah beredar di pasar gelap. Stay tuned, dunia tech nggak pernah kehabisan drama!
