900 Serangan dalam 12 Jam: Beginilah Cara Algoritma AI Mengubah Perang Modern
Saya mendapat forward sebuah artikel dari seorang teman. Tentang algoritma AI di perang Iran–Israel–AS 2026.
Saya habiskan membacanya. Memperdalam lagi dengan membaca beberapa sumber referensinya: report media seperti The Daily Star, The Jerusalem Post, Interesting Engineering hingga analisis yang lebih teknis dari CSIS.
Sebagai orang yang hidupnya lama di dunia software development, cara saya membaca report itu agak berbeda. Saya tidak melihatnya cuma sebagai berita geopolitik.
Saya melihatnya sebagai sebuah arsitektur sistem.
Ya, algoritma AI bekerja di perang ini. Outputnya adalah ledakan, drone, dan misil,
Dan bagi Anda pernah coding cukup lama, Anda tahu bahwa algoritma itu sangat menentukan. Bisa efektif, efisien dan sangat cepat. Tapi juga bisa luar biasa berbahaya.
Perang Modern Sudah Mirip Automation Pipeline
Dalam dunia software modern ada istilah automation pipeline.
Bayangkan sebuah pabrik mobil otomatis.
Di ujung pertama masuk bahan mentah.
Di tengah ada robot yang memotong, mengelas, merakit.
Di ujung terakhir keluar mobil yang sudah jadi.
Tidak ada manusia yang merakit satu per satu.
Semua berjalan otomatis dalam satu rangkaian proses.
Di dunia software, pipeline seperti ini dikenal sebagai CI/CD (Continuous Integration / Continuous Deployment).

Sederhananya begini.
Dulu kalau kita membangun software, prosesnya panjang dan lamaaa.
Programmer menulis kode, kode diuji manual, tim meeting, baru di-deploy ke server produksi secara manual
Sekarang, banyak perusahaan sudah memakai automation pipeline.
Pipeline itu seperti jalur produksi di pabrik.
Begitu kode dinyatakan selesai ditulis, sistem CI/CD akan mengecek kode. bug diperiksa keamanan dicek, menjalankan tes otomatis, lalu sistem otomatis deploy ke server produksi
Semua berjalan otomatis.
Cepat. Efisien.
Nyaris tanpa manusia.
Kill Chain: Dari Data ke Ledakan
Dalam perang modern, konsep yang sama mulai muncul.
- Data masuk dari satelit.
- Sensor membaca pergerakan kendaraan.
- Drone mengirim video.
- AI menganalisis.
Beberapa detik kemudian daftar target muncul di layar pak komandan.
Jika di dunia software disebut automation pipeline, di dunia militer disebut kill chain.

Secara sederhana urutannya seperti ini:
- Find – menemukan target
- Fix – memastikan target benar
- Track – mengikuti pergerakan target
- Target – menentukan cara menyerang
- Engage – meluncurkan serangan
- Assess – mengevaluasi hasilnya
Di perang lama, konon proses ini bisa memakan waktu 72 hingga 96 jam.
- Intelijen mengumpulkan data.
- Analis memeriksa foto satelit.
- Para perwira rapat.
Nah sekarang, AI bisa mempersingkatnya menjadi beberapa menit saja.
Itulah sebabnya pada awal Operasi Epic Fury, operasi militer Amerika dan Israel terhadap Iran pada Februari 2026, dunia melihat sesuatu yang belum pernah terjadi sebelumnya.
Di klaim bahwa terjadi hampir 900 serangan presisi dalam 12 jam pertama.
Bahkan kalau ini film Hollywood pun, kita akan bilang tidak realistis.
Tapi ini bukan film. Ini algoritma yang bekerja sangat cepat.
OODA Loop: Algoritma Militer Sebelum AI
Puluhan tahun sebelum AI populer, seorang kolonel Angkatan Udara AS bernama John Boyd menciptakan konsep bernama OODA Loop.
OODA adalah singkatan dari:
- Observe — mengamati situasi
- Orient — memahami situasi
- Decide — membuat keputusan
- Act — bertindak
Konsepnya sederhana.
Dalam konflik apa pun, pihak yang bisa menjalankan siklus ini lebih cepat dari lawannya akan menang.
Bukan yang paling kuat. Tapi yang paling cepat!
Kalau Anda programmer, ini sebenarnya hanya loop sederhana:
while enemy_exists:
observe()
orient()
decide()
attack()Selama puluhan tahun, OODA Loop dibatasi satu hal, yaitu kecepatan otak manusia.
Sekarang dua tahap pertama — Observe dan Orient — hampir sepenuhnya dilakukan oleh AI.
Satelit memotret.
Drone mengirim video.
Sensor mengirim sinyal.
AI memproses semuanya sekaligus.
Jika manusia butuh jam untuk menganalisis data itu, AI bisa melakukannya dalam detik.
Ketika Algoritma Membuat Daftar Orang Yang Harus Mati
Di sinilah bagian yang membuat saya merinding. Karena saya tahu bagaimana sistem seperti ini bekerja.
Dalam laporan investigasi +972 Magazine, disebutkan adanya beberapa sistem AI militer yang digunakan untuk menentukan target.
1. Lavender
Salah satu sistem yang sering disebut dalam laporan investigasi adalah Lavender.

Cara kerjanya sebenarnya tidak jauh dari algoritma yang kita kenal di internet.
Bayangkan algoritma rekomendasi di TikTok.
Setiap pengguna memiliki banyak data: siapa yang mereka ikuti, video apa yang mereka tonton, berapa lama mereka menonton, siapa yang mereka kirimi pesan.
Algoritma kemudian menghitung skor ketertarikan.
interest_score = 0 – 100
Jika skor tinggi, video tertentu muncul di beranda Anda.
Lavender bekerja dengan logika yang mirip. Hanya saja datanya jauh lebih kompleks.
Cara kerjanya kira-kira seperti ini.
Sistem mengumpulkan ratusan jenis data:
- metadata siapa menelepon siapa
- siapa sering berada di lokasi tertentu
- siapa pernah berada dekat fasilitas militer
- siapa terhubung dengan jaringan sosial tertentu
- hubungan keluarga
- hubungan dengan individu lain yang sudah masuk daftar target
- pola perjalanan harian
- metadata komunikasi terenkripsi
- lokasi GPS
Semua data ini dimasukkan ke dalam model machine learning.
Model kemudian menghitung risk score.
Misalnya:
Nama: X
Risk Score: 92
Confidence: 87%Jika skor melewati ambang batas tertentu, orang itu masuk daftar target.
Bayangkan seperti credit scoring di bank.
Bank menilai apakah Anda layak mendapat pinjaman.
AI perang menilai apakah seseorang layak menjadi target.
Inilah bagian yang membuat saya merasa tidak nyaman.
Karena kami tahu betul bagaimana model seperti ini dibuat.
Model machine learning tidak benar-benar “mengerti” manusia.
Ia hanya melihat pola statistik.
Misalnya:
- orang yang sering berkomunikasi dengan jaringan tertentu
- sering berada di lokasi tertentu
- memiliki pola perjalanan tertentu
Model hanya menghitung probabilitas.
Tidak ada konsep seperti:
- ayah yang sedang pulang ke rumah
- anak yang sedang makan malam
- keluarga yang sedang berkumpul
Yang ada hanya variabel.
call_frequency
geo_pattern
network_association
movement_vectorOutputnya hanya angka.
risk_score = 0 – 100Semakin tinggi skornya, semakin besar kemungkinan seseorang dianggap bagian dari jaringan militan.
Laporan menyebut sistem ini menganalisis lebih dari 37.000 individu.
Bayangkan sebuah dashboard besar. Setiap orang adalah satu baris data.
Nama. Koordinat. Skor risiko.
2. The Gospel
Algoritma yang Mencari “Alamat Target”
Jika sistem Lavender digunakan untuk menganalisis manusia, maka The Gospel fokus pada sesuatu yang lebih “fisik”: bangunan dan infrastruktur.
Targetnya bukan orang. Targetnya adalah markas militer, gudang senjata, fasilitas komunikasi, pusat komando, bunker, jalur logistik, bahkan rumah yang dicurigai dipakai sebagai tempat penyimpanan senjata.
Secara sederhana, The Gospel adalah mesin yang menghasilkan “daftar alamat target”.
Untuk memahami sistem ini, bayangkan Anda adalah seorang analis intelijen zaman dulu.
Setiap hari Anda harus membaca foto satelit, laporan drone, laporan agen lapangan, peta kota, komunikasi radio musuh.
Lalu dari semua data itu Anda mencoba menjawab satu pertanyaan, “Bangunan mana yang sebenarnya penting secara militer?”
Masalahnya, jumlah data itu sangat besar.
Satu satelit saja bisa menghasilkan ribuan gambar per hari.
Drone menghasilkan video berjam-jam.
Manusia tidak mungkin melihat semuanya.
Di sinilah The Gospel bekerja.
AI ini seperti mesin analisis data raksasa yang memakan semua informasi itu sekaligus.
Bayangkan sebuah sistem yang memiliki akses ke:
- foto satelit seperti Google Maps
- ribuan kamera seperti CCTV kota
- laporan aktivitas manusia
- data komunikasi radio
- peta jaringan listrik dan internet.
Semua data itu dimasukkan ke dalam satu sistem AI.
AI kemudian mencari pola yang mencurigakan.
Misalnya:
- sebuah bangunan yang sering didatangi kendaraan militer
- gedung biasa tapi memiliki antena komunikasi besar
- rumah kecil yang ternyata memiliki bunker di bawah tanah
- gudang yang menerima pengiriman barang dalam jumlah besar tetapi tidak memiliki aktivitas bisnis normal.
Bagi manusia, menemukan pola seperti ini sangat sulit.
Karena pola itu tersebar di ribuan data kecil.
Bagi AI, itu seperti menyusun puzzle.
Secara teknis, sistem seperti The Gospel biasanya menggabungkan beberapa teknologi AI:
1. Computer Vision
AI melihat gambar satelit atau drone lalu mengenali objek.
Mirip fitur yang bisa mengenali wajah di kamera smartphone.
Bedanya, yang dikenali bukan wajah. Melainkan kendaraan militer, radar, antena komunikasi, pintu bunker, peluncur misil.
2. Pattern Analysis
AI juga menganalisis pola aktivitas.
Misalnya kendaraan sering keluar masuk gedung tertentu, aktivitas meningkat pada malam hari, ada koneksi komunikasi ke jaringan militer.
Semua itu dihitung sebagai indikator militer.
3. Data Fusion
Ini bagian yang paling penting.
AI menggabungkan berbagai sumber data sekaligus:
- satelit
- drone
- sensor elektronik
- komunikasi radio
- laporan intelijen manusia.
Dalam dunia teknologi, ini disebut data fusion.
Bayangkan seperti detektif yang membaca 1 juta dokumen sekaligus.
Setelah semua analisis dilakukan, sistem akan menghasilkan sesuatu yang sangat sederhana:
daftar target.
Contohnya bisa seperti ini (versi sederhana):
Target #231
Jenis: fasilitas komunikasi
Lokasi: koordinat X,Y
Confidence: 87%Target #232
Jenis: gudang senjata
Lokasi: koordinat X,Y
Confidence: 92%Lalu daftar ini masuk ke sistem militer lain yang menentukan prioritas serangan.
Dalam konflik sebelumnya di Gaza, laporan menyebut The Gospel mampu menghasilkan sekitar 100 target baru per hari.
Angka ini sulit dibayangkan.
Karena dalam metode intelijen tradisional, seorang analis manusia mungkin hanya mampu menyusun puluhan target dalam setahun.
Kenapa bisa sejauh itu?
Karena manusia memiliki batasan biologis.
Manusia cuma bisa melihat satu gambar, membaca satu laporan, lalu berpikir.
AI bisa melakukan semuanya secara paralel.
Ia bisa membaca ribuan gambar satelit sekaligus.
Bayangkan dua situasi berikut.
Cara lama
Seorang analis duduk di meja. Di depannya ada foto satelit. Dia memperbesar gambar. Mencari tanda-tanda aktivitas militer. Satu gambar bisa memakan waktu 30 menit.
Cara AI
AI menerima 10.000 gambar satelit sekaligus.
Ia memindai semuanya dalam beberapa detik.
Ia langsung menandai:
- kendaraan militer
- bunker
- antena
- jalur logistik.
⠀
Perbedaannya seperti adalah manusia menghitung dengan jari, AI menghitung dengan superkomputer.
Atau lebih sederhana lagi, seperti membandingkan orang menghitung manual dengan kalkulator.
Dalam perang tradisional, masalah terbesar adalah kekurangan target yang jelas.
Militer sering tahu mereka ingin menyerang sesuatu. Tetapi tidak tahu di mana tepatnya.
Sistem seperti The Gospel mengubah masalah itu.
Sekarang justru kebalikannya. Target menjadi sangat banyak.
Masalahnya bukan lagi mencari target.
Masalahnya adalah memilih mana yang diserang lebih dulu.
Jika dulu intelijen adalah pekerjaan detektif yang penuh intuisi manusia, sekarang sebagian besar pekerjaan itu berubah menjadi analisis data oleh algoritma.
AI tidak melihat kota seperti manusia melihat kota.
AI melihatnya seperti spreadsheet raksasa.
Setiap bangunan adalah baris data.
Setiap aktivitas adalah variabel.
Dan dari semua variabel itu muncullah sesuatu yang disebut oleh sistem militer sebagai target.
3. Where’s Daddy?
Algoritma yang Menunggu Seseorang Pulang
Ada satu sistem lain yang dibikin seperti kalimat anak kecil, “Where’s Daddy?”
Kalau mendengarnya tanpa konteks, orang mungkin membayangkan anak yang sedang mencari ayahnya di rumah. Padahal dalam konteks militer, fungsi sistem ini sangat berbeda.
Itu adalah sistem yang digunakan untuk melacak kapan seseorang target berada di rumahnya.
Tujuannya adalah, melakukan serangan ketika keberadaan target bisa dipastikan.
Dalam operasi militer, masalah terbesar sering bukan menemukan siapa targetnya.
Masalahnya adalah mengetahui kapan dan di mana target itu berada.
Banyak tokoh militer atau anggota jaringan militan jarang menggunakan telepon, berpindah-pindah lokasi, menghindari tempat umum.
Tetapi hampir semua orang tetap memiliki satu pola yang relatif stabil:
mereka pulang ke rumah.
Rumah menjadi titik yang paling mudah diprediksi, karena manusia memiliki kebiasaan rutin.
Sistem seperti Where’s Daddy? pada dasarnya adalah mesin analisis pola hidup seseorang.
Ia menggabungkan berbagai sumber data, misalnya: data lokasi ponsel, rekaman kamera jalan, pengenalan kendaraan, pola komunikasi, laporan intelijen lapangan.
Dari semua data itu, AI mencoba menjawab satu pertanyaan, “Kapan orang ini kemungkinan besar berada di rumahnya?”
Bayangkan aplikasi kurir seperti Grab atau Gojek.
Ketika Anda memesan makanan, sistem mereka akan: melacak lokasi driver, menghitung rute tercepat, memperkirakan waktu tiba.
Di layar Anda muncul informasi seperti “Driver tiba dalam 7 menit.”
Itu terjadi karena sistem memantau pergerakan kendaraan secara real-time.
Sekarang bayangkan logika yang sama digunakan untuk melacak manusia sebagai target militer.
AI mengamati kapan seseorang keluar rumah, ke mana ia pergi, berapa lama biasanya ia berada di suatu tempat, jam berapa biasanya ia pulang.
Dari situ terbentuk pola rutinitas.
Tanpa kita sadari, manusia adalah makhluk yang sangat rutin.
Misalnya seseorang mungkin memiliki pola seperti ini:
- 07.30 keluar rumah
- 08.00 tiba di kantor
- 18.00 pulang
- 21.00 berada di rumah
Jika pola ini muncul selama berhari-hari atau berminggu-minggu, AI bisa mengenali rutinitas itu dengan sangat cepat.
Bagi manusia, melihat pola seperti ini membutuhkan pengamatan lama.
Bagi AI, itu seperti membaca grafik.
Setelah sistem mengenali rutinitas target, langkah berikutnya adalah monitoring real-time.
AI terus memantau sinyal yang menunjukkan lokasi target, misalnya:
- ponsel berada di koordinat rumah
- kendaraan target masuk ke garasi
- kamera jalan menangkap kendaraan yang sama.
Begitu beberapa indikator cocok, sistem akan memberi notifikasi.
Secara sederhana, dashboard militer bisa menampilkan sesuatu seperti ini:
Target ID: 847
Lokasi: Rumah
Confidence: 93%
Status: PresentArtinya bagi sistem: target kemungkinan besar sedang berada di rumah.
Teknologi seperti ini sebenarnya tidak sepenuhnya asing.
Misalnya fitur di Google Maps yang bisa memprediksi perjalanan Anda.
Jika setiap hari Anda pergi ke kantor pada jam yang sama, Google Maps kadang memberi notifikasi, “Waktu berangkat ke kantor. Perjalanan 32 menit.”
Padahal Anda tidak mengetik apa pun. Sistem tahu karena ia mempelajari pola rutinitas Anda.
Teknologi Where’s Daddy? bekerja dengan logika yang mirip.
Hanya saja skalanya jauh lebih sensitif.
Yang diprediksi bukan waktu perjalanan ke kantor.
Yang diprediksi adalah momen seseorang berada di lokasi tertentu yang dianggap sebagai target.
Begitu sistem mendeteksi target berada di rumah, ia akan memberi sinyal kepada sistem militer lain.
Artinya secara operasional: target dapat dipastikan berada di lokasi.
Dalam logika militer, itu berarti serangan bisa dilakukan dengan probabilitas lebih tinggi mengenai target yang dimaksud.
Dulu pekerjaan seperti ini dilakukan oleh tim pengintai manusia.
Mereka harus mengikuti target berhari-hari, mencatat kebiasaan harian, mengamati rumah target.
Sekarang sebagian proses itu bisa dilakukan oleh analisis data otomatis.
AI tidak capek.
AI bisa memantau ratusan target sekaligus.
Ia melihat pola pergerakan manusia seperti seorang analis melihat grafik saham.
Hal yang paling menarik, sekaligus paling membuat saya tidaknyaman dari sistem seperti ini adalah AI tidak melihat kehidupan manusia seperti manusia melihat kehidupan.
Bagi AI, rutinitas seseorang hanyalah data pola pergerakan.
Jam pulang kerja. Lokasi rumah. Rute perjalanan.
Semua itu menjadi variabel dalam model.
Dan dari variabel itu muncul satu sinyal sederhana di layar komputer:
Target terdeteksi berada di rumah.
Saya coba jelaskan dua teknologi ini dengan cara yang lebih “programmer-friendly”, tapi tetap mudah dipahami orang awam. Karena kalau hanya membaca istilah militernya, sering terasa seperti jargon yang jauh dari kehidupan sehari-hari.
Padahal sebenarnya logikanya sangat dekat dengan teknologi yang kita pakai setiap hari.
4. GenAI.mil
Ketika Tentara Memakai AI Seperti Kita Memakai ChatGPT
Beberapa laporan menyebut bahwa United States Department of Defense mengembangkan platform bernama GenAI.mil.
Secara sederhana, ini adalah platform generative AI khusus militer.
Kalau kita di dunia sipil punya ChatGPT atau Claude, maka GenAI.mil adalah versi militernya.
Bedanya ada tiga hal besar:
1. Datanya bukan internet umum
AI ini tidak dilatih dari artikel blog atau Wikipedia saja.
Ia dilatih dari data intelijen, laporan satelit, laporan drone, peta militer, laporan operasi sebelumnya
Jadi ketika seorang perwira bertanya sesuatu, AI tidak menjawab berdasarkan artikel Medium. Ia menjawab berdasarkan database perang sungguhan.
2. Fungsinya bukan sekadar menjawab pertanyaan
GenAI.mil bisa dipakai untuk banyak hal operasional.
Misalnya seorang analis menulis: “Ringkas semua laporan intelijen dari wilayah Teheran dalam 24 jam terakhir.”
AI akan membaca ratusan laporan dan membuat ringkasan dalam hitungan detik.
Atau seorang komandan bisa bertanya, “Apa pola pergerakan konvoi militer Iran minggu ini?”
AI bisa menggabungkan:
- citra satelit
- laporan drone
- laporan intelijen lapangan
lalu menyusun analisis.
Bayangkan seperti Google Docs + ChatGPT + database militer + peta perang, semuanya dalam satu dashboard.
3. Tujuannya menjadi “force multiplier”
Dalam istilah militer ada konsep force multiplier.
Artinya teknologi yang membuat jumlah pasukan kecil bisa bekerja seperti pasukan besar.
Analoginya begini.
Bayangkan sebuah startup kecil.
- Tanpa AI → butuh 50 analis untuk membaca ribuan laporan.
- Dengan AI → 5 analis saja cukup.
AI tidak menggantikan manusia sepenuhnya. Ia mempercepat otak manusia.
Seorang analis yang dulu butuh 3 hari membaca laporan, sekarang bisa mendapat insight dalam 10 menit.
Kalau dianalogikan ke dunia sofware development GenAI.mil itu seperti memiliki asisten engineer super pintar yang membaca semua dokumentasi, membaca semua log server, membaca semua database, lalu menjawab pertanyaan kita dalam satu kalimat.
Bedanya…yang dianalisis bukan server. Yang dianalisis adalah medan perang.
5. Autonomous Drone
Senjata yang Bisa Berburu Sendiri
Teknologi ini namanya autonomous weapon system.
Salah satu contoh klasik adalah drone IAI Harpy yang dikembangkan oleh Israel Aerospace Industries.
Harpy sering disebut sebagai loitering munition.
Istilah sederhananya: drone yang berkeliaran mencari target, lalu menyerang sendiri.
Bayangkan misil yang bisa “berpikir”
Misil biasa seperti panah. Anda menembakkan ke satu arah.
Kalau target bergerak, panah bisa meleset.
Harpy berbeda.
Ia lebih mirip burung pemburu otomatis.
Setelah diluncurkan, drone ini akan:
- terbang di area tertentu
- mendengarkan sinyal radar musuh
- jika menemukan radar aktif → ia langsung menyelam dan menghantam sumber sinyal itu.
Tidak perlu operator. Tidak perlu remote control.
Makanya sering disebut “fire and forget” weapon.
Artinya setelah diluncurkan, operator bisa melupakan senjata itu.
Drone akan menyelesaikan misinya sendiri.
—
Drone seperti Harpy punya beberapa komponen AI dasar:
1. Sensor pendengar radar
Ia bisa mendeteksi frekuensi radar pertahanan udara.
Radar itu seperti senter yang menyinari langit untuk mencari pesawat.
Harpy justru menggunakan cahaya itu sebagai petunjuk arah.
Jika radar menyala → Harpy tahu lokasi target.
2. Sistem navigasi otonom
Drone bisa menentukan sendiri jalur terbang.
Ini mirip teknologi autopilot pada mobil self-driving.
Ia terus menghitung posisi, arah angin, jarak target
⠀
3. Mode kamikaze
Jika target ditemukan, drone langsung menukik.
Drone itu sendiri menjadi misil.
Jadi tidak ada peluru yang ditembakkan.
Drone-nya yang menjadi peluru.
Selain drone udara, ada juga robot darat seperti Guardium MK III.
Robot ini dikembangkan oleh perusahaan pertahanan seperti Elbit Systems.
Bayangkan sesuatu seperti mobil patroli tanpa sopir.
Ia bisa patroli perbatasan, mendeteksi manusia, mengenali kendaraan, mengirim video real-time, bahkan membawa senjata.
Kalau Harpy itu seperti elang robot di udara, Guardium itu seperti satpam robot di darat.
Ia berpatroli di jalur tertentu. Menggunakan kamera dan sensor.
Jika menemukan sesuatu yang mencurigakan ia mengirim alarm, atau meminta operator manusia mengambil keputusan.
Teknologi pengenalannya mirip dengan face recognition di smartphone atau kamera parkir mobil modern
Ketika Algoritma Tidak Sempurna Bertemu Keputusan Mematikan
Di dunia teknologi, khususnya machine learning, ada satu fakta yang semua programmer tahu sejak awal, algoritma tidak pernah sempurna.
Setiap model AI bekerja dengan probabilitas.
Ia belajar dari data masa lalu, mencari pola, lalu membuat prediksi.
Sering kali prediksi itu sangat membantu.
Tetapi tetap saja… prediksi, bukan kepastian.
Dalam aplikasi sehari-hari, kesalahan algoritma biasanya hanya menghasilkan gangguan kecil.
Rekomendasi film yang tidak cocok.
Iklan yang tidak relevan.
Email penting yang tersesat ke folder spam.
Namun ketika algoritma yang sama digunakan dalam sistem militer, sistem yang membantu menentukan target serangan, maka kesalahan kecil bisa berubah menjadi sesuatu yang jauh lebih serius.
Dua konsep lama di dunia teknologi tiba-tiba menjadi sangat penting: false positive dan automation bias.
Bug Kecil, Dampak Besar
Sebagai programmer, ada satu istilah yang hampir pasti kami temui ketika membangun sistem berbasis data: false positive.
Artinya sistem menandai sesuatu sebagai “benar” atau “berbahaya”, padahal sebenarnya tidak.
Contoh paling sederhana ada di email kita.
Spam filter mencoba memisahkan dua hal:
- email sampah
- email penting
Kadang sistem salah.
Email promosi masih lolos ke inbox. Atau lebih menyebalkan: email penting justru masuk folder spam.
Kesalahan seperti ini biasanya hanya membuat kita sedikit kesal.
Kita membuka folder spam, memindahkan email itu kembali ke inbox, lalu hidup berjalan normal.
Tetapi dalam dunia machine learning, kesalahan seperti ini sebenarnya sangat umum.
Bahkan model AI dengan akurasi 95% sudah dianggap sangat bagus.
Masalahnya adalah… angka itu sering terlihat lebih meyakinkan daripada kenyataannya.
Mari kita lihat dengan cara yang lebih konkret.
Bayangkan sebuah sistem AI yang menganalisis 10.000 orang untuk menentukan siapa yang kemungkinan terlibat dalam jaringan militan.
Jika akurasi sistem adalah 95%, maka secara statistik berarti 5% kesalahan tetap akan terjadi.
Hitungannya sederhana:
10.000 orang × 5% = 500 kesalahan
Artinya ada kemungkinan 500 orang yang sebenarnya tidak terlibat apa pun ikut ditandai sebagai target.
Dalam sistem rekomendasi film seperti di Netflix, kesalahan ini tidak terlalu penting.
Algoritma salah merekomendasikan film.
Anda menonton lima menit.
Filmnya ternyata membosankan.
Anda berhenti menonton.
Masalah selesai.
Tetapi dalam sistem perang berbasis AI, kesalahan yang sama memiliki arti yang sangat berbeda.
Kesalahan itu bukan sekadar rekomendasi film yang buruk.
Kesalahan itu berarti manusia yang salah ditandai sebagai target.
Inilah paradoks yang sering muncul dalam teknologi.
Semakin besar skala sistem, semakin kecil persentase kesalahan yang dibutuhkan untuk menghasilkan jumlah kesalahan yang sangat besar.
Bagi komputer, 5% hanyalah angka statistik.
Bagi manusia, angka itu bisa berarti ratusan kehidupan nyata.
Automation Bias: Penyakit Lama Manusia
Selain kesalahan statistik, ada masalah lain yang tidak kalah penting.
Masalah ini bukan berasal dari mesin.
Masalah ini berasal dari cara manusia bereaksi terhadap mesin.
Dalam psikologi, fenomena ini disebut automation bias.
Automation bias adalah kecenderungan manusia untuk lebih percaya pada sistem otomatis daripada penilaian sendiri.
Jika sebuah sistem menampilkan data dengan grafik, angka, dan probabilitas, kita cenderung menganggap sistem itu pasti benar.
Tanpa sadar, kita memberi otoritas pada mesin.
Fenomena ini sebenarnya sangat umum di dunia teknologi.
Programmer sering mengalaminya.
Misalnya sebuah tim software akan merilis versi baru aplikasi.
Sebelum dirilis, sistem otomatis menjalankan serangkaian tes.
Dashboard menunjukkan semua indikator hijau:
- unit test lulus
- integration test lulus
- server terlihat stabil
Tim merasa aman.
Mereka menekan tombol deploy.
Lima menit kemudian… server production tiba-tiba crash.
Mengapa?
Karena sistem otomatis hanya menguji apa yang diketahui.
Ia tidak selalu menangkap masalah yang muncul di dunia nyata.
Namun karena dashboard terlihat meyakinkan, manusia menjadi terlalu percaya diri.
Fenomena yang sama juga bisa muncul dalam sistem militer modern.
Bayangkan seorang komandan melihat layar dashboard.
Sistem AI menampilkan data seperti ini:
Target ID: 4821
Risk Score: 93
Confidence: 90%Di layar ada grafik. Ada koordinat. Ada probabilitas.
Semuanya terlihat sangat ilmiah.
Masalahnya adalah komandan sering memiliki waktu yang sangat singkat untuk membuat keputusan.
Kadang hanya beberapa detik.
Dalam kondisi seperti itu, sangat mudah bagi manusia untuk melakukan satu hal sederhana:
mengikuti rekomendasi mesin.
Bukan karena manusia tidak berpikir.
Tetapi karena sistem terlihat lebih yakin daripada manusia itu sendiri.
Pada titik inilah peran manusia bisa berubah secara perlahan.
Dari pengambil keputusan… menjadi sesuatu yang jauh lebih sederhana.
Hanya rubber stamp.
Stempel persetujuan.
Mesin menganalisis.
Mesin memberi rekomendasi.
Dan manusia hanya menekan tombol approve.
Drone, Edge AI, dan Perang Tanpa Internet
Salah satu perubahan besar dalam teknologi militer beberapa tahun terakhir adalah munculnya konsep edge AI.
Selama ini kebanyakan sistem AI bekerja seperti layanan cloud yang kita pakai sehari-hari.
Misalnya ketika kita menggunakan ChatGPT atau Google Photos.
Foto yang kita kirim akan diproses di server besar di data center. Komputer raksasa dengan GPU mahal melakukan semua perhitungan.
Perangkat kita hanya mengirim data.
Server yang berpikir.
Tetapi pendekatan seperti ini tidak selalu bisa dipakai dalam perang.
Karena di medan perang ada satu musuh lain yang jarang dibahas: perang elektronik.
Kenapa Internet Tidak Bisa Diandalkan dalam Perang
Dalam konflik modern, hampir semua negara memiliki teknologi electronic warfare (EW).
Ini adalah teknik untuk mengganggu komunikasi musuh.
Caranya bermacam-macam:
- ngejam sinyal radio
- mengganggu satelit
- memutus koneksi data
- mengacaukan GPS.
Bayangkan seperti seseorang yang sengaja mematikan Wi-Fi di kantor saat Anda sedang mengerjakan presentasi penting.
Bedanya skalanya jauh lebih besar.
Seluruh wilayah bisa kehilangan komunikasi dalam hitungan detik.
Jika drone atau pesawat tempur bergantung pada server pusat untuk mengambil keputusan, maka begitu komunikasi terputus…senjata itu menjadi buta dan tuli.
Edge AI: Otak Dipindah ke Perangkat
Di sinilah konsep edge AI muncul.
Dalam dunia teknologi, edge berarti perangkat yang berada di “tepi jaringan”.
Misalnya smartphone, kamera CCTV, mobil otonom, drone.
Alih-alih mengirim data ke server, AI dipasang langsung di perangkat itu.
Artinya perangkat tersebut memiliki “otak kecil” sendiri.
Ia bisa memproses data sensor, mengenali objek, mengambil keputusan sederhana, tanpa perlu koneksi internet.
Kalau dianalogikan secara sederhana:
AI di cloud itu seperti otak pusat di kantor pusat.
Edge AI itu seperti otak kecil di setiap agen lapangan.
Jika komunikasi putus, agen itu masih bisa berpikir sendiri.
Contoh di Medan Perang: Drone LUCAS
Salah satu contoh teknologi seperti ini adalah drone LUCAS drone.
Drone ini dikembangkan sebagai sistem serangan murah yang bisa diproduksi dalam jumlah besar.
Harganya sekitar $35.000 per unit.
Sebagai perbandingan, satu misil modern bisa berharga US$500.000, bahkan lebih dari $1 juta.
Artinya dengan biaya satu misil mahal, sebuah militer bisa membuat belasan drone seperti LUCAS.
Ini mengubah strategi perang secara drastis.
Daripada mengandalkan satu senjata mahal, mereka bisa menggunakan banyak drone kecil yang cerdas.
Apa yang Bisa Dilakukan Drone Ini?
Drone seperti LUCAS tidak hanya terbang mengikuti perintah manusia. Ia memiliki beberapa kemampuan berbasis AI.
Misalnya:
1. Pengenalan target visual
Drone memiliki kamera dan model computer vision.
Ia bisa mengenali objek seperti:
- kendaraan militer
- radar
- peluncur misil
- konvoi logistik.
Teknologinya sebenarnya mirip dengan fitur yang bisa mengenali wajah di kamera smartphone.
Bedanya objek yang dikenali bukan wajah. Melainkan peralatan militer.
2. Navigasi otonom
Drone bisa menentukan jalur sendiri.
Ia menghitung:
- posisi target
- rute terbang paling aman
- jalur yang menghindari radar musuh.
Teknologi ini mirip dengan navigasi otomatis pada mobil self-driving.
Hanya saja lingkungannya jauh lebih berbahaya.
3. Perhitungan jalur serangan
Jika drone mendeteksi target, sistem AI bisa menghitung cara terbaik untuk mendekati target tersebut.
Misalnya:
- menyerang dari sudut tertentu
- menghindari area pertahanan udara
- memilih waktu serangan.
Semua itu dihitung oleh komputer kecil di dalam drone.
Agar lebih mudah dibayangkan, bayangkan smartphone Anda.
Banyak fitur AI di ponsel sekarang bisa berjalan tanpa internet.
Misalnya:
- pengenalan wajah untuk membuka kunci
- pengenalan objek di kamera
- prediksi teks saat mengetik.
Semua itu berjalan langsung di chip ponsel.
Drone modern bekerja dengan konsep yang sama.
Hanya saja “smartphone” ini terbang di udara…dan membawa bahan peledak.
Dari Drone Remote Control ke Drone yang Bisa Berpikir
Generasi drone militer yang lebih lama biasanya dikendalikan manusia dari jauh.
Operator duduk di ruang kontrol. Ia melihat video dari kamera drone.
Lalu memberi perintah:
- belok kiri
- belok kanan
- tembak target.
Drone generasi baru mulai berbeda.
Dengan edge AI, drone bisa melakukan banyak hal sendiri:
- mengenali objek
- menavigasi rute
- mengevaluasi target.
Manusia masih ada dalam prosesnya, tetapi tidak lagi mengendalikan setiap gerakan.
Perannya lebih seperti mengawasi sistem daripada mengendalikan langsung.
Teknologi Mengubah Cara Kita Melihat Manusia
Ada pemikir teknologi lama yang pernah mengatakan sesuatu yang sangat menarik.
Bahwa bahaya teknologi bukan hanya karena ia kuat.
Bahaya terbesar teknologi adalah ia mengubah cara manusia memandang dunia.
Ketika semua diubah menjadi data…manusia juga berubah menjadi data.
Di layar sistem perang modern tidak ada wajah.
Yang ada hanya ini:
Target ID: 847
Risk score: 91
Strike probability: High
Collateral risk: LowSatu klik.
Ledakan terjadi ribuan kilometer jauhnya.
Teknologi seperti ini membuat senjata menjadi lebih murah, lebih banyak, lebih mandiri.
Dulu sebuah serangan presisi mungkin membutuhkan pesawat tempur mahal dan pilot berpengalaman.
Sekarang sebagian tugas itu bisa dilakukan oleh drone kecil yang memiliki “otak” sendiri.
Dan karena AI berada langsung di perangkat, senjata itu tetap bisa beroperasi bahkan ketika satelit terganggu, komunikasi diputus, internet tidak tersedia.
Dengan kata lain, perang modern mulai memasuki fase baru.
Senjata tidak lagi hanya dikendalikan manusia dari jauh.
Sebagian dari mereka mulai memiliki kemampuan untuk melihat, menganalisis, dan bertindak sendiri, setidaknya dalam batas yang ditentukan oleh algoritma yang ada di dalamnya.
Perlombaan Senjata Baru
Perang AI mungkin baru saja dimulai.
Jika dulu negara berlomba membuat bom nuklir, kapal induk, jet tempur
Sekarang perlombaan bergeser ke sesuatu yang lebih abstrak:
- algoritma
- dataset
- komputasi GPU
- model AI
Negara dengan algoritma tercepat mungkin akan memiliki keuntungan terbesar.
Dan berbeda dengan nuklir… belum ada Konvensi Jenewa untuk algoritma.
Pertanyaan Terakhir
Jika kita melihat semua perkembangan ini secara utuh, muncul satu pertanyaan yang cukup mengganggu.
Jika sistem AI sudah mampu mengamati, menganalisis, merekomendasikan, bahkan dalam beberapa kasus mengeksekusi tindakan, maka sebenarnya peran manusia ada di mana?
Dalam banyak sistem militer modern, manusia tidak lagi berada di level operasional paling bawah. Dahulu seorang operator harus mengendalikan drone secara langsung, melihat layar video, menggerakkan joystick, dan memutuskan setiap manuver.
Sekarang struktur itu perlahan berubah.
Sensor mengamati lingkungan.
Algoritma AI menganalisis data.
Sistem memberikan rekomendasi tindakan.
Kadang sistem juga sudah menyiapkan eksekusi teknisnya.
Manusia sering kali hanya berada di satu titik terakhir dalam rantai keputusan: memberi persetujuan.
Bukan lagi mengendalikan setiap langkah.
Hanya mengonfirmasi keputusan yang sudah dihitung oleh mesin.
Dalam banyak diskusi tentang sistem senjata modern, ini sering disebut sebagai konsep “human in the loop.”
Artinya manusia masih ada dalam proses pengambilan keputusan. Namun dalam praktiknya, manusia sering hanya memeriksa rekomendasi sistem yang sudah dianalisis oleh AI dalam hitungan milidetik.
Di situ muncul fenomena yang menarik secara psikologis.
Ketika sebuah sistem terlihat sangat cerdas dan sangat cepat, manusia cenderung mempercayai sistem tersebut. Dalam dunia teknologi ini dikenal sebagai automation bias, kecenderungan manusia untuk mengikuti rekomendasi mesin karena mesin dianggap lebih akurat.
Akibatnya, peran manusia perlahan bergeser dari pengambil keputusan utama menjadi validator keputusan algoritma.
Secara analogi, situasinya mulai mirip dengan seorang programmer junior di sebuah perusahaan teknologi besar.
Ia tidak menulis semua sistem. Ia tidak memahami seluruh arsitektur. Ia juga mungkin tidak tahu setiap detail kode yang berjalan.
Namun suatu hari ia diberi akses untuk menekan tombol “Deploy to Production.”
Ketika tombol itu ditekan, kode yang sangat kompleks, ditulis oleh banyak tim, berjalan di banyak server, dengan berbagai dependensi, langsung aktif untuk jutaan pengguna.
Sebagian besar waktu, semuanya berjalan lancar.
Namun kadang-kadang ada bug.
Di dunia software, jika bug muncul, kita masih punya banyak pilihan. Kita bisa menghentikan sistem, melakukan rollback, memperbaiki kode, lalu menjalankannya kembali.
Kesalahan bisa diperbaiki.
Kerusakan bisa dipulihkan.
Sejarah teknologi penuh dengan contoh seperti ini, mulai dari kesalahan update aplikasi hingga kegagalan sistem besar yang akhirnya diperbaiki beberapa jam kemudian.
Tetapi dalam konteks perang, logika itu tidak berlaku.
Ketika sebuah sistem senjata membuat keputusan yang salah, baik karena kesalahan data, kesalahan model AI, kesalahan identifikasi objek, atau bahkan manipulasi oleh musuh—dampaknya terjadi di dunia fisik, bukan di server.
Dan dunia fisik tidak mengenal rollback.
Jika sebuah target salah diidentifikasi, kerusakan sudah terjadi. Jika sebuah serangan diluncurkan, prosesnya tidak bisa dihentikan di tengah jalan. Jika sebuah konflik meningkat karena kesalahan keputusan otomatis, dampaknya bisa merambat jauh melampaui sistem yang memulainya.
Di sinilah muncul dilema terbesar dari penggunaan AI dalam sistem militer.
Semakin canggih teknologi ini, semakin besar kemampuan sistem untuk bekerja secara mandiri. Namun pada saat yang sama, semakin sulit bagi manusia untuk benar-benar memahami setiap proses yang terjadi di dalamnya.
Pada akhirnya, manusia mungkin masih memegang kendali formal.
Namun kendali itu kadang hanya berbentuk satu tindakan sederhana:
menekan tombol “Approve.”
Dan di dunia di mana keputusan bisa berdampak pada kehidupan manusia, stabilitas geopolitik, dan bahkan perang antar negara, pertanyaan yang tersisa bukan lagi hanya tentang seberapa pintar AI tersebut.
Melainkan seberapa dalam manusia benar-benar memahami keputusan yang mereka setujui.
Terimakasih sudah membaca. Semoga bermanfaat.



