Dunia teknologi dan militer kembali digemparkan oleh sebuah ironi yang mencolok, di mana kecerdasan buatan (AI) menjadi sorotan utama. Laporan investigasi terbaru dari The Wall Street Journal (WSJ), yang diperkuat oleh berbagai sumber kredibel lainnya per 1 Maret 2026, mengungkap fakta mengejutkan: militer Amerika Serikat (AS) dilaporkan memanfaatkan model AI Claude buatan Anthropic untuk mendukung operasi udara krusial terhadap target di Iran. Kejadian ini terjadi hanya beberapa jam setelah Presiden Donald Trump mengeluarkan perintah tegas yang melarang lembaga federal menggunakan teknologi dari Anthropic, menciptakan kontradiksi tajam yang menimbulkan berbagai pertanyaan mendasar tentang kebijakan, etika, dan implementasi AI dalam ranah strategis global.
- Militer AS memanfaatkan AI Claude milik Anthropic untuk serangan udara di Iran.
- Penggunaan ini bertentangan dengan larangan penggunaan teknologi Anthropic oleh Presiden Trump untuk lembaga federal.
- Claude digunakan untuk analisis intelijen, identifikasi target, dan simulasi skenario pertempuran.
- Keputusan Pentagon untuk tetap menggunakan Claude diduga karena mendesaknya operasi terhadap Iran.
- Kasus ini memicu perdebatan global mengenai etika AI dalam peperangan dan implikasinya terhadap kebijakan keamanan nasional.
Wartakita.id – Laporan eksklusif yang mengutip sumber-sumber yang memiliki pengetahuan langsung mengenai operasi tersebut, mengungkapkan bahwa United States Central Command (CENTCOM), yang bertanggung jawab atas komando militer AS di kawasan Timur Tengah, menggunakan Claude untuk tiga fungsi vital dalam serangan udara gabungan AS-Israel. Operasi ini menargetkan puluhan lokasi strategis di Iran, termasuk infrastruktur rudal kritis dan fasilitas penting yang dioperasikan oleh rezim Teheran. Kemampuan Claude dimanfaatkan secara ekstensif untuk memperkuat efektivitas dan akurasi misi.
Analisis Intelijen yang Didukung AI: Deteksi Ancaman dan Pola Musuh
Salah satu peran krusial AI Claude dalam operasi ini adalah dalam melakukan penilaian intelijen (intelligence assessments). Dalam konteks militer yang dinamis dan penuh ancaman, kemampuan untuk menganalisis data dalam jumlah masif menjadi kunci. Claude dikerahkan untuk mendeteksi pola aktivitas musuh yang mungkin terlewat oleh analisis manusia, mengidentifikasi potensi ancaman baru, dan memberikan gambaran intelijen yang lebih komprehensif kepada para pengambil keputusan. Hal ini memungkinkan respons yang lebih cepat dan tepat terhadap perkembangan situasi di lapangan, mengurangi jeda waktu antara pengumpulan data dan pengambilan tindakan strategis.
Identifikasi Target dengan Presisi Tinggi
Fungsi kedua yang vital adalah identifikasi target (target identification). Dalam sebuah operasi militer, akurasi dalam memilih sasaran adalah hal yang mutlak untuk meminimalkan potensi kerugian sipil dan memaksimalkan dampak strategis terhadap musuh. Claude membantu para perencana militer dalam memilih sasaran dengan tingkat akurasi yang sangat tinggi. Ini dicapai dengan mengintegrasikan dan menganalisis berbagai sumber data, termasuk data sensor canggih, citra satelit resolusi tinggi, serta informasi intelijen lainnya yang dikumpulkan dari berbagai sumber. Kemampuan AI untuk memproses dan membandingkan data ini secara simultan memungkinkan identifikasi target yang lebih spesifik dan terverifikasi.
Simulasi Skenario Pertempuran untuk Optimalisasi Operasi
Terakhir, Claude digunakan untuk simulasi skenario pertempuran (simulating battle scenarios). Sebelum mengerahkan pasukan dan melancarkan serangan, militer perlu memahami potensi risiko dan hasil yang mungkin terjadi. AI Claude mampu menjalankan ribuan simulasi virtual secara paralel. Simulasi ini dirancang untuk memprediksi berbagai hasil operasi, mengoptimalkan rute serangan guna menghindari area berisiko, dan yang terpenting, meminimalkan potensi kerugian bagi pasukan AS. Dengan memahami berbagai kemungkinan skenario, komandan dapat membuat keputusan yang lebih terinformasi untuk melindungi personel mereka.
Larangan Trump dan Dilema Pentagon
Keputusan militer AS untuk menggunakan Claude terjadi sehari setelah Presiden Donald Trump mengeluarkan perintah eksekutif pada Jumat, 27 Februari 2026, yang mengharuskan semua agensi federal untuk segera menghentikan kerja sama dan penggunaan teknologi yang dikembangkan oleh Anthropic. Pentagon bahkan telah menetapkan Anthropic sebagai “risiko rantai pasok keamanan nasional” (supply chain risk), sebuah klasifikasi serius yang biasanya diperuntukkan bagi entitas asing yang dianggap dapat mengancam keamanan nasional AS. Label ini menunjukkan tingkat kekhawatiran yang tinggi dari pihak keamanan AS terhadap potensi kerentanan yang ditimbulkan oleh ketergantungan pada teknologi pihak ketiga, terutama yang berkaitan dengan data sensitif dan operasi militer.
Konflik Etika dan Akses Tanpa Batas
Konflik antara Pentagon dan Anthropic bermula dari penolakan Anthropic, yang dikenal dengan komitmen kuatnya terhadap prinsip-prinsip keselamatan AI, untuk memenuhi permintaan spesifik Pentagon. Militer AS dilaporkan meminta akses tanpa batas terhadap kemampuan Claude, termasuk penggunaan untuk tujuan pengawasan massal terhadap warga AS dan pengembangan senjata otonom sepenuhnya (fully autonomous weapons). CEO Anthropic, Dario Amodei, secara tegas menolak permintaan tersebut dengan alasan prinsip etika perusahaan dan keyakinan bahwa AI tidak boleh digunakan untuk tujuan yang dapat membahayakan hak asasi manusia atau digunakan secara tanpa kendali dalam konflik.
Dampak Pembatalan Kontrak dan Kebutuhan Mendesak
Akibat penolakan tersebut, kontrak bernilai ratusan juta dolar antara Pentagon dan Anthropic dibatalkan. Presiden Trump memberikan masa transisi selama enam bulan bagi Pentagon untuk mencari dan mengintegrasikan sistem pengganti bagi teknologi Anthropic yang ternyata sudah tertanam sangat dalam di berbagai jaringan rahasia militer. Namun, fakta bahwa operasi terhadap Iran berlangsung sangat mendadak dan memiliki tingkat urgensi yang sangat tinggi, memaksa Pentagon untuk tetap mengaktifkan sistem Claude. Kejadian ini menyoroti betapa rumit dan sulitnya untuk “memutus” ketergantungan pada teknologi AI yang telah terintegrasi erat dalam operasi militer modern, bahkan ketika ada instruksi larangan yang jelas.
Implikasi Etis dan Lanskap Persaingan AI Militer
Kasus ini memicu perdebatan global yang sengit mengenai etika penggunaan AI dalam peperangan. Anthropic sendiri telah berulang kali menegaskan bahwa Claude dirancang dengan batasan ketat untuk mencegahnya mendukung tindakan mematikan secara otonom. Namun, penggunaannya dalam perencanaan strategis militer, seperti yang terjadi dalam serangan terhadap Iran, menimbulkan pertanyaan krusial: apakah batasan yang ditetapkan oleh perusahaan swasta masih relevan dan dapat dipertahankan ketika AI telah menjadi bagian tak terpisahkan dari rantai komando militer? Pertanyaan ini menyoroti ketegangan antara inovasi teknologi, kebutuhan keamanan nasional, dan imperatif etis.
Persaingan Sengit dalam Pasokan AI Militer
Sementara itu, di balik layar, persaingan untuk memasok teknologi AI ke militer AS tampaknya semakin memanas. Laporan menyebutkan bahwa kompetitor seperti OpenAI dikabarkan segera menandatangani kesepakatan baru dengan Pentagon, menyusul adanya larangan terhadap Anthropic. Hal ini menunjukkan dinamika pasar yang kompleks dan persaingan ketat di antara para pengembang AI untuk mendapatkan kontrak besar dari sektor pertahanan, yang memiliki implikasi signifikan terhadap arah pengembangan dan penggunaan AI di masa depan.
Hingga berita ini diturunkan, baik pihak Pentagon maupun Anthropic belum memberikan komentar resmi mengenai laporan The Wall Street Journal. Namun, kejadian ini menjadi pengingat yang kuat dan gamblang bahwa era AI dalam konflik bersenjata bukan lagi sekadar konsep futuristik, melainkan sebuah kenyataan yang sedang berlangsung dan terus berkembang, membawa serta tantangan serta dilema yang belum pernah terjadi sebelumnya bagi masyarakat global.























