Para ahli menilai bahwa teknologi AI militer kini mampu mempercepat proses perencanaan dan pelaksanaan serangan militer, bahkan melampaui kecepatan berpikir manusia. Hal ini menimbulkan kekhawatiran bahwa keputusan penting dalam peperangan dapat semakin dikendalikan oleh mesin, bukan manusia. Beberapa laporan menyebut militer Amerika Serikat sempat menggunakan model AI bernama Claude untuk merencanakan serangkaian serangan terhadap Iran.
Sistem ini mampu mempersingkat “rantai pembunuhan”, yaitu proses mulai dari identifikasi target, peninjauan aspek hukum, hingga rekomendasi peluncuran serangan. Dengan kemampuan ini, analisis yang biasanya memakan waktu berhari-hari atau berminggu-minggu kini dapat dilakukan dalam hitungan jam.
Penghentian Penggunaan Claude oleh AS
Meski sempat digunakan, pemerintah Amerika Serikat memutuskan menghentikan pemakaian AI Claude di level federal. Presiden Donald Trump memerintahkan semua lembaga federal untuk menghentikan penggunaan teknologi Anthropic, termasuk Claude, yang diumumkan pada akhir Februari 2026 melalui Truth Social.
Keputusan ini muncul setelah Anthropic menolak menghapus batasan (guardrails) pada Claude, khususnya larangan pemakaian untuk pengawasan massal domestik dan senjata otonom penuh tanpa campur tangan manusia. Sebelumnya, AI juga pernah digunakan oleh AS dan Israel untuk menentukan target di Gaza. Dalam operasi terhadap Iran, hampir 900 serangan dilancarkan hanya dalam 12 jam pertama. Salah satu serangan rudal Israel dilaporkan menewaskan pemimpin tertinggi Iran, Ayatollah Ali Khamenei.
Risiko Warga Sipil dan Etika Penggunaan AI
Para peneliti menyebut fenomena ini sebagai “kompresi keputusan”, di mana AI mengambil alih sebagian besar analisis, sehingga waktu perencanaan operasi militer menjadi jauh lebih singkat. Craig Jones, dosen senior geografi politik di Universitas Newcastle, menjelaskan bahwa sistem AI bisa merekomendasikan target dengan cepat, mengolah berbagai sumber informasi seperti rekaman drone, penyadapan komunikasi, dan laporan intelijen manusia.
AI yang dikembangkan bersama Pentagon dan Palantir bahkan bisa mempertimbangkan stok persenjataan, hasil serangan sebelumnya, serta aspek hukum dari sebuah serangan. Profesor etika teknologi David Leslie dari Queen Mary University of London menekankan risiko ketergantungan manusia terhadap mesin, yang dapat membuat pengambil keputusan merasa jauh dari konsekuensi tindakan mereka.
Serangan militer yang sangat cepat ini juga menimbulkan risiko bagi warga sipil. Media pemerintah Iran melaporkan 165 orang tewas, termasuk banyak anak-anak, akibat serangan rudal yang menghantam sebuah sekolah di Iran selatan, dekat barak militer. PBB menilai insiden tersebut sebagai pelanggaran serius hukum humaniter. Militer AS masih menyelidiki laporan ini.
Sementara itu, kerja sama perusahaan AI dengan militer terus berkembang. Meski penggunaan Claude dihentikan, perusahaan lain seperti OpenAI telah menandatangani kerja sama dengan Pentagon untuk penggunaan model AI di bidang militer.
Masih banyak artikel menarik lainnya yang bisa Anda baca. Temukan pilihan topik terbaik kami di roledu.com






