
MILITER Amerika Serikat dilaporkan memakai model kecerdasan buatan (AI) milik Anthropic untuk mendukung serangan ke Iran akhir pekan lalu.
CNNI melaporkan (3/3), ironisnya, penggunaan teknologi ini dilakukan tak lama setelah sebelumnya Presiden AS Donald Trump melarang penggunannya di lembaga federal.
Menurut sejumlah laporan, Claude digunakan dalam serangan udara besar-besaran yang dimulai, Sabtu (28/2). Militer AS memanfaatkan Anthropic untuk keperluan intelijen, pemilihan target, hingga simulasi medan perang.
Melansir The Guardian, perintah penghentian penggunaan Claude disampaikan Trump dalam unggahan di Truth Social, pada Jumat (27/2), hanya beberapa jam sebelum operasi militer dimulai.
“Perusahaan AI sayap kiri radikal yang dikelola oleh orang-orang yang tidak tahu apa-apa tentang dunia nyata,” ujar Trump mengecam Anthropic.
Serangan militer AS dan Israel dilaporkan menargetkan berbagai fasilitas militer Iran, termasuk di Teheran, bahkan menewaskan Pemimpin Tertinggi Iran, Ali Khamenei beserta sejumlah keluarga dan elite di negeri itu.
Gambar satelit komersial memperlihatkan kerusakan di sejumlah pangkalan militer, pangkalan laut Konarak di selatan Iran, serta pangkalan udara dan fasilitas drone di wilayah yang sama.
Tenggelamkan sembilan kapal Iran
Presiden Trump dalam unggahan medsosnya menyatakan pasukan AS menenggelamkan sembilan kapal perang Iran, meskipun Komando Pusat AS belum mengonfirmasi jumlah tersebut dan hanya mengakui serangan terhadap kapal perang yang bersanar di dermaga.
Iran membalas dengan meluncurkan drone dan rudal ke arah Israel serta instalasi militer AS di Bahrain, Kuwait, dan Qatar.
Sebagian besar drone berhasil diintersepsi, meskipun sejumlah video di media sosial menunjukkan beberapa di antaranya menimbulkan kerusakan.
Jubir Kemlu Iran Esmail Baghaei mengatakan kepada NPR bahwa Iran akan terus melawan “agresi dan dominasi asing.”
Seorang pejabat Gedung Putih juga menyatakan kepada NPR bahwa Trump berencana berbicara dengan kepemimpinan sementara Iran “pada waktunya,” namun untuk saat ini operasi AS masih berlangsung.
Sementara perselisihan antara pemerintah AS dan Anthropic dipicu laporan bahwa Claude sebelumnya digunakan dalam operasi Januari untuk menangkap Presiden Venezuela, Nicolás Maduro.
Anthropic menyatakan penggunaan tersebut melanggar ketentuan layanan mereka yang melarang aplikasi untuk kekerasan, pengembangan senjata, maupun pengawasan.
Menhan AS Pete Hegseth dalam unggahan panjang di X menuduh Anthropic melakukan “kesombongan dan pengkhianatan.”
Ia menegaskan bahwa “prajurit Amerika tidak akan pernah dijadikan sandera oleh kehendak ideologis Big Tech.”
Hegseth juga menuntut akses penuh dan tanpa batasan terhadap seluruh model AI Anthropic untuk setiap tujuan yang sah secara hukum.
Meski demikian, ia mengakui bahwa sistem militer telah terintegrasi luas dengan teknologi tersebut sehingga tidak mudah dipisahkan secara cepat.
Anthropic disebut masih akan menyediakan layanan “selama periode tidak lebih dari enam bulan untuk memungkinkan transisi yang mulus ke layanan yang lebih baik dan lebih patriotik.”
Diambil alih OpenAI
Sejak ketegangan dengan Anthropic meningkat, perusahaan pesaing OpenAI disebut mengambil alih peran tersebut. CEO OpenAI, Sam Altman, menyatakan telah mencapai kesepakatan dengan Pentagon untuk menggunakan alat-alat perusahaannya, termasuk ChatGPT, dalam jaringan rahasia militer AS.
Anthropic menyatakan mendukung penggunaan AI untuk mempertahankan Amerika Serikat dan demokrasi lain dari musuh otoriter.
Perusahaan itu mengklaim sebagai penyedia AI terdepan pertama yang mengimplementasikan modelnya di jaringan rahasia pemerintah AS dan Laboratorium Nasional, serta menyediakan model khusus untuk pelanggan keamanan nasional.
Claude disebut telah digunakan secara luas di Departemen Pertahanan dan lembaga keamanan nasional untuk analisis intelijen, pemodelan dan simulasi, perencanaan operasional, serta operasi siber.
Namun, Anthropic menegaskan ada dua batasan yang tidak dapat mereka terima.
Pertama, pengawasan massal di dalam negeri. Perusahaan menyatakan, penggunaan AI untuk surveillans bertentangan dengan nilai demokrasi dan berisiko menggabungkan data publik menjadi profil komprehensif warga secara otomatis dalam skala besar.
Kedua, senjata otonom sepenuhnya yang menghilangkan peran manusia dalam pemilihan dan penyerangan target.
Tidak bisa diandalkan
Anthropic menilai sistem AI saat ini “sangat tidak dapat diandalkan” untuk menggerakkan senjata sepenuhnya otonom dan tidak ingin menyediakan produk yang membahayakan prajurit maupun warga sipil Amerika.
Untuk itu Anthropic menyebut telah menawarkan kolaborasi penelitian dan pengembangan untuk meningkatkan keandalan sistem, namun tawaran itu tidak diterima.
Mereka juga mengungkapkan ancaman dari Dephan untuk menghapus perusahaan dari sistem militer dan bahkan menunjuknya sebagai “risiko rantai pasok” jika tetap mempertahankan pengamanan tersebut.
Teknologi alat pembunuh terus berkembang, sehingga para produsen dan pialangnya bisa disebut bergiat dalam i “merchant of death” atau penjaja kematian. (CNNI/ns)




