Jum'at, 26 April 2024
Agung Pratnyawan | Rezza Dwi Rachmanta : Rabu, 06 Maret 2019 | 16:15 WIB

Aktifkan Notifikasimu

Jadilah yang pertama menerima update berita penting dan informasi menarik lainnya.

Hitekno.com - Tentara AS (Amerika Serikat) diketahui mencoba menanamkan AI (Artificial Intelligence) atau kecerdasan buatan ke dalam robot pembunuh mereka. Itu dilakukan untuk mengembangkan kemampuan robot dalam mengidentifikasi dan menyerang target.

Bulan Februari 2019, U.S. Army (Angkatan Darat AS) memanggil beberapa perusahaan swasta untuk melakukan diskusi khusus.

Isi diskusi khusus itu adalah pengeluaran ide-ide tentang bagaimana meningkatkan sistem penargetan semi-otonom.

Sistem tersebut rencananya akan digerakkan oleh AI teroptimasi khusus pada tank.

Tentara AS meminta bantuan agar sistem ATLAS (Advanced Targeting dan Lethality Automated System) meningkat secara siginifikan.

Ilustrasi MUTT. (U.S. Navy)

Sistem ATLAS diharapkan dapat ''memperoleh, mengidentifikasi, dan melibatkan'' target setidaknya 3X lebih cepat daripada proses manual saat ini.

Tetapi rencana tentara AS itu tampaknya membuat sebagian orang khawatir tentang kebangkitan robot pembunuh yang ditenagai dengan teknologi AI.

Seperti yang telah diketahui, pada tahun 2017, tentara AS sudah dapat mengembangkan robot tank yang dinamakan dengan MUTT (Multi-Utility Tactical Transport).

Namun robot tersebut harus dikendalikan oleh seorang tentara agar dapat berjalan dan menembak target.

Dikutip dari Gizmodo, dengan adanya AI, robot MUTT kemungkinan dapat berjalan secara otomatis dan dapat mengidentifikasi target menggunakan algoritma khusus.

Ilustrasi robot perang di masa depan. (Departemen Pertahanan AS)

Melihat potensi AI itu, banyak orang khawatir bahwa robot tank itu akan menjadi mesin pembunuh yang melanggar etika perang.

Melihat kontroversi yang ada, Departemen Pertahanan AS menegaskan bahwa mesin robot pembunuh yang sepenuhnya otonom masih tidak diizinkan membunuh orang-orang di medan perang.

''Semua pengembangan dan penggunaan fungsi otonom dan semi-otonom dalam sistem persenjataan, termasuk platform berawak dan tak berawak, tetap tunduk pada pedoman Departemen Pertahanan (DoD) Directive 3000.09, yang diperbarui pada 2017,'' kata Departemen Pertahanan dalam keterangan resmi mereka.

(DoD) Directive 3000.09 mensyaratkan bahwa manusia dapat melakukan tingkat penilaian yang tepat atas penggunaan kekuatan.

Aturan itu bisa juga disebut ''In the Loop'', yang berarti bahwa manusia yang membuat keputusan akhir apakah robot akan membunuh seseorang atau tidak.

Jika aturan itu terus dipatuhi dan tidak ada kesalahan dalam diri robot (bug atau virus), robot tidak mempunyai kewenangan untuk membunuh orang di medan perang.

Namun yang pasti, tak hanya tentara AS, semua ilmuwan di negara lain juga harus berhati-hati dalam menggunakan teknologi AI untuk mengembangkan mesin pembunuh.

Jika mengalami kesalahan, teknologi AI yang ada di robot pembunuh dapat menghancurkan umat manusia (termasuk tentara AS).

BACA SELANJUTNYA

Microsoft Work Trend Index 2023, Teknologi AI Mengubah Cara Kerja di Indonesia