Kemajuan pesat di bidang kecerdasan artifisial meningkatkan risiko dari para pengguna yang berniat tidak baik tidak lama lagi akan mengeksploitir teknologi untuk melakukan serangan peretasan otomatis, yang menyebabkan kendaraan nirpengemudi bertabrakan atau mengubah drone komersial menjadi senjata yang dapat memilih sasaran, demikian peringatan yang dikeluarkan sebuah laporan.
Studi ini, yang dipublikasikan hari Rabu oleh 25 peneliti teknis dan kebijakan publik dari masing-masing universitas Cambridge, Oxford, dan Yale bersama dengan para pakar privasi dan militer, mengeluarkan peringatan untuk adanya potensi pemanfaatan Kecerdasan Artifisial oleh negara-negara pembangkang, kalangan kriminal dan para penyerang yang beroperasi secara sendiri-sendiri.
Para peneliti tersebut mengatakan bahwa penggunaan Kecerdasan Artifisial untuk maksud-maksud jahat menimbulkan ancaman nyata pada keamanan digital, fisik, dan politik dengan dimungkinkannya serangan berskala besar, yang disasar secara presisi, dan sangat efektif. Studi ini berfokus pada pengembangan yang masuk akal dalam jangka waktu lima tahun.
“Kami semua setuju ada banyak aplikasi Kecerdasan Artifisial yang bersifat positif,” ujar Miles Brundage, seorang peneliti pada Oxford Future of Humanity Institute. “Ada kesenjangan dalam literasi tentang persoalan penggunaan untuk maksud-maksud jahat.”
Kecerdasan artifisial melibatkan penggunaan komputer untuk melakukan tugas-tugas yang pada umumnya membutuhkan kecerdasan manusia, seperti mengambil keputusan atau pengenalan teks, perkataan, atau citra visual.
Teknologi ini dianggap sebagai kekuatan yang berdaya untuk mengungkapkan semua kemungkinan teknis namun telah menjadi fokus debat seru terkait apakah otomatisasi yang bersifat masif yang dimungkinkan oleh teknologi ini dapat menyebabkan meluasnya pengangguran dan dislokasi sosial lainnya.
Makalah setebal 98 halaman ini mewanti-wanti konsekuensi serangan dapat ditekan dengan penggunaan Kecerdasan Artifisial untuk menyelesaikan tugas-tugas yang kalau tidak akan membutuhkan tenaga dan keahlian manusia. Serangan-serangan baru bisa timbul yang seandainya dilakukan hanya oleh manusia tidak bersifat praktis atau yang mengeksploitasi kerentanan-kerentanan dari sistem Kecerdasan Artifisal itu sendiri.
Makalah ini mengkaji semakin banyaknya badan peneltiian akademi tentang risiko-risiko keamanan yang ditimbulkan Kecerdasan Artifisial dan menyerukan kepada pemerintah dan para pakar kebijakan dan teknis untuk bekerjasama dan menanggulangi potensi bahaya yang ditimbulkan.
Para peneliti merinci kekuatan Kecerdasan Artifisial untuk menghasilkan citra, teks, dan audio sintesis untuk meniru lainnya secara online, guna mempengaruhi opini publik, dengan memberi catatan terkait ancaman yang mungkin digunakan oleh rezim otoriter untuk menyebarluaskan teknologi semacam itu.
Laporan itu membuat serangkaian rekomendasi termasuk mengatur Kecerdasan Artifisial sebagai teknologi bertujuan ganda untuk kepentingan militer/komersial.
Makalah itu juga mempertanyakan apakah akademisi dan kalangan lainnya harus mengontrol apa yang mereka publikasikan atau mengungkapkan semua perkembangan baru dalam bidang Kecerdasan Artifisial hingga para pakar lainnya di bidang itu memiliki peluang untuk mengkaji dan bereaksi atas bahaya potensial yang mungkin dapat ditimbulkannya.
“Ujung-ujungnya timbul lebih banyak pertanyaan ketimbang jawaban,” ujar Brundage. [ww]