Facebook hari Kamis (21/3) mengakui bahwa sistem kecerdasan buatannya gagal mendeteksi secara otomatis video penembakan di dua masjid di kota Christchurch, Selandia Baru.
Seorang eksekutif senior di perusahaan media sosial raksasan itu menyampaikan hal tersebut melalui blog-nya, menjawab kritik bahwa perusahaan itu tidak bertindak cepat untuk memblokir atau menghapus siaran langsung penembakan di dua masjid yang dilakukan oleh tersangka pelaku, Brenton Tarrant, di Facebook. Video penembakan itu bahkan dapat disebarluaskan dengan sangat cepat di internet.
Wakil Presiden Urusan Integritas Facebook, Guy Rosen, mengatakan “video itu tidak memicu sistem deteksi otomatis” di perusahaan itu. Salah satu penyebabnya karena sistem kecerdasan buatan itu dilatih dengan konten serupa dalam jumlah besar, tetapi dalam kasus ini sistem deteksi itu gagal mendeteksi konten tersebut karena serangan semacam ini sangat jarang terjadi.
Hal lain adalah mengajar sistem kecerdasan buatan itu membedakan antara video penembakan seperti ini dengan “konten tidak berbahaya namun sangat mirip dengan video penembakan itu” – seperti video games yang disiarkan secara langsung. [em]