oleh: Rian Adam Rajagede
Kepopuleran dan kecanggihan ChatGPT baru-baru ini membuat banyak orang berlomba-lomba memanfaatkan AI untuk keperluan atau bisnis mereka. Yang mungkin belum banyak diketahui adalah ketika suatu model AI sudah masuk ke tahap produksi, akan ada banyak aspek tambahan yang perlu diperhatikan, seperti keandalannya dalam menghadapi jumlah request, atau robustness-nya ketika harus berhadapan ragamnya data di dunia nyata. Salah satu aspek yang juga tidak kalah penting adalah keamanannya.
AI Security
AI adalah software. Seperti software lain, selalu ada celah keamanan yang bisa dieksploitasi orang lain. Pada kebanyakan AI, khususnya seperti deep learning, celah keamanan terbesar ada karena peneliti tidak bisa benar-benar menjelaskan bagaimana suatu AI memiliki performa yang baik, kecuali dengan metriks-metriks evaluasi[1]. Ini menyebabkan kadang pembuat AI tidak sadar kalau ada suatu celah keamanan di dalamnya.
Sebagai contoh, pada tahun 2019 (Dipublikasikan tahun 2021)[2],[3], beberapa peneliti dari Cina menemukan celah keamanan sehingga bisa membuat mobil Tesla mengambil jalur yang salah hanya dengan menempel stiker khusus di jalan. Kita manusia melihat itu hanya stiker, tapi ternyata AI pada mobil Tesla melihat hal lain. Serangan ini disebut dengan Adversarial Attack, suatu serangan terhadap AI di mana kita membuat data atau kondisi yang bisa menjadikan AI salah tingkah.