Artificial Intelligence (AI) telah berkembang sesuai kebutuhan. Tapi di saat yang sama, AI juga juga dipakai untuk penipuan.
Dalam beberapa tahun terakhir, penipuan yang dihasilkan oleh AI meningkat secara signifikan di seluruh dunia. Deepfake, contohnya, melonjak 1540% di Asia Pacific dari tahun 2022 - 2023. Jenis penipuan mencakup deepfake foto dan video, deepfake, dan kloning suara.
Laporan Deloitte memperkirakan, penipuan berbasis deepfake berpotensi menimbulkan kerugian puluhan miliar dolar. Sementara menurut Google Deepmind, impersonasi atau meniru seseorang merupakan taktik penipuan yang paling sering digunakan oleh penjahat siber.
Ahli cybersecurity, Mikko Hyppönen, mengatakan bahwa sistem keamanan siber saat ini hanya mencoba menghalau penyerang untuk tidak masuk ke dalam jaringan. Namun, sistem juga perlu memiliki lapisan keamanan yang dapat mendeteksi serangan ketika sudah berada di dalam jaringan.
Artinya, mendeteksi dan melindungi identitas pribadi dari serangan fraud berbasis AI tidak hanya memastikan transaksi dilakukan oleh pengguna yang asli, tetapi juga melindungi keseluruhan proses transaksi.
Berikut bagaimana teknologi AI bisa digunakan sebagai lapisan keamanan yang dapat melawan penipuan berbasis AI.
AI-generated fraud tidak lagi bisa dilawan dengan sistem keamanan tradisional. Bisnis harus mengadopsi keamanan berbasis AI yang mampu memanfaatkan algoritma yang dilatih berdasarkan data demografis, sehingga mampu mengidentifikasi pola-pola mencurigakan.
Ada 3 lapisan keamanan yang dapat mendeteksi dan mencegah AI-generated fraud, yakni:
Fraud Scanner memantau transaksi KYC (Know Your Customer), mendeteksi manipulasi gambar dan pola mencurigakan untuk mencegah penipuan, lalu menolak data biometrik palsu.
Contohnya, sebuah bank digital berpotensi disusupi data biometrik palsu dan gambar KTP yang dimanipulasi selama proses onboarding.
Dengan mengintegrasikan Fraud Scanner VIDA, setiap KYC dipantau. Teknologi ini secara otomatis menolak data biometrik palsu dan gambar yang telah dimodifikasi pada proses KYC, memastikan hanya pengguna asli yang lolos verifikasi.
Deepfake Detector merupakan lapisan keamanan ekstra untuk memeriksa setiap data biometrik berupa gambar yang masuk ke dalam sistem. Deepfake Detector mendeteksi manipulasi seperti morphing dan face swapping. Setiap ancaman dari gambar deepfake yang teridentifikasi oleh sistem akan langsung dihentikan, memastikan hanya gambar asli yang lolos verifikasi.
Sebuah platform fintech menghadapi ancaman deepfake dalam proses verifikasi pengguna, di mana penipu mencoba memanipulasi data biometrik dengan morphing dan face swapping.
Dengan Deepfake Detector VIDA, setiap gambar biometrik yang dimasukkan ke sistem diperiksa untuk mencegah masuknya manipulasi.
Deepfake Shield menggunakan teknologi liveness detection aktif dan pasif yang mampu memblokir serangan injection (injection attack). Lapisan keamanan ini dianggap paling aman karena hanya pengguna asli yang dapat melewati lapisan keamanan ini.
Contohnya, sebuah layanan pinjaman online menghadapi serangan deepfake dan injection attacks yang berusaha memanipulasi verifikasi identitas.
Menggunakan Deepfake Shield VIDA dengan deteksi liveness aktif dan pasif, sistem memverifikasi pengguna asli dan memblokir upaya serangan injection, memastikan hanya pengguna valid yang dapat melanjutkan proses verifikasi.
Penipuan yang dihasilkan oleh AI berkembang pesat dan semakin sulit untuk dideteksi tanpa teknologi yang tepat. Dengan solusi deteksi penipuan berbasis AI dari VIDA, bisnis dapat melindungi diri mereka dari ancaman yang semakin canggih seperti deepfakes, social engineering, hingga pengambilalihan akun.