World Economic Forum (WEF) menyoroti pentingnya regulasi Artificial Intelligence (AI) untuk menghadapi meningkatnya kejahatan siber berbasis AI, terutama di sektor keuangan. Dalam pembahasan di WEF 2026, para pemimpin menekankan bahwa ekspektasi terhadap regulasi AI bukan lagi sesuatu yang abstrak, melainkan kebutuhan yang kian mendesak di tengah percepatan pemanfaatan teknologi tersebut.
WEF juga menilai ketidakjelasan dan ketidakmerataan aturan di berbagai yurisdiksi menjadi persoalan serius. Perbedaan pendekatan regulasi antarnegeri dinilai dapat membuka celah yang dimanfaatkan pelaku kejahatan, sementara organisasi keuangan dituntut memastikan sistem AI yang digunakan dapat diandalkan, tangguh, dan patuh regulasi sepanjang siklus hidupnya.
Forum yang berlangsung pada 19–23 Januari di Davos, Swiss, mencatat adanya perubahan mendasar dalam peta risiko digital sektor keuangan. Kemunculan AI generatif dinilai menggeser ancaman dari kejahatan siber konvensional menuju kejahatan berbasis AI, dengan pola yang lebih adaptif, lintas sistem, dan kerap meniru perilaku manusia secara meyakinkan.
Jika sebelumnya pelaku kejahatan harus merancang rekayasa sosial untuk memperdaya korban, kini AI dapat digunakan untuk meniru perilaku manusia. Kondisi ini, menurut WEF, menuntut perombakan cara berpikir regulator, penegak hukum, dan pelaku industri karena pendekatan hukum dan teknis yang konservatif dinilai tidak lagi memadai menghadapi kejahatan yang dinamis. Tantangan ini juga terlihat dari meningkatnya kesulitan publik membedakan konten asli dengan rekayasa AI, termasuk dalam bentuk tayangan video.
WEF menegaskan bahwa kejahatan siber berbasis AI kini menjadi isu utama keamanan perangkat lunak dan tata kelola risiko, bukan semata persoalan kriminal. Dalam ilustrasi yang disampaikan, apabila bank masih mengandalkan pola respons pasca-insiden seperti pada kejahatan konvensional, kesalahan pada sistem AI berpotensi menimbulkan kerugian berulang tanpa terdeteksi karena kejahatan berbasis AI dapat bekerja di dalam logika sistem dan proses bisnis.
Survei WEF juga menunjukkan mayoritas CEO telah terdampak penipuan siber, dengan metode seperti phishing, penipuan pembayaran, dan pencurian identitas yang disebut semakin didominasi pendekatan berbasis AI. Pergeseran ini menandai perubahan dari kejahatan yang bertumpu pada infrastruktur menuju kejahatan yang mengeksploitasi perilaku dan keputusan otomatis sistem. WEF menilai satu kesalahan kecil dalam model AI atau kelalaian pelindungan data pribadi dapat dimanfaatkan untuk penipuan lanjutan, memperlihatkan sifat kejahatan berbasis AI yang sistemik dan bukan sekadar insidental.
Selain itu, WEF mencatat AI menurunkan hambatan masuk bagi pelaku kejahatan, memungkinkan penipuan lintas bahasa, lintas negara, dan lintas platform dalam skala besar. Situasi ini diperparah oleh keterbatasan tenaga ahli keamanan siber yang mendorong organisasi mengandalkan otomatisasi. WEF mengingatkan, tanpa pengujian dan pengawasan ketat sejak tahap awal, AI berpotensi memperluas skala kejahatan alih-alih menahannya, terutama jika organisasi terlalu bergantung pada AI tanpa kendali manusia.
Dalam konteks tata kelola, WEF menekankan bahwa pengelolaan AI di sektor keuangan perlu dibuktikan melalui mekanisme teknis konkret, seperti pengujian berkelanjutan, auditabilitas, dan pemantauan perilaku sistem. Regulator, menurut WEF, tidak lagi hanya menilai kepatuhan formal, tetapi juga kemampuan institusi mengendalikan risiko AI yang bersifat non-konvensional. Selama kejahatan berbasis AI masih diperlakukan dengan kerangka kejahatan konvensional, WEF menilai ketahanan digital dan stabilitas keuangan akan tetap rentan.
WEF menempatkan ketidakjelasan regulasi sebagai faktor krusial yang mendorong meningkatnya kejahatan berbasis AI. Selama ini, hukum dinilai lebih banyak bekerja di tahap hilir (downstream), yakni menyelesaikan persoalan pasca-insiden melalui mekanisme pemidanaan. Sejumlah kajian di Center of Cyberlaw & Digital Transformation Fakultas Hukum Universitas Padjadjaran menawarkan pendekatan hukum transformatif berbasis risiko, yang menempatkan hukum hadir secara utuh dari hulu (upstream), menengah (midstream), hingga hilir (downstream).
Pada level upstream, pendekatan ini menekankan pengaturan sejak fase perancangan, pengembangan, dan pelatihan AI. Fokusnya mencakup standar desain yang aman, kualitas serta legalitas data pelatihan, pencegahan bias, dan penetapan subjek yang bertanggung jawab sejak awal. Tanpa pengaturan tahap ini, risiko kejahatan disebut dapat tertanam dalam sistem sebelum digunakan di ruang publik, secara tak terbaca dan tak terdeteksi.
Level midstream mencakup implementasi, seperti distribusi, penerapan, pemantauan, evaluasi, dan penggunaan AI dalam praktik. Pada tahap ini, urgensi audit dan asesmen risiko sepanjang siklus hidup AI (“AI life-cycle assessment”) ditekankan, mengingat AI tidak statis dan dapat terus belajar serta beradaptasi. Karena itu, regulasi dinilai perlu mewajibkan audit berkala, evaluasi dampak, mekanisme pengawasan, serta kewajiban koreksi bila ditemukan risiko hukum, etika, atau keamanan. Tanpa pengaturan midstream, AI disebut dapat berkembang di luar kendali meski awalnya dirancang untuk tujuan yang sah.
Pendekatan hukum transformatif juga menegaskan bahwa kejahatan berbasis AI tidak dapat disamakan dengan kejahatan konvensional yang memperlakukan AI sebagai alat pasif. AI dipandang memiliki karakter otonom, adaptif, dan berbasis data skala besar, dengan proses pengambilan keputusan yang sering tidak transparan. Kejahatan berbasis AI pun berpotensi sistemik, mudah direplikasi secara masif, serta melibatkan banyak aktor dalam satu rantai teknologi, sehingga tidak relevan jika penanganan hukum hanya berfokus mencari satu pelaku di hilir pasca-insiden.
Adapun pada level downstream, penegakan hukum ditempatkan sebagai ultimum remidium melalui formula sanksi pidana, perdata, atau administratif. Namun efektivitasnya dinilai sangat bergantung pada kuat atau lemahnya regulasi di level upstream dan midstream. Jika dua level awal berjalan optimal, beban penanganan di level downstream disebut akan lebih minimal.
Melalui pendekatan tersebut, regulasi AI diarahkan tidak sekadar reaktif setelah kejadian, melainkan bersifat preventif dan adaptif untuk mengendalikan risiko kejahatan siber berbasis AI secara lebih komprehensif serta memperkuat perlindungan bagi publik.