Hari Valentine kerap identik dengan bunga dan cokelat. Namun bagi pelaku kejahatan siber, momen ini disebut menjadi musim “panen” penipuan asmara. Satnam Narang, Senior Staff Research Engineer di Tenable, memperingatkan bahwa penipuan romantis telah memasuki fase baru yang ia sebut sebagai era kegelapan (Dark Age) karena semakin terorganisir dan ditopang teknologi kecerdasan buatan (AI).
Jika sebelumnya modus penipuan asmara kerap dilakukan secara amatir oleh individu, Narang menilai praktik ini kini berkembang menjadi industri besar yang “terindustrialisasi” dan memanfaatkan AI tingkat lanjut. Ia menyoroti kerugian akibat penipuan investasi—yang disebut kerap menjadi puncak dari skema penipuan asmara—telah mencapai 5,7 miliar dolar AS pada tahun lalu. Angka tersebut dinilai kemungkinan baru sebagian kecil, karena banyak korban enggan melapor akibat stigma sosial.
Menurut Narang, kekuatan AI membuat penipu mampu menyusun pesan yang tampak meyakinkan dan menyentuh emosi dengan biaya rendah. Ia menyebut tahun 2026 sebagai titik balik ketika AI semakin efektif dijadikan mesin uang oleh pelaku. Dengan bantuan model AI, penipu dapat menghasilkan komunikasi yang rapi secara bahasa, konsisten, dan sulit dibedakan dari percakapan manusia. AI juga memungkinkan pelaku menjalankan banyak percakapan mendalam secara bersamaan, sehingga korban merasa mendapat perhatian eksklusif.
Narang mengidentifikasi empat tren utama yang mendorong industrialisasi penipuan asmara. Pertama, penggunaan model bahasa skala besar (LLM) yang menghilangkan tanda-tanda klasik penipuan, seperti tata bahasa buruk atau alur cerita yang tidak konsisten. Proses pendekatan (grooming) dapat berlangsung lebih otomatis dan persuasif, membuat korban semakin sulit menilai apakah mereka berinteraksi dengan manusia atau mesin.
Kedua, kemunculan “AI Room” dan pemakaian deepfake untuk panggilan video secara real-time. Dalam skema ini, sindikat disebut memiliki ruang khusus yang memanfaatkan teknologi deepfake agar wajah pelaku dapat berubah mengikuti profil palsu yang digunakan. Dengan kondisi tersebut, saran lama untuk melakukan panggilan video sebagai verifikasi identitas dinilai tidak lagi memadai.
Ketiga, pergeseran tujuan ke penipuan investasi dengan pola yang dikenal sebagai pig butchering. Dalam strategi ini, hubungan romantis digunakan sebagai umpan. Korban dibangun kepercayaannya, lalu diarahkan ke platform investasi palsu yang menampilkan kemenangan finansial semu. Setelah korban semakin yakin dan menaruh dana lebih besar, pelaku kemudian menguras tabungan korban.
Keempat, meningkatnya ancaman dari model AI open-source. Narang menilai, berbeda dengan layanan AI komersial yang memiliki filter keamanan, model open-source seperti DeepSeek dan Qwen dapat dijalankan di server pribadi dan dimodifikasi untuk menghapus batasan etika. Kondisi ini memungkinkan produksi konten manipulatif secara otomatis tanpa hambatan yang biasanya ada pada platform AI berfilter.
Di balik operasi penipuan yang semakin canggih, Narang juga menyoroti sisi gelap yang menyertai praktik ini. Ia menyebut penipuan kerap dioperasikan dari kompleks kerja paksa, tempat para pekerjanya merupakan korban perdagangan manusia dan dipaksa memenuhi kuota penipuan. Dalam gambaran yang ia paparkan, keberhasilan menguras tabungan korban bahkan dirayakan dengan bunyi lonceng atau gong.
Narang menekankan bahwa meski teknologi yang dipakai semakin baru, manipulasi psikologis yang digunakan tetap merupakan trik lama—hanya saja kini skalanya membesar karena dukungan teknologi. Karena itu, kewaspadaan korban menjadi faktor penting, terutama ketika percakapan mulai mengarah pada uang.
Untuk melindungi diri, ia mengingatkan agar tidak mudah tergiur tangkapan layar keuntungan investasi atau klaim keahlian finansial dari orang yang baru dikenal, termasuk dari aplikasi kencan. Jika kenalan daring mulai membicarakan investasi—baik secara agresif maupun seolah “malu-malu”—hal itu disebut sebagai sinyal bahaya. Ketika percakapan sudah mengarah ke uang, langkah yang disarankan adalah memutus kontak, menghapus kecocokan (unmatch), dan melaporkan akun tersebut.
Dalam penjelasannya mengenai mekanisme “AI Room”, Narang menyebut pelaku dapat menggunakan perangkat lunak “kamera virtual” untuk mencegat feed video di aplikasi seperti WhatsApp atau FaceTime, lalu memakai perangkat lunak seperti DeepFaceLive untuk memetakan gerakan wajah mereka ke persona target. Gangguan teknis kecil, menurutnya, kerap ditutupi dengan alasan koneksi internet buruk.
Ia juga menegaskan perbedaan peran model AI open-source seperti DeepSeek dan Qwen dibanding AI komersial yang memiliki filter keamanan. Model open-source dapat dimodifikasi agar beroperasi tanpa batasan etika, sehingga memudahkan pembuatan konten predator secara otomatis dan mengurangi risiko pemblokiran akun oleh penyedia layanan AI.
Peringatan Narang menutup dengan pesan sederhana: tetap waspada ketika hubungan daring mulai menyentuh urusan finansial. Ia mengingatkan bahwa cinta sejati tidak meminta kode OTP maupun akses ke dompet kripto.