bacakoran.co

Waspada! AI Kini Jadi Senjata Baru Penjahat M-Banking, Ini 4 Modus Penipuannya

Waspada, AI kini jadi senjata baru penjahat m-banking, ini 4 modus penipuannya-Ilustrasi -

BACAKORAN.CO - Kecanggihan teknologi kecerdasan buatan (AI) kini tak hanya memudahkan kehidupan manusia, tapi juga membuka celah baru bagi kejahatan digital.

Di tahun 2025, para pelaku kejahatan siber mulai memanfaatkan AI untuk melancarkan aksi penipuan, khususnya yang menyasar layanan mobile banking (M-Banking), fintech, dan rekening pribadi.

Laporan terbaru dari Forbes mengungkap bahwa AI kini digunakan sebagai “senjata utama” oleh sindikat penipuan global.

Mulai dari video deepfake, chatbot cinta palsu, hingga kloning suara, para penjahat ini memanfaatkan AI untuk mengelabui korban secara halus dan sistematis.

BACA JUGA:Tips Membuat Karakter Video AI yang Konsisten di Google Veo 3, Prompt Gak Harus Panjang?

BACA JUGA:Pemasangan Teknologi AI di 20 Persimpangan Jakarta Efektif Kurangi Kemacetan

Buat kamu yang aktif dalam dunia digital dan keuangan online, kenali 4 modus penipuan berbasis AI berikut ini agar bisa lebih waspada.

1. Deepfake & Serangan Email Bisnis (BEC) yang Makin Canggih

Business Email Compromise (BEC) adalah modus penipuan yang menargetkan karyawan untuk mentransfer uang ke rekening penjahat dengan menyamar sebagai atasan.

Tapi sekarang, modus ini makin menyeramkan.

BACA JUGA:Peluang Baru! Cara Menghasilkan Dolar dari Google Veo 3 dan AI

BACA JUGA:Saingi Google Veo 3, Microsoft Luncurkan Bing Video Creator sebagai AI Pembuat Video dari Teks Secara Gratis!

Di Hong Kong, sebuah perusahaan nyaris kehilangan Rp480 miliar setelah seorang pegawai ditipu lewat panggilan Zoom palsu yang menampilkan deepfake bosnya sendiri!

Tidak hanya wajah, suara pun disalin dengan sangat mirip menggunakan AI.

Fakta mengejutkan lainnya, 40% email BEC saat ini dibuat sepenuhnya oleh AI, dan 53% profesional akuntansi di AS mengaku pernah menjadi targetnya.

Waspada! AI Kini Jadi Senjata Baru Penjahat M-Banking, Ini 4 Modus Penipuannya

Melly

Melly


bacakoran.co - kecanggihan teknologi kecerdasan buatan () kini tak hanya memudahkan kehidupan manusia, tapi juga membuka celah baru bagi kejahatan digital.

di tahun 2025, para pelaku kejahatan siber mulai memanfaatkan ai untuk melancarkan aksi , khususnya yang menyasar layanan mobile banking (m-banking), fintech, dan rekening pribadi.

laporan terbaru dari forbes mengungkap bahwa ai kini digunakan sebagai “senjata utama” oleh sindikat penipuan global.

mulai dari video deepfake, cinta palsu, hingga kloning suara, para penjahat ini memanfaatkan ai untuk mengelabui korban secara halus dan sistematis.

buat kamu yang aktif dalam dunia digital dan keuangan online, kenali 4 modus penipuan berbasis ai berikut ini agar bisa lebih waspada.

1. deepfake & serangan email bisnis (bec) yang makin canggih

business email compromise (bec) adalah modus penipuan yang menargetkan karyawan untuk mentransfer uang ke rekening penjahat dengan menyamar sebagai atasan.

tapi sekarang, modus ini makin menyeramkan.

di hong kong, sebuah perusahaan nyaris kehilangan rp480 miliar setelah seorang pegawai ditipu lewat panggilan zoom palsu yang menampilkan deepfake bosnya sendiri!

tidak hanya wajah, suara pun disalin dengan sangat mirip menggunakan ai.

fakta mengejutkan lainnya, 40% email bec saat ini dibuat sepenuhnya oleh ai, dan 53% profesional akuntansi di as mengaku pernah menjadi targetnya.

serangan ini sangat meyakinkan dan sulit dikenali tanpa pelatihan keamanan siber yang mumpuni.

2. penipuan asmara pakai chatbot ai

bukan cuma manusia yang bisa merayu. sekarang, ai dalam bentuk chatbot pintar sudah diprogram untuk menjalin “hubungan” dengan korban melalui media sosial atau aplikasi kencan.

bot ini berbicara dengan kalimat yang romantis dan natural, membuat korban percaya bahwa mereka sedang menjalin hubungan nyata.

di balik layar, penjahat menyiapkan jebakan berupa ajakan investasi, permintaan uang, atau bahkan pencurian data pribadi.

kejahatan ini pernah dibocorkan sendiri oleh pelaku dari nigeria yang memperlihatkan cara mereka menggunakan ai untuk menjebak korban secara massal.

3. "pig butchering" ai: investasi bodong berkedok cinta

istilah "pig butchering" merujuk pada skema penipuan yang memanipulasi korban melalui pendekatan personal sebelum “disembelih” secara finansial.

skema ini kini dilakukan massal dengan bantuan ai.

penjahat memanfaatkan tools otomatis seperti “instagram automatic fans” untuk mengirim pesan-pesan pancingan:
"temanku bilang kamu orang baik, boleh kenalan?"

setelah korban terpikat, mereka diajak investasi palsu, disusupi deepfake panggilan video, dan ditipu ratusan juta hingga miliaran rupiah.

kloning suara pun digunakan agar percakapan makin meyakinkan.

4. deepfake untuk pemerasan pejabat dan eksekutif

modus yang makin mengkhawatirkan adalah pemerasan berbasis deepfake.

di singapura, sejumlah pejabat dan tokoh publik menjadi korban email berisi ancaman video palsu yang menampilkan wajah mereka sedang melakukan hal tidak senonoh—padahal semua hasil editan ai.

pelaku mengakses foto dari linkedin atau video publik dari youtube untuk membuat deepfake, lalu menuntut bayaran dalam bentuk mata uang kripto agar video palsu tidak disebar.

jumlah tebusan bisa mencapai puluhan ribu dolar.

tahun 2025 menandai era baru dalam kejahatan digital.

teknologi ai yang dulunya membantu produktivitas, kini juga menjadi senjata berbahaya bagi para penipu.

tips melindungi diri dari penipuan ai:

  • jangan mudah percaya dengan video atau suara digital yang belum terverifikasi.

  • gunakan verifikasi dua langkah (2fa) di akun finansial kamu.

  • selalu cek sumber informasi, dan laporkan akun mencurigakan.

  • waspadai ajakan investasi dari orang tak dikenal, apalagi yang terlalu manis.

Tag
Share