Berita Tips & Trik

Hati-hati! Penipuan Menggunakan AI, Bisa Tiru Suara

Hati-hati! Penipuan Menggunakan AI, Bisa Tiru Suara
Admin Tekno
Written by Admin Tekno

Harian Teknologi – Kecerdasan buatan (AI) dapat menjadi pisau bermata dua, memiliki banyak manfaat di dunia teknologi, namun dapat disalahgunakan untuk tindakan kejahatan. Saat ini, di Amerika Serikat (AS), AI digunakan oleh para penipu atau scammer untuk mengelabui korban melalui panggilan telepon.

Hal ini menjadi masalah serius karena dapat mengakibatkan kerugian finansial dan psikologis bagi korbannya.

PENIPUAN DENGAN MENIRU SUARA ORANG TERDEKAT

Para penipu ini melakukan tindakan kejahatan dengan meniru suara orang terdekat dari korban menggunakan AI.

Tindakan penipuan banyak dilakukan melalui panggilan telepon dan menargetkan orang tua atau lanjut usia. Orang-orang dari kalangan ini memang rentan menjadi korban, terutama sebagai target kejahatan keuangan.

MENJADI PENIPUAN PALING POPULER KEDUA DI AS

Dalam laporan baru dari The Washington Post, modus penipuan ini menjadi jenis penipuan paling populer kedua di AS dengan lebih dari 36.000 kasus sepanjang 2022.

Dari 36.000 kasus tersebut, lebih dari 5.000 korban mengaku bahwa penipuan tersebut dilakukan melalui panggilan telepon. Adapun total kerugian mencapai 11 juta dollar AS atau sekitar Rp 169 miliar.

KORBAN PENIPUAN MELALUI TELEPON AI

Salah satu korbannya adalah keluarga Benjamin Perkin. Ia bercerita, kedua orang tuanya yang sudah lansia mendapatkan telepon dari seseorang yang mengaku sebagai pengacara. Pelaku atau scammer itu mengatakan bahwa anak mereka, Perkin, mengalami kecelakaan mobil hingga membuat seorang diplomat AS meninggal dunia.

BACA JUGA  Berbasis AI dan ChatGPT! Discord Rilis 5 Fitur Baru

Scammer itu mengatakan bahwa Perkin sedang ditahan di penjara dan membutuhkan biaya hukum. Dengan menggunakan AI, penipu itu kemudian meniru suara Perkin saat berbicara di telepon dengan kedua orang tuanya. Singkat cerita, kedua orang tua Perkin diminta membayar 15.000 dollar AS (sekitar Rp 230 juta) pada saat itu.

Kasus penipuan seperti ini juga terjadi pada seorang lansia, Ruth Card. Sama halnya dengan keluarga Perkin, Card mendapatkan telepon bahwa cucunya Brandon sedang mendekam di penjara dan membutuhkan biaya hukum.

Padahal, orang yang menelepon Card bukanlah Brandon, melainkan penipu yang meniru Brandon dengan bantuan teknologi kecerdasan buatan. Korban penipuan ini mengaku mengalami kerugian 2.207 dollar AS (sekitar Rp 33,8 juta).

SULIT DILACAK

Will Maxson selaku Marketing Practices Assistant Director di Federal Trade Commission (FTC) menyebutkan bahwa penipuan seperti ini sulit dilacak karena tidak ada kejelasan terkait lokasi pelaku. Sehingga sulit pula untuk menentukan lembaga mana yang memiliki yurisdiksi atas kasus tertentu.

Chief Executive Identity Theft Resource Center, Eva Velasquez, memiliki opini yang senada. Menurut Eva kepolisian tidak memiliki dana dan staf yang memadai untuk membentuk unit yang didedikasikan untuk melacak penipuan.

PENCEGAHAN SEBELUM TERJADI

Masyarakat diminta untuk melakukan pencegahan sebelum menjadi korban penipuan. Maxson menjelaskan bahwa hal ini dapat dilakukan dengan mencoba menghubungi anggota keluarga yang lain ketika mendapatkan panggilan yang mencurigakan.

BACA JUGA  Gratis! Epic Games Bagikan Empat Game

Masyarakat juga diimbau untuk tidak mudah percaya dengan nomor telepon keluarga, karena nomor tersebut bisa saja sudah dipalsukan.

Selalu bersikap waspada jika ada orang yang meminta uang, terutama jika meminta untuk membayar dengan kartu hadiah (gift card).

Dalam era yang semakin maju seperti sekarang, teknologi kecerdasan buatan yang semakin canggih dapat digunakan untuk kebaikan ataupun tindakan kejahatan. Oleh karena itu, kita sebagai pengguna teknologi harus waspada dan bijak dalam menggunakannya.

Selalu periksa kredibilitas sumber informasi dan jangan mudah terkecoh oleh tindakan penipuan yang semakin berkembang dengan bantuan teknologi AI.

About the author

Admin Tekno

Admin Tekno

Berbagi Artikel Seputar Teknologi dan Lainnya

Leave a Comment