Program Makan Bergizi Gratis Dorong Penurunan Stunting di Kabupaten Bandung
Program MBG merupakan inisiatif strategis pemerintah untuk memastikan pemenuhan gizi seimbang bagi a
Menerima telepon asing dengan satu sapaan selama kurang lebih tiga detik bisa berujung penipuan suara menggunakan kecerdasan buatan (AI).
Saat ini, modus penipuan voice phishing melalui telepon meniru suara keluarga menggunakan AI tengah marak dan memakan sejumlah korban terjadi di Korea Selatan.
Diwartakan Asia Kyungjae, untuk melancarkan aksi ini, pelaku akan melakukan panggilan dan merekam suara korban.
Biasanya, pelaku hanya akan menelepon dan menunggu tanpa bersuara hingga korban menjadi lawan bicaranya terpancing mengucapkan sepatah atau dua patah kata.
Sampel rekaman tersebut, meski hanya berupa kata sapaan seperti, "Halo, siapa ini?" bisa diolah menjadi kalimat utuh oleh Deep Voice AI untuk menipu orang lain.
"Dengan menggunakan suara dipelajari, pelaku bisa meminta keluarga atau teman Anda untuk mengirimi uang karena ada keadaan darurat seperti kecelakaan lalu lintas," kata Professor Cho Sooyoung dari Sookmyung Women's University.
Bahkan, perusahaan antivirus komputer McAfee mengatakan, gaya bicara dan kalimat seseorang bisa ditiru hanya menggunakan sampel suara selama 3 detik.
Melansir engagement.virginia.edu, modus penjahat dunia maya dengan menelepon target dan berpura-pura menjadi anggota keluarga atau teman.
Mereka menargetkan orangtua atau kakek-nenek berpura-pura menjadi anak atau dewasa muda sedang dalam masalah atau mengalami keadaan darurat seperti bepergian dan kehilangan dompet, berada di penjara, atau alasan lain membutuhkan uang dengan cepat.
Penipu akan mencoba menelepon target dan berinteraksi cukup lama untuk merekam suara, kemudian menggunakan klon suara AI mereka untuk mengakses akun keuangan dan layanan lainnya dengan pengenalan suara.
Berikut tanda-tanda penipuan kloning suara antara lain:
Berikut ini tindakan bisa dilakukan menghindari penipuan: