DEEPFAKE SES TUZAĞI: YENİ NESİL DOLANDIRICILIK YÖNTEMİYLE TANIŞIN!
DEEPFAKE SES TUZAĞI: YENİ NESİL DOLANDIRICILIK YÖNTEMİYLE TANIŞIN!
Yapay zekâ ile oluşturulan sahte ses kayıtları, dolandırıcıların yeni silahı oldu. Uzmanlar, deepfake teknolojisinin yalnızca görüntü değil, sesle de kimlik taklidine olanak sağladığını ve ciddi maddi kayıplara yol açabileceğini vurguluyor.
Yapay zekâ destekli deepfake teknolojisi, artık yalnızca video içerik üretmekle sınırlı değil. Son dönemde ses taklitleriyle yapılan dolandırıcılık vakalarında çarpıcı bir artış yaşanıyor. Özellikle iş dünyasında, patron ya da üst düzey yöneticilerin sesleri taklit edilerek personelden para istenmesi gibi yöntemler dikkat çekiyor.
NASIL ÇALIŞIYOR?
Dolandırıcılar, hedef kişinin sosyal medya videoları veya sesli mesajları üzerinden birkaç dakikalık ses verisi topluyor. Ardından bu verilerle oluşturulan yapay ses modeli, gerçeğine neredeyse birebir benzeyen bir konuşma üretmeye başlıyor.
- Kurban, telefonda tanıdığı birinin sesini duyuyor.
- Mesaj: “Şu IBAN’a acil ödeme yapmamız gerekiyor.”
- Ve kişi, aslında bir yapay zekâyla konuştuğunu fark edemiyor.
HANGİ DURUMLARDA RİSK OLUŞUYOR?
-
Şirket içi ödeme talepleri
-
Ebeveyn sesiyle çocuğa ulaşma senaryoları
-
Kargo/ödeme bilgisi isteyen sahte çağrılar
-
Banka görevlisi taklidiyle kimlik bilgisi sızdırma
UZMANLAR UYARIYOR:
Siber güvenlik uzmanlarına göre, bu tür sesli dolandırıcılıklar özellikle:
-
hızlı karar alınması gereken durumları hedefliyor
-
panik ortamı yaratılarak mantıklı düşünmeyi devre dışı bırakıyor
-
kurbanların duygusal bağ kurduğu kişilerin sesleri kullanılarak güven inşa ediliyor
NASIL KORUNURUZ?
- Tanıdığınız birinin sesini duysanız bile, mesajın içeriğini sorgulayın
- IBAN veya ödeme taleplerini ikincil bir kanaldan teyit edin
- Sosyal medyada sesli içerik paylaşımınızı sınırlayın
- Şirketlerde çoklu onay mekanizmaları kurun
- Karşınızdaki kişiden sesli yerine görüntülü arama talep edin
Yorumunuz başarıyla alındı, inceleme ardından en kısa sürede yayına alınacaktır.