Deepfake tehditleri artıyor: Deepfake görüntüler ile kimlik doğrulama atlatılabiliyor

deepfake-tehditleri-artiyor-deepfake-goruntuler-ile-kimlik-dogrulama-atlatilabiliyor-5DCauWOw.jpg

Yeni bir araştırma, bilgisayar korsanlarının biyometrik güvenlik sistemlerini aşmak ve insanların çevrimiçi hizmetlerini kırmak için deepfake görüntüleri ve emülatörleri bir ortaya getirdiğini sav etti.

iProov tarafından hazırlanan bir rapor, bu sistemin hatalılar ortasındaki kullanımının 2023’ün birinci ve ikinci yarısı ortasında yüzde 353 oranında arttığını belirtiyor.

Sistem şöyle işliyor: Dolandırıcılar, nispeten ikna edici yüz taklitleri ve deepfake görüntüler oluşturmak için kimileri ucuz, kullanıma hazır tahliller olan Yapay Zeka (AI) araçlarını kullanıyor. Akabinde, sanal kameralar oluşturmak için emülatörler kullanıyorlar. Böylelikle, bir biyometri sistemi bir bireyden yüz taraması yoluyla kimlik doğrulaması yapmasını istediğinde, yüz değiştirme görüntüsünün bulunduğu düzmece kamerayı açabiliyor ve böylelikle aracı kandırıp kimlik doğrulaması yapabiliyor.

Mobil platformlar bu tehdide karşı bilhassa savunmasız görünüyor. Taşınabilir web’e yönelik enjeksiyon akınlarının, 2023 yılının birinci ve ikinci yarısı ortasında iki kattan fazla arttığı görülüyor. Emülatörleri hariç tutup sırf deepfake ve face-swap akınlarına bakıldığında sayılar daha da kötüleşiyor. İki yarı yıl ortasında bu ataklarda yüzde 704’lük bir artış olduğu görülüyor. Son olarak, deepfake medyanın meta bilgi sahteciliği ile birlikte kullanımı, geçen yılın iki yarısı ortasında yüzde 672 oranında artış göstermiş durumda.

Raporda ayrıyeten hacker’ların bu tekniği geliştirmek ve evrimleştirmek için sıkı bir işbirliği içinde oldukları belirtiliyor. Görünüşe nazaran, insan tanımlama ve görüntü tanımlama sistemlerini atlatma konusunda bilgi alışverişinde bulunan kümelerin sayısında kıymetli bir artış var. Şirket, iProov’un analistleri tarafından tespit edilen kümelerin neredeyse yarısının 2023 yılında kurulduğunu belirtiyor.

Exit mobile version