Dolar 41,7228
Euro 48,7083
Altın 5.411,10
BİST 10.756,27
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 18°C
Az Bulutlu
İstanbul
18°C
Az Bulutlu
Per 17°C
Cum 20°C
Cts 19°C
Paz 19°C

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı

Kimlik avı taarruzları, uzun yıllardır var olan bir siber hücum tekniği olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı atakları, yapay zeka teknolojilerinin siber cürüm usulü olarak kullanılmasıyla form değiştirdi.

Siber Suçların Tehlikeli Yeni Yüzü: Deepfake Kimlik Avı Saldırısı
REKLAM ALANI
5 Mart 2024 17:36
113

Kimlik avı akınları, uzun yıllardır var olan bir siber akın formülü olsa da hala kuruluşlara saldırmanın ve sızmanın en tesirli yollarından biri olarak görülüyor. Son yıllarda kimlik avı akınları, yapay zeka teknolojilerinin siber kabahat sistemi olarak kullanılmasıyla biçim değiştirdi. Deepfake kimlik avı akın teşebbüslerinin 2023 yılında %3.000 oranında arttığını lisana getiren Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, deepfake kimlik avı ataklarına nerelerde maruz kalınabileceğine ve karşı karşıya gelindiğinde neler yapılması gerektiğini paylaştı. 

Deepfake derin öğrenme tekniğiyle geçersiz manzaraların, görüntülerin ve seslerin oluşturulması manasına geliyor. Kimlik avı taarruzları, siber hatalıların mağdurları alt etmek için kullandıklarını en tesirli yollardan biri olarak görülüyor. Deepfake kimlik avı hücumları, toplumsal mühendislik teknikleri ve deepfake teknolojisinin birleşimiyle yeni bir siber hücum formülü olarak hayata girdi. Deepfake kimlik avı hücumlarındaki artış, derin öğrenme modellerinin daha erişilebilir hale gelmesinden kaynaklanıyor. Günümüzde artık yapay zeka algoritmaları düşük maliyetli yahut fiyatsız bir biçimde olduğu için ulaşabilir bir durumda. Deepfake kimlik avı akın teşebbüslerinin 2023 yılında %3.000 oranında arttığı gözlemlendi. En çok finans ve muhasebe alanındaki bireylerin hedeflendiğini ve CFO’ların taklit edidiğine dikkat çeken Bitdefender Antivirüs Türkiye distribütörü Laykon Bilişim’in Operasyon Yöneticisi Alev Akkoyunlu, siber hatalıların deepfake kimlik avı akınlarını kullandıkları alanları ve kuruluşların dikkat etmesi gereken noktaları anlattı. 

ARA REKLAM ALANI

1. E-postalar yahut iletiler. Kuruluşlar her yıl iş e-postası akınları nedeniyle milyarlarca dolar kaybediyor. Deepfake’ler e-posta ataklarını daha da tehlikeli hale getiriyor zira tehdit aktörleri bu yaklaşımı iletileri şahsileştirmek ve kimliklerini daha inandırıcı göstermek için kullanabiliyor. Örneğin, saldırganlar CEO’ların uydurma LinkedIn profillerini oluşturabilir ve bunları çalışanları cezbetmek için kullanabilir.

2. Manzaralı aramalar. Bir siber hatalı, mağdurlarla etkileşime geçmek ve mağdurları bilinmeyen bilgileri (kimlik bilgileri gibi) paylaşmaya ikna etmek yahut onları yetkisiz finansal süreçler gerçekleştirmeye yönlendirmek için bir Zoom görüşmesi üzerinden görüntü deepfake kullanabilir. Örneğin, Çin’deki bir dolandırıcı, birinin kimliğine bürünmek için yüz değiştirme teknolojisini kullandı ve mağduru 622.000 doları transfer etmeye ikna etti.

3. Sesli iletiler. Bugünlerde rastgele birinin sesini kopyalamak son derece kolay. Tek gereken üç saniyelik bir klip. Bu deepfake’ler, sesli bildiri bırakmak yahut insanları canlı sohbetlere dahil etmek için kullanılabilir; böylelikle gerçeklik ile aldatma ortasındaki çizgi daha da bulanıklaşır. 2022 yılında kuruluşların %37’sinin deepfake ses sahtekarlığı yaşadığına inanılıyor.

Kuruluşlar Deepfake Kimlik Avı Atakları Konusunda Neden Endişelenmeli?

1. Süratle büyüyen bir tehdit. Deepfake teknolojisi, üretken yapay zeka araçları sayesinde giderek daha erişilebilir hale geliyor. Deepfake kimlik avı ve dolandırıcılık olayları 2023 yılında %3.000 üzere şaşırtan bir oranda arttı.

2. Maksada yönelik. Saldırganlar son derece şahsileştirilmiş ataklar oluşturmak için deepfake’leri kullanabilir. İnsanları makul ilgi alanlarına, hobilerine ve arkadaş ağlarına nazaran hedefleyebilir. Belli kişi ve kuruluşlara has güvenlik açıklarından yararlanabilir.

3. Tespit edilmesi sıkıntı. Yapay zeka birinin yazı tarzını taklit edebilir, sesleri harikaya yakın bir doğrulukla klonlayabilir ve insan yüzlerinden ayırt edilemeyen yapay zeka tarafından oluşturulmuş yüzler yaratabilir. Bu da deepfake kimlik avı hücumlarının tespit edilmesini son derece zorlaştırır.

Kuruluşlar Deepfake Kimlik Avı Ataklarını Nasıl Önleyebilir?

1. Öncelikli olarak finans departmanlarında vazife alan çalışanları eğitin.  Kuruluşların finans departmanlarında misyon alan çalışanlar, bilhassa para transferi üzere süreçleri yaparken dikkatli olmaları konusunda eğitilmeli. Bilhassa işverenleri yahut yöneticileri tarafından acil ve süratli bir biçimde yapılması istenen para transferlerinde telâşlı davranmak yerine, daha dikkatli bir davranış biçimi sergilemeleri gerekiyor. Genelde bu tıp siber dolandırıcılık metotlarında siber hatalılar, ruhsal baskıyla para transfer işini aceleye getirmeye çalışıyor. Para transferi yapılacak hesabın sahiden cari bir alacaklı olup olmadığını denetim etmek gerekiyor. Hesap bilgisinin hakikat kişi olduğundan emin olmak için para transferi yapılacak hesap numarası denetim edilmeli. Yönetici, para transferi yapılacak kişi tarafından aranarak nitekim bu türlü bir para transfer buyruğu verip vermediği denetim etmeli. 

2. Çalışanların geçersiz içerik konusundaki farkındalığını artırın.  Çalışanlar, geçersiz içeriğin giderek yaygınlaşması konusunda bilinçlendirilmeli. Çalışanlara, yalnızca çevrimiçi profillerinde birtakım görüntüler, fotoğraflar yahut ses klipleri olduğu için çevrimiçi bir kişiliğe, bireye yahut kimliğe güvenmemeleri gerektiği öğretilmeli.

3. Çalışanları deepfake’i tanımaları ve raporlamaları için eğitin.  Kimlik avını tedbire ve tespit etme kelam konusu olduğunda hiçbir şey insan sezgisinden daha güçlü olamaz. Çalışanları, geçersiz çevrimiçi kimlikleri, dudak senkronizasyonu tutarsızlıkları üzere görsel anormallikleri, sarsıntılı baş ve gövde hareketlerini, olağandışı ses işaretlerini ve sistemsiz yahut kuşkulu istekleri tanıma ve raporlama konusunda eğitmek çok değerli. Bu eğitim uzmanlığına sahip olmayan kuruluşlar, gerçek, kullanıma hazır örnek toplumsal mühendislik senaryolarını kullanan kimlik avı simülasyon programlarını da kıymetlendirebilir.

4. Kimlik sahtekarlığı riskini azaltmak için güçlü kimlik doğrulama prosedürleri kullanın.  Kimlik avına dirençli çok faktörlü kimlik doğrulama ve sıfır itimat üzere araçların kullanılması, kimlik hırsızlığı ve yanal hareket riskini muhakkak bir dereceye kadar azaltabilir. Bununla birlikte, güvenlik önderleri saldırganların makul deepfake tabanlı toplumsal mühendislik teknikleri kullanarak kimlik doğrulama sistemlerini hacklemeye yahut baypas etmeye çalıştıklarını görmeyi bekleyebilirler.

Deepfake kimlik avı ataklarının başarısı ve aktifliği, özünde insanların inancını ve saflığını kullanma marifetinde yatıyor. Kuruluşlar çalışanlarına internette gördükleri ya da duydukları her şeyi sorgulamayı öğretmeli ve nizamlı toplumsal mühendislik farkındalık idmanlarıyla altıncı bir savunma hissiyle birlikte bir şey fark ettikleri anda devreye giren bir kas hafızası oluşturmalı. Kuruluşların giderek yaygınlaşan bu tehditle tesirli bir halde çaba edebilmelerinin en uygun yolu insan sezgisi.

Kaynak: (BYZHA) Beyaz Haber Ajansı

REKLAM ALANI