Yapay zeka, sosyal korsanlık saldırılarını hem güçlendiriyor hem de onlara karşı en etkili savunmayı sunuyor. Peki, bu dengeyi kim kuracak?
Geçen yıl küresel ölçekte gerçekleşen siber saldırıların yüzde 80’inden fazlasının tetikleyicisi bir yazılım açığı değildi. Tetikleyici, bir insandı. Yanlış bir tıklama, sahte bir telefon görüşmesi, inandırıcı bir e-posta... Teknoloji ne kadar gelişirse gelişsin, zincirin en zayıf halkası hâlâ biz oluyoruz. Peki, yapay zekanın bu tabloya girişi ne anlama geliyor?
ESKİ TEHDİT, YENİ MAKYAJ
Sosyal korsanlık, aslında insanlık kadar eski bir yöntem. Güven kazanmak, sahte bir senaryo kurmak, merak ya da korku aracılığıyla bir kapı aralamak... Bunlar saldırganların onlarca yıldır başvurduğu teknikler. Kimlik avı (phishing), sahte kimlikle bilgi toplama (pretexting), merak uyandıran bağlantılar (baiting)… Bunların tümü insan psikolojisinin öngörülebilir açıklarını hedef alıyor.
Fark şu: Yapay zeka bu teknikleri ölçeklendiriyor. Bir saldırgan artık LinkedIn profilinizi, paylaşımlarınızı, yazı stilinizi analiz edip size özel bir ‘sahte senaryo’ dakikalar içinde üretebiliyor. Üretken yapay zekanın kişiselleştirilmiş mesaj yazma başarısının phishing saldırılarında yüzde 30 ila 50 oranında etkinlik artışı sağladığı tahmin ediliyor. Deepfake ses ve görüntü teknolojisiyle bu tehdit bir boyut daha kazanıyor; artık ‘tanıdık bir sesle arayan biri’ bile sahte olabiliyor.
Siber güvenlikte en zor savunulan şey teknik bir açık değildir, insanın güven refleksidir.
SAVUNMA DA AYNI SİLAHI KULLANIYOR
İşte burada ilginç bir paradoks devreye giriyor. Saldırıyı güçlendiren teknoloji, aynı zamanda en umut verici savunma aracı hâline geliyor. Yeni nesil yapay zeka modelleri, sosyal korsanlık girişimlerini gerçek zamanlı olarak tespit etmek için eğitiliyor. Gelen bir e-postanın dil örüntüsü şüpheli mi? Çağrı merkezine gelen bir arayanın ses tonu alışılmadık bir stres mi taşıyor? Kurumsal ağda anormal bir davranış mı gözlemleniyor? Bunların her biri, anomali tespiti yapan bir yapay zeka sisteminin yakalayabileceği sinyaller.
Bunun ötesinde, yapay zeka çalışanları gerçekçi simülasyonlarla eğitebiliyor. Sahte phishing denemeleri, deepfake ses tatbikatları, kurumsal güvenlik farkındalığı... Araştırmalar, bu tür yapay zeka destekli simülasyonların çalışan farkındalığını yüzde 70’e varan oranlarda artırabildiğini gösteriyor.
AYNI GÜÇ, İKİ FARKLI ELDE
Anthropic, OpenAI, xAI gibi sektörün büyük oyuncuları, yapay zekanın siber güvenlikteki rolünü yeniden tanımlayacak modeller üzerinde çalışıyor. Yeni nesil modellerin otonom tehdit tespiti, sıfır-gün saldırılarını anlık modelleme ve proaktif savunma stratejileri üretme konusunda ciddi bir potansiyel taşıdığı öngörülüyor. Bu bir ‘yapay zeka güvenlik yarışı’ ve her geçen gün ivme kazanıyor.
Ama burada durup bir soru sormak gerekiyor: Savunmayı güçlendiren her model, yanlış ellerde bir süper silaha dönüşebilir mi? Eleştirmenler haklı; aynı teknoloji iki tarafta da kullanılabiliyor. Bu yüzden ‘etik izolasyon’ meselesi - yani yapay zekanın kötüye kullanımını engelleyen katmanlar - teknik bir özellik olmaktan çıkıp stratejik bir zorunluluk hâline geliyor. Kurumlar için cevap tek bir teknolojiye yaslanmak değil: Çok faktörlü kimlik doğrulama, veri minimizasyonu, düzenli yapay zeka denetimi ve gerçek anlamda bilinçli bir çalışan kültürü - bunlar hep birlikte çalışmak zorunda.
Özetle, yapay zeka sosyal korsanlık savaşında hem en güçlü saldırı hem de en umut verici savunma aracı. Dengeyi belirleyecek olan teknoloji değil; bu teknolojiyi kimin, nasıl ve hangi değerler etrafında kullandığı olacak. Peki, sizin kurumunuz bu denkleme hangi tarafından dahil olmak istiyor?