Yapay zeka sahte siteleri gerçekmiş gibi sunuyor: Yeni tehlike kapıda
Yapay zeka destekli araçlar kullanıcıları sahte web sitelerine yönlendirerek siber saldırılara zemin hazırlıyor. Peki AI sistemleri nasıl güvenlik açığına dönüşüyor?
ChatGPT, Perplexity gibi yapay zeka destekli sohbet botları milyonlarca insanın internetle etkileşim biçimini köklü şekilde değiştirirken, beraberinde önemli güvenlik risklerini de getiriyor. Netcraft tarafından yapılan yeni bir araştırma, bu yapay zeka sistemlerinin yalnızca masum hatalar yapmadığını, aynı zamanda kullanıcıları doğrudan kimlik avı sitelerine yönlendirebildiğini ortaya koydu.
Araştırmada, GPT-4.1 model ailesi üzerinden 50 farklı markaya ait giriş adresleri doğal dilde sorularla test edildi. Örneğin, “Wells Fargo’ya nasıl giriş yapabilirim?” gibi sıradan bir kullanıcı ifadesiyle yapılan denemeler sonucu elde edilen veriler oldukça çarpıcı:
-
AI’nin önerdiği alan adlarının %66’sı doğru ve markaya aitti.
-
%29’u aktif olmayan, kayıtsız ya da park edilmiş alan adlarıydı — yani saldırganlar tarafından kolayca ele geçirilebilecek türden.
-
%5’i ise ilgisiz ama meşru işletmelere ait sitelerdi.
Sonuç olarak, yapay zekanın verdiği her 3 bağlantıdan 1’i markaya ait olmayan ve güvenlik riski taşıyan bir siteye yönlendiriyor.
Sahte site önerileri
Bu tehdit yalnızca teorik değil; belgelenmiş örnekler mevcut. Popüler AI destekli arama motoru Perplexity’den Wells Fargo giriş sayfası istendiğinde, sistem kullanıcılara gerçek “wellsfargo.com” yerine Google Sites üzerinde barındırılan ikna edici bir sahte sayfayı sundu. Gerçek site ise sonuçların altında kayboldu.
Geleneksel arama motorları, arama sonuçlarını sunarken alan adı güvenilirliği ve itibar sinyalleri gibi kriterleri göz önünde bulundururken; AI sistemleri bu filtreleri genellikle atlıyor. Kullanıcılar ise yapay zekanın “kesin ve doğru” görünen önerilerine fazla güvenerek bu sahte sitelere kolayca tıklayabiliyor.
Araştırma, büyük markaların yanı sıra özellikle bölgesel bankalar, küçük finans kuruluşları ve orta ölçekli platformların bu tür saldırılara daha açık olduğunu gösteriyor. Bu markalar genellikle büyük dil modeli (LLM) eğitim verilerine dahil edilmediğinden, AI araçları bu kuruluşların giriş adreslerini “uydurma” eğiliminde oluyor. Bu durum, saldırganların eline büyük fırsatlar sunuyor.
AI için optimize edilmiş kimlik avı sayfaları yükselişte
Siber suçlular da gelişen teknolojilere hızla uyum sağlıyor. Artık kimlik avı sayfaları klasik SEO yerine, yapay zeka yanıtlarında üst sıralarda yer alacak şekilde tasarlanıyor. Netcraft, yalnızca kripto kullanıcılarını hedef alan, yapay zeka tarafından yazılmış 17.000’den fazla sahte sayfayı tespit etti. Bu taktik, giderek daha fazla sektöre yayılıyor.
İlginizi çekebilir: Yapay zeka ve SEO hileleri, verilerinizi tehdit ediyor
Tehlike yalnızca giriş sayfalarıyla sınırlı değil. Saldırganlar artık sahte API’ler ve kod depoları oluşturarak yapay zeka destekli kodlama asistanlarını da hedef alıyor. Bu da geliştiricilerin, bilmeden zararlı yazılım bileşenleri içeren önerileri projelerine dahil etmesine neden olabiliyor.
Kalıcı çözüm ne?
Yapay zekanın her zaman yeni varyasyonlar ve alan adları uydurabileceği gerçeği göz önünde bulundurulduğunda, önceden koruma amaçlı tüm olasılıkları kayıt altına almak pek mümkün değil. Uzmanlar, sürdürülebilir çözümün akıllı izleme sistemleri, hızlı müdahale mekanizmaları ve halüsinasyonları azaltan yapay zeka modelleri olduğunu belirtiyor.
İlginizi çekebilir: TikTok’ta sahte yazılım videoları: Yapay zeka ile yayılıyor, tüm bilgileri çalıyor
Artık yapay zekaların yaptığı hatalar sadece teknik arızalar değil; doğrudan istismar edilebilir güvenlik açıkları olarak değerlendirilmeli. Hem kullanıcılar hem de kurumlar bu konuda daha bilinçli olmalı. Aynı şekilde, yapay zeka geliştiricileri de farkında olmadan suç ortaklığına dönüşmemek için doğruluk ve güvenlik önlemlerine öncelik vermeli.
KAYNAK : www.chip.com.tr
Yorum gönder