Kötü amaçlı yapay zeka modelleri siber suçun kurallarını değiştiriyor
Filtreleri kaldırılmış büyük dil modelleri, zararlı kodu saniyeler içinde üreterek tecrübesiz kullanıcıları bile saldırgan hale getiriyor. Bu da siber güvenlik kaygılarını arttırıyor.
Filtreleri kaldırılmış büyük dil modelleri, kod bilgisi az kullanıcıların bile fidye yazılımı, oltalama içerikleri ve zararlı kod üretmesini kolaylaştırıyor. Uzmanlara göre bu araçlar, siber suç dünyasında yeni bir dönem açıyor ve savunma tarafında ciddi baskı oluşturuyor.
WormGPT kötü amaçlı kodlar yazabiliyor
WormGPT, FraudGPT ve benzeri modeller, normal sohbet botları gibi çalışıyor ancak güvenlik sınırlamaları bulunmuyor. Kullanıcı zararlı kod istediğinde itiraz etmiyor, çalışan bir örnek üretiyor ve hatalar geri bildirildiğinde kodu saniyeler içinde düzeltebiliyor. Dark web ortamlarında bu tür araçlar için ilanlar açılıyor; bazıları ücretli, bazıları ise tamamen ücretsiz sunuluyor. Böylece deneyimsiz kullanıcılar bile kısa sürede ciddi tehdit haline geliyor.
Son dönemde tehdit aktörleri bu modelleri sadece kod üretmek için değil, doğrudan zararlı yazılımların içine gömerek de kullanıyor. Zararlı yazılım çalışırken arka planda modele istek gönderip kendini yeniden yazıyor, imzasını değiştiriyor ve antivirüs tespitinden kaçmaya çalışıyor. Statik imzaya dayalı klasik çözümler bu nedenle giderek yetersiz kalıyor.