Yeni siber tehdit: Deepfake ve Cheapfake

HABER MASASI
Abone Ol

Bilişim suçlarına son zamanlarda Deepfake ve Cheapfake vakaları da eklendi. Dijital yöntemler kullanılarak hazırlanan ve basit bir eğlence gibi görünen videolarla birçok kişi mağdur edilebiliyor. Pazarlama ve reklamcılık alanında farklı çalışmalara konu olsa da, bu teknolojinin uygunsuz amaçlar için kullanılma ihtimali geleceğin en büyük tehlikelerinden biri olarak görülüyor.

İngilizce deep learning (derin öğrenme) ve fake (sahte) kelimelerinin birleşimiyle oluşan deepfake ve daha ucuz ve erişilebilir araçlarla oluşturulan cheapfake temelde bir kişinin yüzünü ve ses kayıtlarını manipüle etmeyi mümkün kılan bir yazılım türü. Bu tabirler yapay zeka sahteciliğini, insanların yüzlerini, hareketlerini ve seslerini gerçekçi bir şekilde taklit etmek veya değiştirmek için yapay zeka teknikleri kullanılarak oluşturulan fotoğrafları, videoları veya sesleri tanımlamak için kullanılıyor. Videoların oluşturulması için makine öğrenmesinden ve yapay zekadan yararlanılıyor. Bu içerikler reklam, şaka, troll, itibarsızlaştırma, finansal veya siyasi avantaj sağlama gibi birçok amaçla üretilebiliyor. Cheapfake içerikleri deepfake içeriklerine oranla daha kolay anlaşılabiliyor.

İçerikler yapay zekayla hazırlanıyor

David Beckham.

Airbrush ve Photoshop ile yıllar önce fotoğraflar üzerinde manipülasyon yaparak gerçeğinden ayırt edilemeyecek oynamalar yapılabiliyor ve gerçekte var olmayan içerikler ortaya çıkarılabiliyordu. Ancak teknolojinin gelişmesiyle bu teknoloji daha da gerçekçi hale getirilerek amatör versiyonları cep telefonu uygulamalarına dahil oldu. Bir kişinin videolarını izleyerek yüz ve dudak hareketleriyle birlikte ses özelliklerini de öğrenebilen ve taklit edebilen deepfake teknolojisi, birkaç yıl önce büyük uğraş ve yetenek gerektiren özel montaj tekniklerini dakikalar içerisinde yapabiliyor.

Deepfake ses ve hareketleri taklit etmekle beraber mevcut bir görüntü veya videoda yer alan bir kişinin, yapay sinir ağları kullanarak bir başka kişinin görüntüsü ile değiştirilebildiği bir medya türü. Sıklıkla da otomatik kodlayıcılar ve üretken çekişmeli ağlar olarak bilinen makine öğrenme tekniklerini kullanarak mevcut medyanın kaynak medya üzerinde birleştirilmesi ile üretiliyor. Deepfake içeriklerinde önce videoda yüzü kullanılacak kişinin mimikleri ve dudak hareketleri analiz ediliyor. Daha sonra makine öğrenme ile elde edilen analizlerle yapay zekanın yardımıyla bir model oluşturuluyor. Üçüncü ve son kısımda ise görüntü ve ses modellenen yüze dönüştürülüyor.

Reklamlarda ünlü simalar canlandırılıyor

  • Deepfake teknolojisi sinema ve reklamcılık sektöründe kullanıma oldukça elverişli. Bu teknolojinin en fazla dikkat çektiği konu ise ölmüş insanları tekrar ekranlara taşıyabiliyor olması. Birçok şirket ünlü simaların haklarını satın alarak reklam filmi çekiyor. Ressam Bob Ross bir içecek reklamı yapabiliyor veya 1955 yılında ölmüş olan Albert Einstein bir reklamda oynayabiliyor.

Bununla birlikte deepfake teknolojisi ile çok uzun vakit ve enerji gerektirecek çekimler de kolayca yapılabiliyor. Malaria Must Die (Sıtma Bitmeli) hareketi, dünyanın dört bir köşesindeki insanlara seslenebilmek için David Beckham’ı deepfake sayesinde 9 farklı dilde konuşturdu. 2018 yılında e-ticaret platformu Zalando’nun TopShop için yürüttüğü #WhereverYouAre (#HerNeredeysen) isimli moda kampanyasında ise ünlü oyuncu Cara Delevingne deepfake sayesinde binlerce köy ismini otomatik şekilde telaffuz etti.

Sahte videolarla dolandırıcılık yapılıyor

Günden güne gelişmekte olan bu teknoloji faydalarının yanı sıra insan gözüyle ayırt edilemeyecek kadar gerçekçi sahte videolar üretmeyi mümkün kıldığı için temel hak ve özgürlüklere ciddi şekilde müdahale edebilecek bir potansiyele de sahip. Çünkü bu yazılım, bir kişinin sesi ve görüntüsünü başka bir kişinin vücuduna yerleştirerek sahte video üretilmesini ve bu videoda istenilen sözlerin söylenilmesini veya istenilen hareketlerin yapılmasını mümkün kılıyor. Sosyal medya platformlarında hızla yayılan deepfake siber tehdidi dezenformasyon savaşını bir üst boyuta taşıyor. Çünkü deepfake teknolojisi, kişiye gerçekte hiç söylemediği şeyleri sahte videoda söyleterek ve yapmadığı şeyleri yaptırarak insanları kandırmak ve dolandırmak için veya ilgili sahte içerik ile o kişiyi aşağılamak, küçük düşürmek tehdit etmek amacıyla kullanılabiliyor.

Deepfake teknolojisi kullanılarak tespit edilen ilk siber dolandırıcılık vakası 2019 yılında yaşandı. Ses klonlama yöntemiyle bir Alman enerji şirketi 243 bin dolar dolandırıldı. Amerika’da bir kadın ise kızının rakip takımında yer alan amigo kızların görüntülerini deepfake yazılımıyla manipüle ederek sigara, alkol ve uyuşturucu madde kullanırken gösteren içerikler üretti. Bu sahte içeriklerle genç kızları tehdit eden kadın, şikayetler üzerine IP adresi takip edilerek yakalandı.

Deepfake videolarının siyasetçilere söylemedikleri sözleri söyleterek veya yapmadıkları bir hareketi yaptırarak halkı etkilemek için kullanılma riski de bulunuyor. Örneğin, Myanmar’da 1 Şubat 2021 tarihinde askeri darbe yapan kişiler hapse attıkları eski Yangon Başbakanı Phyo Min Thein’in kendisine yöneltilen suçları itiraf etmiş gibi gözüktüğü bir videoyu basınla paylaştı. Hapisteki Başbakan’ın suçunu itiraf ettiği iddiasıyla, darbe yapan orduya yakın TV kanalında yayınlanan ve hapisteki politikacıya ait olduğu öne sürülen videonun yüzde 75 sahte olduğu yapay zekaya dayalı görüntü analiz teknolojisiyle yapılan taramalarda ortaya çıktı. Yayınlanan videonun gerçeği yansıtmayan bir deepfake yani yapay zeka teknolojileriyle manipüle edilmiş sahte içerik video olduğu Türk yapay zeka girişimi Deepware Scanner tarafından tespit edildi.