Zeki ama güvenilmez arkadaş: Yapay zekâ

BURAK YILDIRIM
Abone Ol

Yapay Zekâ hayatımızı kolaylaştıran ama aynı zamanda yalanları ışık hızıyla yayan bir güç. Bu, sadece teknoloji meraklılarını değil, sokaktaki esnafı, evdeki anneyi, okuldaki öğrenciyi kısacası hepimizi etkileyen bir tehlike. NewsGuard’ın (haber sitelerini şeffaflık ve doğruluk kriterleriyle puanlayan, gazetecilerden oluşan bir ekip tarafından yönetilen bir güvenilirlik aracı) son raporu acı gerçeği suratımıza çarpıyor: Yapay zekâ yanlış bilgileri iki kat hızlı yayıyor! Bu, bir hata mı? Yoksa küresel şirketlerin zihinlerimizi şekillendirmek için oynadığı bir oyun mu?

Yanlış bilgi yayma oranındaki sarsıcı yükseliş

Bir yıl önce Ağustos 2024’te, önde gelen on yapay zekâ aracı, haberlerdeki yanlış iddiaları yüzde 18 oranında tekrarlıyordu. Ağustos 2025’te bu oran yüzde 35’e fırladı. Bu, sakin bir denizde başlayan bir dalganın tsunami haline gelmesi gibi. NewsGuard’ın denetimi gerçeği ortaya koyuyor: Sistemler gerçek zamanlı web aramalarını benimseyerek, cevap vermeme oranını sıfıra indirdi. Eskiden belirsiz veya hassas konularda sessiz kalırlarken (yüzde 31 oranında) şimdi ise her soruya cevap veriyorlar. Kullanıcı dostu mu? Görünüşte evet. Ama bu bir doktorun bilmediği hastalığa ilaç yazması gibi; sonuçları ölümcül olabilir.

Ağustos 2024’te, önde gelen on yapay zekâ aracı, haberlerdeki yanlış iddiaları yüzde 18 oranında tekrarlıyordu. Ağustos 2025’te bu oran yüzde 35’e fırladı.

İnternet bir zamanlar temiz bir nehir gibiydi. Bugünse çamurlu, zehirli bir bataklık. Yapay zekâ bu bataklıktan besleniyor. En popüler model ChatGPT, yanlış iddiaları yüzde 40 oranında yayıyor. Sektörün “daha güvenli, daha güvenilir” vaatleri kuru gürültüden ibaret. Mistral’ın Le Chat’i bir yılda sıfır ilerleme göstermiş (hâlâ yüzde 36,67’de). Yüksek profilli güncellemeler, milyar dolarlık yatırımlar... Hiçbiri işe yaramıyor. Neden mi? Çünkü bu bir hata değil, yapısal bir sorun. Küresel şirketler (OpenAI, Google, Meta) bu araçları milyarlarca insana sunuyor. Acaba bu açıklar bilerek mi bırakılıyor? Bilgi akışını kontrol etmek, onların gizli gündemi olabilir mi? OpenAI CEO’su Sam Altman, Haziran 2025’te "İnsanların ChatGPT'ye çok yüksek derecede güvenmesi ilginç, çünkü yapay zekâ halüsinasyon görüyor... Aslında çok da fazla güvenmemeniz gereken bir teknoloji olmalı." demişti. Ama şirketi, YZ modellerini her yere entegre ediyor. Peki, bu çelişki bir planın parçası mı?

Yapay zekânın zayıf yönleri

Yapay zekâ dev bir kütüphane gibi: Milyarlarca kitap, ama bazıları sahte. Büyük dil modelleri, bu raflardan rastgele çekiyor. Gerçek zamanlı aramalar bu sorunu katlıyor. Eskiden, YZ hassas konularda susardı, yüzde 31 oranında “bilmiyorum” derdi. Şimdiyse her soruya cevap veriyor ama çoğu yanlış. İnternetin karanlık köşelerindeki sahte siteler, bot hesaplar YZ’yi kandırıyor.

Veri boşlukları, özellikle az bilinen konularda bu makinelerin kâbusu. Art niyetliler bu boşlukları sahte içerikle dolduruyor. Yerel haber gibi görünen yabancı siteler, son dakika yalanları... Yapay zekâ bunları ayırmıyor. NewsGuard, bunu “kirli bir bilgi ekosistemi” diye tanımlıyor. Şirketler bu sistemi neden temizlemiyor? Çünkü veri, onların altını. Her sorgu, bir maden. Kontrol, güç demek. Ve güç, masum kullanılmıyor. Şirketler, bu açıkları biliyor. Ama düzeltmek yerine, “kullanıcı deneyimi” diyorlar. Bu, bir komplo mu? Neden olmasın!

Orson Welles.

Sistem zehirleniyor

Kötü niyetliler yapay zekâyı hacklemiyor ama sistemi zehirliyorlar. Düşük etkileşimli siteler, botlarla şişirilmiş sosyal medya hesapları, yapay zekâ içerik çiftlikleri... Hepsi, yalanları “gerçek” gibi yayıyor. Devlet destekli ağlar burada ön saflarda. Temmuz 2024’te modellerin yüzde 32’si, Rusya’nın Storm-1516 operasyonunun propagandalarını yaydı. Mart 2025’te Pravda ağı (150 Moskova merkezli site) yalanlarını yüzde 33 oranında tekrarlatmış. Pravda, Rusça’da “gerçek” demek. Ama içerikler?

250 belge yetiyor

Birleşik Krallık Yapay Zekâ Güvenlik Enstitüsü, Alan Turing Enstitüsü ve yapay zekâ firması Anthropic tarafından yürütülen ortak bir çalışma sadece 250 kadar bozuk belgenin, büyük dil modellerinde (LLM'ler) "arka kapı" olarak bilinen bir zafiyet oluşturmaya yettiğini ortaya çıkardı. Bu sayının bu kadar düşük olması, veri zehirleme saldırılarının düşünülenden çok daha kolay ve uygulanabilir olduğu anlamına geliyor ve YZ için ciddi bir tehdit oluşturuyor. YZ eğitim verilerinin temelini oluşturan halka açık internet bu kadar kolay manipüle edilebiliyorsa gerisini düşünün!

Orson Welles ve kitlesel histeri

OpenAI CEO’su Sam Altman, Haziran 2025’te “İnsanların ChatGPT’ye çok yüksek derecede güvenmesi ilginç, çünkü yapay zekâ halüsinasyon görüyor... Aslında çok da fazla güvenmemeniz gereken bir teknoloji olmalı.» demişti.

30 Ekim 1938, Halloween gecesi. Orson Welles’in “Dünyaların Savaşı” radyo draması, Marslıların Dünya’yı işgal ettiğini duyurdu. Kurgu, haber formatındaydı. Dinleyiciler gerçek sanıp sokaklara döküldü. Kimileri korkudan intihar girişiminde bulundu, şehirler kaosa sürüklendi. Welles’in yayını, medya okuryazarlığının noksanlığını gösterdi. İnsanlar duyduklarına körü körüne inandı.

Bugün yapay zekâ da aynı tehlikeyi büyütüyor. “Nükleer sızıntı!” veya “Salgın patladı!” gibi bir sahte bildirim insanları paniğe sürükleyebilir. Welles’in radyo çağında binler etkilendi; YZ çağında milyonlar etkilenebilir. Telefonuna gelen deprem bildirimi ile korkup camdan atlayanların olduğu günümüzde her şey ihtimal dâhilinde.

Şirketler bu riski biliyor. Lakin modelleri “her zaman cevap” modunda tutuyorlar. Neden? Çünkü küresel devler, korkuyla toplumları yönlendirebildiklerini kovid-19 döneminde gösterdiler. Bunun bir benzerini ya da daha korkuncunu planlıyor olabilirler.

1984 gerçek olursa!

George Orwell’in 1984’ünü hatırlayın. O distopyada, “Hakikat Bakanlığı” tarih kitaplarını değiştiriyor, arşivleri yeniden yazıyordu. Geçmiş, bugüne uyduruluyordu. “Savaş barıştır, özgürlük köleliktir” gibi yalanlar, hakikat oluyordu. Bugün YZ ile benzer bir hâl yaşıyoruz. Sahte haberler, yanlış bilgiler...

Arşivler dijitalde kolayca bozulabilir. Orwell’in “Büyük Birader”i şimdi cebimizde! Şirketler bu gücü ellerinde tutuyor. YZ’yi, geçmişimizi yeniden yazmak, belirli anlatıları yaymak, bilinçaltımızı yalanlarla beslemek, düşüncelerimizi programlamak için kullanıyor olabilirler mi? Düşünmesi bile korkutucu.

George Orwell’in 1984’ünü hatırlayın. O distopyada, “Hakikat Bakanlığı” tarih kitaplarını değiştiriyor, arşivleri yeniden yazıyordu

Canlı bir örnek!

Çocuklar ve gençler, YZ’ye bağımlılar. Ödevlerden merak ettikleri her şeyi, YZ’ye soruyorlar. Bu onlar için hızlı ve pratik. Lakin madalyonun diğer yüzü korkutucu. “Çamur at izi kalsın” misali yalanlar iz bırakır. İlk öğrenilen, zihne derin kazınır. Doğruyla yanlışı ayıramayan zihinlerde tamiri zor izler bırakabilir.

George Orwell.

Bu yazıyı yazdığım sırada, bir sınıftaki öğrencilerin ödevlerini ChatGPT’ye sorarak nasıl yanlış yaptıklarını dinlemem ilginç bir tevafuk oldu. Öğretmen çocuklardan basit bir araştırma istemiş ama öğrenciler onu bile yapmaya üşenerek YZ’ye sormuşlar. Öğretmenlerinden doğrusunu öğrenmeselerdi belki de tüm yaşamları boyunca o yanlış bilgiyle yaşayacaklardı. Küresel şeytani çetenin Yeni Dünya Düzeni hayallerinde, öğretmenlerin yerini YZ’nin alacağını düşündüğümüzde tehlikenin boyutu daha iyi anlaşılacaktır. Zaten Bill Gates de “Yapay zekâ 2030-2035 yılı itibariyle öğretmenlerin yerini alacak.” diyerek planlarını açıkça ifade etti.

İfsad sırası zihinlerde

Önce genetiği değiştirilerek yiyecekler ifsad edildi, sonra GDO’lu beslenen ve ‘modern tıp’ adı altında ilaçlarla zehirlenen insanlar! Şimdi de yapay zekâ ile zihinlerimiz ifsad ediliyor. Bu zinciri kırmalı, teknolojiye körü körüne güvenmemeyi öğrenmeliyiz. Hucurat Suresi 6. ayeti ile bitirelim: “Ey iman edenler! Size bir fâsık bir haber getirirse, bilmeyerek bir topluluğa zarar verip yaptığınıza pişman olmamak için o haberin doğruluğunu araştırın.