Facebook'tan skandal açıklama: 'Yeni Zelanda saldırısında yapay zekamız çalışmadı'

​Facebook'tan skandal açıklama.

Facebook’un oluşturduğu yapay zeka destekli algoritmanın Yeni Zelanda’da gerçekleşen terör saldırısı sırasında görüntüleri yakalayamadığı ve anlık bir problemle karşılaşıldığı açıklandı.

Dünyanın en büyük sosyal medya platformu olması haricinde dünyanın en fazla skandal yaşayan platformu unvanına da sahip olan Facebook, bugün içerisinde yayınladığı açıklamada Christchurch kentindeki iki camiye yapılan ve 50 kişinin hayatını kaybettiği terör saldırısı anlarının sitede yayınlandığını, 17 dakikalık canlı yayın sırasındaysa yapay zeka algoritmasının işlevsiz kaldığını söyledi.

Facebook'un 'Yeni Zelanda'daki terör saldırısına' yönelik tavrı büyük tepki topladı.
Facebook'un 'Yeni Zelanda'daki terör saldırısına' yönelik tavrı büyük tepki topladı.

'12 dakika sonra yayından kaldırılmıştı'

Facebook; terör saldırısı videosunun otomatik tespit sistemlerini uyarmadığını, bunun sebebinin ise yapay zekanın yeterince eğitilmiş olmaması olduğunu söyledi. 200 kişinin canlı olarak izlediği bu videoyu kimse yayın sırasında şikayet etmemiş, ancak yayın bittikten 12 dakika sonra Yeni Zelanda polisinin ihbarının ardından siteden kaldırılmıştı.

Hatırlanacak olursa ABD’li sosyal medya devi, ilk 24 saat içerisinde Yeni Zelanda'daki terörle ilgili dünya çapında 1,5 milyon videoyu kaldırmış; 1,2 milyon videonun da yüklendiği anda engellendiğini açıklamıştı.

Bugünün gazete manşetleri için tıklayın >