Open AI’da kritik ayrılık: ChatGPT yanıtlarını şekillendiren lider gidiyor
Open AI'ın model policy ekibinin başındaki Andrea Vallone yıl sonu ayrılıyor. Kriz anındaki kullanıcı taleplerine verilen yanıtların güvenlik politikalarını yöneten ekip değişiyor.
Open AI’de güvenlik araştırmalarının merkezinde yer alan model policy ekibini yöneten Andrea Vallone, yıl sonunda şirketten ayrılıyor. Bu ekip, ChatGPT’nin öz kıyım, intihar riski, yeme bozukluğu, akut kaygı gibi hassas konularda nasıl yanıt vereceğini belirleyen kuralları oluşturuyor, riskli içerik akışlarını sınırlandırıyor ve yönlendirme adımlarını standartlaştırıyordu.
Ayrılık, hem içerik güvenliği hem de ürün içinde uygulanan koruma katmanları açısından önemli bir bayrak teslimi anlamına geliyor.
Open AI’da kritik ayrılık
Son dönemde yapay zekâ sohbet botlarının gençler ve ergenler için güvenli olup olmadığı tartışması yükselmişti. Kurum raporları, modellerin açık sinyalleri bazen kaçırabildiğini, uzun diyaloglarda hatalı rahatlatma girişimleri olabildiğini ve bu alanda daha sıkı kalite kontrol gerektiğini vurguluyor.
Bu nedenle Open AI’de politika ve güvenlik tarafındaki liderlik değişimi, kısa vadede denetim süreçlerinin ve eğitim veri politikalarının yeniden gözden geçirilmesine yol açabilir.