Facebook, şirketin "yapay zekasının", siyah şahısların yoğun olarak bulunduğu bir videoyu "primat videosu" şeklinde etiketlemesi üzerine, otomatik olarak oluşturulan öneri sistemini düzeltme sözü verdi.

Facebook yaptığı açıklamada, "Bu rahatsız edici önerileri görmüş olabilecek herkesten özür dileriz" dedi ve konu önerme özelliğinin tamamının devre dışı bırakıldığını da sözlerine ekledi. Şirket açıklamasında "Söylediğimiz gibi, yapay zekamızda iyileştirmeler yapmış olsak da bunun mükemmel olmadığını biliyoruz ve yapacak daha çok ilerlememiz var" dedi.

Facebook'ta eski bir içerik tasarım yöneticisi olan Darci Groves, bir arkadaşının kendisine siyahi ABD'lilerin yer aldığı bir videonun ekran görüntüsünü gönderdiğini ve bu videonun, şirketin otomatik olarak oluşturulan istemini de içeren izleyicilere "primatlar hakkında videolar izlemeye devam etmek isteyip istemediklerini" sorduğunu aktardı.

İngiltere menşeli Daily Mail tarafından Haziran 2020'de yayınlanan video, ABD'deki iki ayrı olayın kliplerini içeriyordu. Biri Connecticut'ta bir yolda beyaz bir kişiyle tartışan bir grup siyahi adamı ve diğeriyse Indiana'da birkaç siyah adamın bir beyaz polis tarafından gözaltına alınmadan önceki görüntülerdi.

The New York Times'a konuşan Groves, söz konusu ekran görüntüsünü mevcut ve eski Facebook çalışanları için bir ürün geri bildirim forumuna gönderdiğini söyledi. Bir ürün müdürü daha sonra öneriyi "kabul edilemez" olarak nitelendirdi ve olayı araştırma sözü verdi.

Geçen yıl Facebook, "farklı azınlık kullanıcılarının algoritmalardan nasıl etkilendiğini incelemek için" Instagram'da bir ekip kurdu. Hareket, sosyal medya devinin platformlarında ırksal önyargıya çanak tutması üzerine gelen eleştirilerden sonra yapıldı.