A los usuarios de Facebook que vieron un video de un periódico en el que aparecían hombres negros se les preguntó si querían « seguir viendo videos sobre primates » mediante un sistema de recomendación de inteligencia artificial.
Facebook le dijo a BBC News que « claramente fue un error inaceptable », desactivó el sistema y lanzó una investigación. « Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas ».
Es el último de una serie de errores de larga duración que han suscitado preocupaciones sobre los prejuicios raciales en la Inteligencia Artificial (IA). La recomendación de « primates » « fue un error algorítmico en Facebook » y no reflejaba el contenido del video, dijo un representante a BBC News.
« Deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba sucediendo para poder investigar la causa y evitar que esto vuelva a suceder ». « Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más progresos que hacer ».