El clima en Neuquén

icon
15° Temp
53% Hum
La Mañana Facebook

Facebook pidió disculpas por la Inteligencia Artificial que califica a los hombres negros de "primates"

Esto se suma a larga lista de errores que tiene la IA de la red social. Muchos usuarios y asociaciones civiles mostraron su preocupación por el sesgo racial del algoritmo.

Los usuarios de Facebook que vieron un vídeo de un diario en el que aparecían hombres negros fueron preguntados si querían "seguir viendo vídeos sobre primates" por un sistema de recomendación de inteligencia artificial. El hecho rápidamente se convirtió en tendencia en todas las redes sociales.

Mediante un comunicado, la red social dijo que "fue claramente un error inaceptable", desactivó el sistema e inició una investigación. "Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas".

Te puede interesar...

Este nuevo escándalo se suma a una larga serie de errores que han suscitado preocupación por el sesgo racial en la IA. Este tipo de fallas también fueron denunciadas en otras aplicaciones y redes sociales que pertenecen a Google.

Embed

Lo siento de verdad

En 2015, la aplicación Fotos de Google etiquetó imágenes de personas negras como "gorilas". La empresa dijo estar "horrorizada y realmente arrepentida", aunque su solución, según informó Wired en 2018, fue simplemente censurar las búsquedas de fotos y las etiquetas de la palabra "gorila".

En mayo, Twitter admitió sesgos raciales en la forma en que su "algoritmo de saliencia" recortaba las vistas previas de las imágenes.

Los estudios también han mostrado sesgos en los algoritmos que impulsan algunos sistemas de reconocimiento facial.

Error algorítmico

En 2020, Facebook anunció un nuevo "consejo de productos inclusivos" -y un nuevo equipo de equidad en Instagram- que examinaría, entre otras cosas, si los algoritmos mostraban un sesgo racial.

La recomendación de "primates" "fue un error algorítmico de Facebook" y no reflejó el contenido del vídeo, dijo un representante de la compañía.

"Desactivamos toda la función de recomendación de temas en cuanto nos dimos cuenta de que esto ocurría para poder investigar la causa y evitar que volviera a ocurrir".

"Como hemos dicho aunque hemos hecho mejoras en nuestra IA, sabemos que no es perfecta y tenemos más progresos que hacer".

Lo más leído

Leé más

Noticias relacionadas

Dejá tu comentario