La inteligencia artificial es prejuiciosa y discrimina
Los algoritmos de inteligencia artificial son prejuiciosos, discriminan y no muestran todas las realidades, aseguraron investigadoras de Microsoft y Google que, junto a la Unión Estadounidense por las Libertades Civiles, lanzaron una iniciativa para identificar las inequidades de esta técnica, que por ser creada por personas, los sesgos hay que encontrarlos en quien las crea.
Liderada por Kate Crawford de Microsoft y Meredith Whittaker de Google, se lanzó este mes en el Instituto Tecnológico de Massachusetts (MIT) la campaña “IA NOW”, con el objetivo de “investigar los impactos sociales de la inteligencia artificial para asegurar un futuro más equitativo”, explicaron en su web oficial.
Los algoritmos “con posibles prejuicios ocultos ya se usan cada día para tomar importantes decisiones financieras y legales, como por ejemplo, quién obtendrá una entrevista de trabajo, la libertad condicional o un préstamo”, afirmó Kate Crawford. En tanto, Meredith Whittaker dijo que “los prejuicios pueden existir en todo tipo de servicios y productos”. Para la argentina Marcela Riccillo, doctora en Computación especialista en IA y robótica, “este es un problema que existe desde que existe la programación, porque las personas que usan estas técnicas son las que deben tener un buen muestreo, hacer revisiones e incluir todos los casos y realidades” en sus desarrollos.
En tanto, la matemática y autora de Armas de destrucción matemáticas, Cathy O’Neil, cuyo libro destaca el riesgo del sesgo algorítmico en muchos contextos, opinó que las personas “suelen estar demasiado dispuestas a confiar en modelos matemáticos porque creen que eliminarán el sesgo humano. Los algoritmos reemplazan los procesos humanos, pero no están sometidos a los mismos estándares que los humanos. La gente deposita una confianza excesiva en ellos”.
Ella manifestó su preocupación en relación con empresas financieras y tecnológicas “que utilizan todo tipo de modelos matemáticos y no son transparentes sobre su funcionamiento. Por ejemplo, me preocupa el funcionamiento de los algoritmos del nuevo servicio de búsqueda de empleo de Google”. La profesional dirige Online Risk Consulting & Algorithmic Auditing, una consultora pensada para ayudar a las empresas a identificar y corregir los prejuicios o ausencias de representación de realidades en los algoritmos que utilizan. Y aseguró que “incluso aquellos que saben que sus algoritmos podrían estar sesgados están más interesados en los resultados financieros que en solucionar el problema”. En abril, la revista Science publicó un estudio que demostró que los sistemas de inteligencia artificial que “aprenden” el lenguaje a partir de textos copian los prejuicios de los humanos.
“Los algoritmos con prejuicios se usan a diario para tomar decisiones financieras y legales: quién tendrá una entrevista laboral, libertad condicional o un préstamo”.Kate Crawford. Investigadora de Microsoft que trabajó en este proyecto
EE.UU: Las investigadoras dicen que el gobierno de Trump trabaja poco en regular la IA.
Te puede interesar...









