ver más

¿Una máquina tomará conciencia de sus errores?

Trabajan para que la inteligencia artificial tenga dudas al decidir y así falle menos.

Las computadoras se encaminan rumbo a un rol sumamente dominante y la inteligencia artificial, puesta en beneficio de la sociedad, deberá tomar decisiones cada vez más complejas. En un mundo tan automatizado es clave que las máquinas respondan de modo eficiente, aunque la realidad es que también pueden equivocarse, esencialmente porque parten de suposiciones que el hombre hace al inventarla y llenarla de información. Suposiciones humanas que, al cabo, pueden resultar imperfectas.

“Como hemos aprendido de los grandes bancos durante el colapso financiero, los modelos matemáticos basados en suposiciones equivocadas pueden ser peligrosos cuando depositamos demasiada confianza en sus predicciones sin considerar lo que podría ir mal”, afirmó Jennifer Wortman, especialista en aprendizaje automático y economía algorítmica. Por eso, la ciencia busca una vuelta más “humana” a esta situación: tratar de darle conciencia a la inteligencia artificial. Que las máquinas (un conjunto de algoritmos) sepan que pueden equivocarse y sean capaces de solucionarlo. Que duden para poder mejorar.

Una de las ramas más interesantes que se están desarrollando en aprendizaje automático está destinada a que las máquinas puedan lidiar con la incertidumbre. De hecho, Uber y Google ya trabajan en “deep learning” (modificar los marcos tradicionales de aprendizaje profundo) para construir programas de inteligencia artificial que midan su confianza en una decisión para saber cuándo deberían dudar de sí mismos y achicar el margen de error. “Si un coche autónomo no sabe que es capaz de equivocarse, puede cometer un error fatal, irreparable “, afirmó Dustin Tran, desarrollador de este tipo de sistemas en Google. Normalmente, el auto reconoce objetos en las imágenes que captura por sus cámaras y estima la distancia a la que se encuentran. Con la evolución que se plantea ahora, el vehículo calcularía la probabilidad de que sus estimaciones fueran correctas y la de cada una de las posibles consecuencias de sus decisiones: todo eso –en fracciones de segundo- lo tendría en cuenta antes de actuar (ver aparte).

En este sentido, la aplicación de estas nuevas mecánicas también es relevante en ámbitos como la salud, donde los algoritmos podrían determinar la posibilidad de acierto en el diagnóstico de un paciente y sus potenciales respuestas al aplicarle un determinado tratamiento. Para alcanzar este ideal, que se enmarca como la próxima frontera de la inteligencia artificial, es necesaria la combinación de modelos de aprendizaje profundo con sistemas de probabilidades. “Utiliza redes neuronales. Su principal ventaja –describe el investigador Francisco Rodríguez Ruiz- es que permite modelar relaciones complejas entre entradas y salidas. En tanto los sistemas probabilísticos son modelos estadísticos que introducen una serie de parámetros para estimar la incertidumbre, lo que es útil para entender lo que puede pasar: si el modelo duda de sí mismo, se reflejará en sus predicciones y se podrá tener en cuenta”.

Cáculos: El ideal es que el modelo dude de sí mismo, analice posibilidades y elija bien.

La aplicación de esta nueva mecánica ayudaría, por ejemplo, a que los coches autónomos no provoquen una tragedia.

Las dudas que generan dudas

Los sistemas no son sencillos de encajar y su combinación presenta varios desafíos técnicos en el mediano plazo. La complejidad que suma el aprendizaje automático cuando se aplica a modelos de probabilidades, dificulta que el cálculo sobre la duda de los parámetros fijados sea preciso. “Representa un problema en aplicaciones en tiempo real donde es necesaria una respuesta en un período limitado”, explican los investigadores, y el mejor ejemplo es el coche autónomo, “que deberá responder a determinados estímulos en una fracción de segundo”.

Te puede interesar