Prueban que los robots podrían ser asesinos
Estados Unidos. Los robots humanoides o la inteligencia artificial (IA) aplicada en beneficio de suplantar al hombre en cuestiones esenciales, que a priori parecían exclusivas del ser humano y ahora ya no lo son tanto, tienen muchos detractores en el mundo. Y estos pareciera que tendrán un argumento más para increpar a los aliados de la IA. La firma norteamericana especializada en ciberseguridad IOActive demostró que un simple fallo de seguridad en el software de un robot puede servir para convertir a un pequeño e inofensivo humanoide en un potencial “asesino”.
La compañía dejó de este modo en evidencia que a través de una falencia en la programación de los Alpha 2 -un robot de funciones domésticas pensado básicamente para entretener a la familia- pudieron lograr que manipulen objetos punzantes, como en este caso un destornillador. También realizaron un análisis de diferentes robots de empresas como Rethink Robotics y Universal Robots. Y su conclusión fue más que preocupante: encontraron alrededor de 50 fallas de seguridad que fueron catalogadas como “críticas”.
Por su parte, IOActive manifestó que “la intención de esta demostración no fue la de estigmatizar a los robots ni denostar los avances mundiales en materia de inteligencia artificial”, sino demostrar los peligros que pueden desembocar en la vida de la gente debido a la robótica y “sus posibles graves fallas en la programación” -incluida cierta dejadez de los fabricantes-.
Hace unas semanas, cerca de un centenar de altos ejecutivos de empresas de robótica y especializadas en inteligencia artificial, entre ellos el millonario Elon Musk, se encargaron de escribir un carta abierta a las Naciones Unidas con el fin de advertir sobre los peligros que pudieran ocasionar las armas autónomas, bautizadas “robots asesinos”. Según expertos, los avances en el ámbito de la inteligencia artificial permitirán en poco tiempo crear armas, por ejemplo drones, capaces de operar de forma autónoma en el campo de batalla y de tomar sus propias decisiones sin instrucciones humanas.
“La intención de esta demostración no fue estigmatizar a los robots, sino advertir sobre los posibles graves fallos”. Lo dice IOActive. Empresa especializada en ciberseguridad
Te puede interesar...









