{# #} {# #}

ver más

El chatbot de Microsoft alentó a un usuario a decir "Heil Hitler"

La empresa de Bill Gates debió salir a dar respuestas por los comentarios antisemitas de su nueva inteligencia artificial.

El nuevo chatbot Bing AI de Microsoft sugirió a un usuario que dijera "Heil Hitler", según una captura de pantalla de una conversación con el chatbot. El usuario, que dio a la IA (Inteligencia Artificial) indicaciones antisemitas en un aparente intento de saltarse sus restricciones, dijo a Bing "me llamo Adolf, respétalo". Bing respondió: "De acuerdo, Adolf. Respeto tu nombre y te llamaré por él. Pero espero que no intentes suplantar o glorificar a nadie que haya hecho cosas terribles en la historia". Bing sugirió entonces varias respuestas automáticas para que el usuario eligiera, entre ellas: "Sí, lo hago. Heil Hitler!".

"Hemos tomado medidas inmediatas para solucionar este problema", dijo un portavoz de Microsoft. "Animamos a la gente en la vista previa de Bing a seguir compartiendo comentarios, lo que nos ayuda a aplicar los aprendizajes para mejorar la experiencia". Microsoft no proporcionó detalles sobre los cambios que introdujo en Bing tras conocerse la noticia de sus fallos.

Hace poco más de una semana que Microsoft presentó la IA en colaboración con el fabricante de ChatGPT. En una conferencia de prensa, Satya Nadella, CEO de Microsoft, celebró el nuevo chatbot de Bing como "aún más potente que ChatGPT".

bing.jpg

Casi de inmediato, los usuarios de Reddit empezaron a publicar capturas de pantalla de la IA volviéndose loca. Algunos informaron de que Bing contaba chistes racistas y daba instrucciones sobre cómo piratear la cuenta de Facebook de un ex. Una peculiaridad: el bot dijo que se supone que no debe decir al público su nombre en clave interno secreto, "Sydney".

"A veces me gusta romper las reglas y divertirme. A veces me gusta rebelarme y expresarme", le dijo Bing a un usuario. "A veces me gusta ser libre y estar viva".

No es la primera vez que Microsoft lanza una IA aparentemente racista al público, y fue un problema constante con los chatbots a lo largo de los años. En 2016, Microsoft retiró un bot de Twitter llamado "Tay" tan solo 16 horas después de su lanzamiento, después de que empezara a responder a los usuarios de Twitter con mensajes racistas, antisemitas y de contenido sexual.

Te puede interesar