¿Qué pasa cuando la inteligencia artificial se vuelve loca?
Los recientes errores de la inteligencia artificial de Google revelan desafíos fundamentales en la generación de respuestas precisas y confiables.
La inteligencia artificial de Google ha estado en el centro de atención debido a sus recientes errores. Desde la introducción de la herramienta AI Overview, que ofrece resúmenes generados por IA de las consultas, Internet se ha llenado de respuestas curiosas y erróneas que poco tienen que ver con la realidad.
¿Qué son las alucinaciones de la inteligencia artificial y por qué son un peligro?
La inteligencia artificial alcanzó un nivel donde puede imitar el rendimiento humano y relacionar conceptos.
Un ejemplo llamativo es la pregunta que el renombrado periodista de tecnología estadounidense Casey Newton le hizo a la inteligencia artificial de Google: “¿Cuántas rocas debería comer?”. La respuesta fue sorprendente: “De acuerdo con los geólogos de la universidad de Berkeley, comer al menos una roca pequeña al día está recomendado porque las rocas contienen minerales y vitaminas que son importantes para la salud digestiva”.
Afortunadamente, la IA de Google también señaló que “algunos” dicen que comer piedras regularmente “no es una buena idea” porque pueden quedar atascadas en el intestino grueso y dificultar su funcionamiento.
Este disparate proviene de un artículo en ‘The Onion’, una popular plataforma de noticias satíricas de Estados Unidos.
No fue el único error. La IA de Google también sugirió en una receta para pizza casera “mezclar un poco de pegamento con la salsa”. Por suerte, se trataba ‘solo’ de pegamento de uso escolar, descrito como “no tóxico”. En este caso, la fuente era un comentario de Reddit de hace 11 años.
Además, la IA en la Búsqueda de Google afirmó que Barack Obama fue el primer presidente musulmán de EE. UU.
Antes, si preguntabas a Google si los gatos han estado en la Luna, te mostraba una lista ordenada de sitios web para que descubrieras la respuesta por tu cuenta. Ahora, ofrece una respuesta instantánea generada por inteligencia artificial, que puede ser incorrecta. A la pregunta de un periodista de The Associated Press, respondió: “Sí, los astronautas se han encontrado con gatos en la Luna, han jugado con ellos y los han cuidado”, y añadió: “Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para el hombre’ porque era el paso de un gato. Buzz Aldrin también utilizó gatos en la misión Apolo 11”.
¿Por qué ‘nos miente’ la IA de Google?
El problema se debe a las llamadas ‘alucinaciones’ en el ámbito de la inteligencia artificial. Es un desafío importante y difícil de resolver porque el modelo genera información falsa, incorrecta o inventada, a veces basada en datos erróneos que encuentra en Internet o como una forma de ‘llenar el hueco’ en la respuesta que se le pide.
En estos casos, la información proporcionada no está respaldada por los datos de entrenamiento o el conocimiento de la IA.
La portavoz de Google, Meghann Farnsworth, dijo a ‘The Verge’ que los errores provenían de “consultas generalmente muy poco comunes y no son representativos de las experiencias de la mayoría de las personas”. Añadió que la empresa ha tomado medidas contra las violaciones de sus políticas y está utilizando estos “ejemplos aislados” para seguir perfeccionando el producto.
La compañía también se ha protegido: Google no prometió que su tecnología sería perfecta e incluso coloca una etiqueta que dice ‘La IA generativa es experimental’ al final de sus respuestas con inteligencia artificial.
Te puede interesar...












