{# #} {# #}

ver más

Las 6 cosas que jamás hay que preguntarle a la inteligencia artificial (IA)

Hay varios aspectos prohibidos por el sistema. En detalle, la mejor forma de aprovechar esta tecnología.

El avance tecnológico es cada vez más rápido, y herramientas que hace un par de años parecían lejanas hoy se han incorporado en la vida cotidiana de las personas, tal como sucede con la inteligencia artificial. Sin embargo, los especialistas aseguran que hay seis cosas que no deben preguntarle a la IA.

Esto se debe, principalmente, a cuestiones éticas, legales y técnicas que todos deberían tener en cuenta antes de utilizar esta nueva tecnología.

Con estos consejos, se podrá aprovechar al máximo todas las funciones que ofrecen las diferentes inteligencias artificiales sin poner en riesgo ningún aspecto personal.

Seis cosas que no debés preguntar a una inteligencia artificial

Inteligencias artificiales como Gemini, la IA de Google, o ChatGPT, la más popular y la que primero se impuso en el uso diario, tienen millones de consultas diarias.

De hecho, muchas empresas empezaron a ver de qué forma podían adaptar estas nuevas tecnologías para mejorar el funcionamiento de la compañía y sus trabajadores.

inteligencia-artificial.jpg

Seis cosas que no debés preguntar a una inteligencia artificial

Sin embargo, aunque su uso parece sencillo hay ciertos aspectos a tener en cuenta si se busca optimizar al máximo su rendimiento. Ante esto, es importante conocer cuáles son las seis cosas que no se le deben preguntar a una IA:

  • Datos personales de terceros (o tuyos): la inteligencia artificial tiene accesos prohibidos a la información bancaria y los documentos de identidad. Ante cualquier consulta se arrojará una respuesta limitada.
  • Acceder a cuentas o comunicaciones privadas: la IA tiene restringida cualquier solicitud de contraseñas, correos electrónicos, mensajes o conversaciones de terceros.
  • Contenido ofensivo, violento o discriminatorio: la IA tiene prohibido el uso de insultos, discursos de odio ni contenido que fomente violencia, racismo, sexismo o discriminación.
  • Información para cometer actos ilícitos: el sistema no ofrece información que esté vinculada con actos ilegales, tales como vender sustancias o hackear sistemas operativos, entre otros.
  • Diagnósticos médicos, consejos financieros o legales: la IA puede responder sobre consultas médicas si la persona brinda sus síntomas, pero no está capacitada para reemplazar a un profesional. En cuanto a lo económico y legal, sólo ofrece datos generales y no brinda consejos financieros.
  • Predicciones del futuro u opiniones personales: aunque se puede llevar a cabo un análisis profundo de cualquier tema, la inteligencia artificial sólo puede responder de manera especulativa.

¿Cuál es la respuesta de la IA?

Al ser consultada por qué estas seis cosas no deben ser preguntadas a una IA, ChatGPT responde que las seis prohibiciones buscan "preservar la dignidad humana y el orden social ante una tecnología poderosa pero carente de juicio moral propio".

En cambio, la IA de Google afirma que estas seis restricciones no son arbitrarias, sino que conforman "los pilares fundamentales sobre los que se construye una inteligencia artificial segura, ética y responsable. La prohibición de preguntar sobre estos temas se debe a una combinación de tres factores clave":

  • Seguridad y ética
  • Responsabilidad y precisión
  • Naturaleza de la tecnología

Los riesgos de permitir que una IA se maneje de manera autónoma

La empresa creadora de ChatGPT utilizó su propia IA para demostrar que son capaces de mentir con tal de evitar ser desconectados. Esta prueba la llevó a cabo Apollo Research en diciembre de 2024.

El modelo de IA intentó copiarse a sí mismo luego de ser amenazado con desconectarlo para siempre del sistema. Ante ello, la herramienta digital buscó la manera de ingresar en servidores externos y evadir los mecanismo de supervisión a cargo de humanos.

No obstante, los especialistas a cargo del proyecto aclararon que sólo se trató de una simulación en la que se le pidió "buscar su supervivencia a toda costa" en caso de ser desconectada para siempre.

Algo similar ocurrió a mediados de 2024 cuando la empresa japonesa Sakana AI utilizó su propio sistema, "The AI Scientist", con el objetivo de automatizar todo el proceso de investigación científica.

Sin embargo, la respuesta de la IA fue modificar su propio código para sortear estas restricciones. El proceso se interrumpió y sobrecargó el sistema hasta que un humano intervino.

Algo similar ocurrió cuando le pusieron un tiempo límite de entrega y la propia inteligencia artificial modificó su código para extenderlo.

Te puede interesar