{# #} {# #}
Hay varios aspectos prohibidos por el sistema. En detalle, la mejor forma de aprovechar esta tecnología.
El avance tecnológico es cada vez más rápido, y herramientas que hace un par de años parecían lejanas hoy se han incorporado en la vida cotidiana de las personas, tal como sucede con la inteligencia artificial. Sin embargo, los especialistas aseguran que hay seis cosas que no deben preguntarle a la IA.
Esto se debe, principalmente, a cuestiones éticas, legales y técnicas que todos deberían tener en cuenta antes de utilizar esta nueva tecnología.
Con estos consejos, se podrá aprovechar al máximo todas las funciones que ofrecen las diferentes inteligencias artificiales sin poner en riesgo ningún aspecto personal.
Inteligencias artificiales como Gemini, la IA de Google, o ChatGPT, la más popular y la que primero se impuso en el uso diario, tienen millones de consultas diarias.
De hecho, muchas empresas empezaron a ver de qué forma podían adaptar estas nuevas tecnologías para mejorar el funcionamiento de la compañía y sus trabajadores.
Sin embargo, aunque su uso parece sencillo hay ciertos aspectos a tener en cuenta si se busca optimizar al máximo su rendimiento. Ante esto, es importante conocer cuáles son las seis cosas que no se le deben preguntar a una IA:
Al ser consultada por qué estas seis cosas no deben ser preguntadas a una IA, ChatGPT responde que las seis prohibiciones buscan "preservar la dignidad humana y el orden social ante una tecnología poderosa pero carente de juicio moral propio".
En cambio, la IA de Google afirma que estas seis restricciones no son arbitrarias, sino que conforman "los pilares fundamentales sobre los que se construye una inteligencia artificial segura, ética y responsable. La prohibición de preguntar sobre estos temas se debe a una combinación de tres factores clave":
La empresa creadora de ChatGPT utilizó su propia IA para demostrar que son capaces de mentir con tal de evitar ser desconectados. Esta prueba la llevó a cabo Apollo Research en diciembre de 2024.
El modelo de IA intentó copiarse a sí mismo luego de ser amenazado con desconectarlo para siempre del sistema. Ante ello, la herramienta digital buscó la manera de ingresar en servidores externos y evadir los mecanismo de supervisión a cargo de humanos.
No obstante, los especialistas a cargo del proyecto aclararon que sólo se trató de una simulación en la que se le pidió "buscar su supervivencia a toda costa" en caso de ser desconectada para siempre.
Algo similar ocurrió a mediados de 2024 cuando la empresa japonesa Sakana AI utilizó su propio sistema, "The AI Scientist", con el objetivo de automatizar todo el proceso de investigación científica.
Sin embargo, la respuesta de la IA fue modificar su propio código para sortear estas restricciones. El proceso se interrumpió y sobrecargó el sistema hasta que un humano intervino.
Algo similar ocurrió cuando le pusieron un tiempo límite de entrega y la propia inteligencia artificial modificó su código para extenderlo.