Sorpresiva advertencia: la inteligencia artificial nos va a matar a todos
El cofundador de OpenAI dice que la IA podría provocar la "extinción humana" y anuncia una nueva empresa dedicada a combatirla.
La extinción humana es algo que, en términos generales, la gente rechaza. Parece que no está buena la idea de dejar de existir en este mundo nuestro. Pero desde que estalló el boom por la inteligencia artificial(IA), expertos en este terreno y en ética tecnológica han alertado sobre los potenciales riesgos existenciales.
Es probable que una IA avanzada podría representar un riesgo para la humanidad. Muy probable. La creciente preocupación no es solo una cuestión de ciencia ficción, sino un tema de debate serio entre los investigadores y tecnólogos líderes del mundo.
Uno de los temas centrales de este discurso es la aparición de una superinteligencia, una IA que superaría ampliamente las capacidades cognitivas humanas. Es a lo que en el sector se llama Inteligencia Artificial General (AGI).
Una tecnología así podría actuar de maneras catastróficas para la especie humana, según los expertos, ya que no la podríamos controlar y sus objetivos podrían no estar alineados con nuestros valores y propósitos. Incluso podría considerarnos un obstáculo para lograr sus metas.
Ante estos riesgos, los expertos abogan por un enfoque colaborativo y regulado en el desarrollo de la IA.
Empleados de OpenAI y Google advierten sobre los riesgos de la IA
Recientemente, un grupo de empleados actuales y anteriores de empresas de inteligencia artificial, incluidas OpenAI y Google DeepMind, expresó su preocupación por los riesgos que plantea esta tecnología en una carta abierta. En ella afirman que los motivos financieros de las empresas de IA obstaculizan una supervisión efectiva.
Además, advierte sobre los riesgos de la IA no regulada, que van desde la difusión de información errónea hasta la pérdida de sistemas de IA independientes y la profundización de las desigualdades existentes, lo que podría resultar en la “extinción humana”.
Las empresas de IA tienen “obligaciones débiles” de compartir información con los gobiernos sobre las capacidades y limitaciones de sus sistemas, decía la carta, y agrega que no se puede confiar en que estas empresas compartan esa información voluntariamente.
Ilya Sutskever al rescate
La posibilidad de que la IA avanzada represente un riesgo existencial para la humanidad no es un simple escenario de ciencia ficción, sino una preocupación seria entre los expertos en tecnología.
El desarrollo seguro y ético de la IA, junto con la implementación de medidas de seguridad y cooperación global, será crucial para evitar que esta tecnología se convierta en una amenaza para nuestra propia existencia.
Con esto en mente, el cofundador y exjefe científico de OpenAI, Ilya Sutskever, anunció este miércoles en X el lanzamiento de una nueva empresa de inteligencia artificial centrada en la seguridad y que no tiene ninguna intención a corto plazo de vender productos o servicios.
La empresa emergente se llama Safe Superintelligence Inc. (Superinteligencia Segura, en español), tiene oficinas en Palo Alto (California) y Tel Aviv, en Israel —país donde Sutskever creció—, y su objetivo es crear un sistema de inteligencia artificial seguro y potente.
Sutskever empezó a hacerse conocido cuando a finales de 2023 lideró una iniciativa para destituir a Sam Altman, CEO de OpenAI, la empresa donde entonces trabajaba. El mes pasado se despidió de esta compañía diciendo haber tenido una buena relación con el equipo.
Te puede interesar...
Lo más leído
Dejá tu comentario