El clima en Neuquén

icon
27° Temp
21% Hum
La Mañana inteligencia artificial

Luciana, la neuquina que estudia la inteligencia artificial y advierte sobre sus riesgos

Luciana Benotti estudió en la UNCo y hoy se dedica a la lingüística computacional como profesora de la Universidad Nacional de Córdoba e investigadora de la Fundación Vía Libre. . Aseguró que hay problemas de fondo que escapan a la tecnología.

Desde las aulas de la Universidad Nacional del Comahue (UNCo), Luciana Benotti inició una carrera científica vertiginosa que la llevó a recorrer buena parte del mundo y regresar al país como una de las voces más autorizadas en inteligencia artificial (AI). Su área de estudio es la lingüística computacional, una disciplina que parecía exótica y que hoy está en boca de todos a partir de la creación del Chat GPT. En diálogo con LMNeuquén, habló sobre el futuro de esta tecnología y sus posibles riesgos.

Para conocer la historia de Luciana hay que viajar en el tiempo, a 1984, cuando en su casa tuvieron la primera computadora familiar. "Mi papá trabajaba en el petróleo y por eso nos vinimos a Neuquén, yo me crie allá", explicó en una entrevista por videoconferencia. En esa época, era extraño que una familia tuviera un equipo en el hogar, por lo que su llegada despertó de inmediato el interés de la niña.

Era una máquina precaria que se conectaba al televisor, sin monitor, ni juegos ni programas. Tampoco tenía disco rígido: había que grabar todo en cintas de estilo casete, como las que se usaban antes para grabar música. La vieja Sinclair desafiaba la curiosidad infantil de la futura científica, que no tuvo más opción que aprender a programar para sacarle algún provecho. Más tarde, su juego de la niñez se convirtió en el alimento de sus logros profesionales.

"Cuando empecé a buscar carreras, me incliné por Ciencias de la Computación y me quedé en Neuquén porque me habían dicho que era muy bueno el nivel de la UNCo", señaló. Por esa época, en la carrera ya daban la materia de inteligencia artificial, incluso cuando ese concepto sonaba en los oídos más corrientes como un futuro utópico con autos voladores y robots humanoides.

"En esa época la inteligencia artificial era bastante diferente, se estudiaba desde otro enfoque, que tenía que ver con la lógica, y se usaban otras técnicas", señaló sobre una de las asignaturas que más interés le despertó. Así, la joven estudiante se convirtió en ayudante alumna y se quedó dentro de la cátedra hasta que viajó a especializarse en Europa.

Benotti obtuvo una beca Erasmus Mundus para estudiar lógica computacional en Europa y luego realizó un doctorado en un instituto de automatización informática francés, donde se inició en la disciplina de lingüística computacional.

"Hace un tiempo era difícil explicarle a la gente de qué se trataba esto, del conocimiento de voz, dictado, y ahora con Chat GPT todo el mundo conoce de qué hablo, porque trabajo con las chatbots que la gente tiene experiencia de primera mano hablando con chatbots", dijo.

inteligencia artificial luciana benotti.jpg
Luciana advierte sobre los riesgos de la inteligencia artificial.

Luciana advierte sobre los riesgos de la inteligencia artificial.

Sus primeras investigaciones apuntaban a la web semántica, que buscaba mejorar el desempeño de los motores de búsqueda. "Antes la Internet no era tan grande como ahora y aun así era difícil encontrar algo", dijo y agregó que sus estudios buscan mejorar la interpretación del lenguaje para poder encontrar no solo páginas, sino partes de páginas web que responden a las preguntas de los usuarios.

Lingüística computacional

A partir del contacto con profesoras europeas, Luciana se inclinó hacia el estudio de lingüística computacional, que es la materia prima de programas en auge, como Chat GPT y otros chatbots que funcionan con inteligencia artificial. Por eso, se convirtió en una de las voces autorizadas, y con tono neuquino, sobre los avances de una tecnología que despierta ilusiones, mitos y cierta preocupación.

Pero, ¿qué es la AI? Benotti lo explica con palabras simples: "Son programas que hacen tareas que, si las hiciera una persona, requerirían alguna forma de inteligencia". Aclaró que es una definición confusa porque hay sistemas de computadora, como los de GPS, que no forman parte de la inteligencia artificial pero que, si las hiciera una persona, requerirían algún grado de inteligencia.

"Hay demasiadas películas sobre AI en el imaginario de la gente, se tiende a pensar que pueden hacer más cosas de las que realmente pueden hacer", afirmó. ¿Cómo funcionan en realidad? La científica detalló que, básicamente, toman un cúmulo enorme de datos y extraen información de manera diferente a la que lo hace una persona.

"Se tendría que llamar modelos estocásticos, porque son modelos matemáticos que analizan datos y dan un dato nuevo. Es como que tiran un gran dado, y por eso hay cierta aleatoriedad y se equivocan de manera muy diferente a la que se equivocan las personas", expresó.

"Lo que tiene ahora el área de AI es que ha tomado un montón de palabras que corresponden a personas, aprender, inteligencia, alucinar (cuando dice cosas que "son cualquiera", como dice mi hija) pero en realidad la forma en la que lo hacen no tienen nada que ver con lo que hace una persona", expresó sobre los riesgos que implica al confundir esta tecnología con las capacidades humanas.

luciana benotti IA.jpg

Entonces, la inteligencia artificial, ¿puede pensar? La especialista dice que no. "Es difícil porque no tenemos en claro qué significa pensar. Definitivamente la forma de llegar a respuestas es muy diferente a lo que las personas hacemos para pensar", dijo y agregó: "Hay un famoso artículo de Alan Turing que trata de contestar eso, si una persona interactúa con una PC y no la puede distinguir de otra persona, podemos decir que esa PC piensa".

Esa barrera difusa entre la inteligencia humana y la artificial se suma a una serie de mitos que infunden temores y fantasías en la población. Con la bisagra que significó el lanzamiento de Chat GPT, se reavivaron los debates que plantean a la AI como una salvación o como una condena pero que, en realidad, es una tecnología que se usa según las lógicas preexistentes que marcan el orden económico y social.

Los riesgos

Para Benotti, el riesgo de la inteligencia artificial "no es una pregunta tecnológica, sino una pregunta económica y social". Agregó: "Chat GPT viene a realizar ciertas tareas que hace la gente que cobra un sueldo, esa ganancia que se genera cuando lo hace el chat, ¿en manos de quién va a quedar? ¿queda en manos del trabajador con una herramienta más que la usa para trabajar menos horas, o queda para el empresario que va a contratar a menos gente?

"La posibilidad de automatizar tareas está, la tecnología la está mostrando", dijo sobre las sorpresas que todavía generan algunas respuestas de Chat GPT. Sin embargo, advirtió sobre el riesgo más importante: el sesgo de automatización, que no es más que una confianza ciega en lo que responde esta tecnología que nos lleva a olvidar hasta nuestros propios saberes.

Benotti lo aclaró: la AI "alucina". Todavía comete muchos errores u ofrece respuestas aleatorias, y el riesgo es confiar en su desempeño sin cuestionar. Así, hay personas que se pierden cuando siguen la guía de los mapas de GPS sin recordar que ellos conocen sus propios territorios, barrios o ciudades.

Si la AI son programas, muchos de los cuestionamientos éticos recaen sobre aquellos que los diseñan, que son grandes empresas de tecnología. Hay datos concretos que ejemplifican por qué la científica dice que la pregunta por los peligros son más económicos que tecnológicos.

Inteligencia artificial

La necesidad de regulaciones

"Hay empresas como UBER que diseñan algoritmos para subir el precio según el nivel de batería de los usuarios, el género o desde qué barrio piden un viaje", dijo. Así, las personas más vulnerables que estén en barrios peligrosos y con su teléfono a punto de apagarse deberán pagar más caro por un taxi, porque el miedo se convierte en un factor que se puede rentabilizar.

De esta manera, la científica señaló que es necesario comenzar a debatir regulaciones sobre los grandes poderes concentrados que usan esta tecnología, que tiene como futuro cercano una marchan hacia la multimodalidad del lenguaje. "Hay sistemas que producen imágenes con texto y al revés, o agentes conversacionales, yo hace años investigo la intersección, y se supone que el Chat GPT 4 tiene una capacidad multimodal para hablar sobre fotos o generar contenido interactivo durante una conversación", detalló.

Aclaró, además, que la tecnología todavía no logró encontrar las soluciones para crear ese futuro tan imaginado por la ficción. "La robótica todavía no logró bajar sus costos para volverse redituable", dijo y desterró, por ahora, la posibilidad de hacer realidad la película "A.I." de Steven Spielberg.

Así, la AI llegó en forma de agentes conversacionales y no como niños robots que sueñan con ser humanos, pero con un uso masivo que se olvida de tener en cuenta que "la inteligencia artificial puede cometer errores, contener sesgos y discriminar".

Agregó que "es importante que las empresas que crean estas tecnologías se hagan responsables de los sesgos que contienen, y que haya auditorías para no crear más espacios de discriminación. No basta con una línea en sus términos legales.” Sólo así se podrá hacer un uso más responsable de una tecnología que promete avanzar cada vez más rápido.

Te puede interesar...

Lo más leído

Leé más

Noticias relacionadas

Dejá tu comentario