El clima en Neuquén

icon
Temp
67% Hum
La Mañana riesgo

Europa quiere limitar el uso de la Inteligencia Artificial en la sociedad

El uso del reconocimiento facial para la vigilancia, o los algoritmos que manipulan el comportamiento humano, estarán prohibidos en virtud de la propuesta de normativa de la UE sobre inteligencia artificial.

Las amplias propuestas, que se filtraron antes de su publicación oficial, también prometen nuevas normas estrictas para lo que consideran IA de alto riesgo. Esto incluye los algoritmos utilizados por la policía y en la contratación de personal.

Los expertos afirman que las normas son vagas y contienen lagunas. El uso de la IA en el ejército está exento, al igual que los sistemas utilizados por las autoridades para salvaguardar la seguridad pública. La lista sugerida de sistemas de IA prohibidos incluye los diseñados o utilizados de manera que manipulen el comportamiento, las opiniones o las decisiones de los seres humanos haciendo que una persona se comporte, se forme una opinión o tome una decisión en su detrimento los sistemas de IA utilizados para la vigilancia indiscriminada aplicada de forma generalizada los sistemas de IA utilizados para el scoring social los que explotan la información o las predicciones y a una persona o grupo de personas con el fin de atacar sus vulnerabilidades. El analista de política europea Daniel Leufer tuiteó que las definiciones estaban muy abiertas a la interpretación.

Te puede interesar...

"¿Cómo se determina lo que perjudica a alguien? ¿Y quién lo evalúa?", escribió.

Para la IA considerada de alto riesgo, los Estados miembros tendrían que aplicar una supervisión mucho mayor, incluida la necesidad de designar organismos de evaluación para probar, certificar e inspeccionar estos sistemas.

Y las empresas que desarrollen servicios prohibidos, o que no faciliten información correcta sobre ellos, podrían enfrentarse a multas de hasta el 4% de sus ingresos globales, similares a las multas por incumplimiento del GDPR.

Los ejemplos de alto riesgo de la IA incluyen

  • sistemas que establecen la prioridad en el envío de servicios de emergencia
  • sistemas que determinan el acceso o la asignación de personas a centros educativos
  • algoritmos de contratación
  • los que evalúan la solvencia crediticia
  • los que realizan evaluaciones de riesgo individual
  • algoritmos de predicción de la delincuencia

Leufer añadió que las propuestas deberían "ampliarse para incluir todos los sistemas de IA del sector público, independientemente del nivel de riesgo que se les asigne".

"Esto se debe a que la gente normalmente no tiene la opción de interactuar o no con un sistema de IA en el sector público".

Además de exigir que los nuevos sistemas de IA cuenten con supervisión humana, la CE también propone que los sistemas de IA de alto riesgo cuenten con el llamado interruptor de apagado, que podría ser un botón de parada o algún otro procedimiento para apagar instantáneamente el sistema en caso de necesidad.

"Los proveedores de IA estarán muy centrados en estas propuestas, ya que requerirá un cambio fundamental en la forma de diseñar la IA", dijo Herbert Swaniker, abogado de Clifford Chance.

Descuidado y peligroso

Por su parte, Michael Veale, profesor de derechos digitales y regulación en el University College de Londres, destacó una cláusula que obligará a las organizaciones a revelar cuándo utilizan deepfakes, un uso especialmente controvertido de la IA para crear falsos humanos o manipular imágenes y vídeos de personas reales.

También dijo que la legislación estaba dirigida principalmente "a los vendedores y consultores que venden tecnología de IA -a menudo sin sentido- a escuelas, hospitales, policía y empleadores".

Pero añadió que las empresas tecnológicas que utilizan la IA "para manipular a los usuarios" también podrían tener que cambiar sus prácticas.

Con esta legislación, la CE ha tenido que caminar por la difícil cuerda floja entre garantizar que la IA se utilice para lo que llama "una herramienta... con el objetivo último de aumentar el bienestar humano", y también garantizar que no impida a los países de la UE competir con Estados Unidos y China en materia de innovaciones tecnológicas.

Y reconoce que la IA ya informa de muchos aspectos de nuestra vida.

El Centro Europeo de Derecho no Lucrativo, que había contribuido al Libro Blanco de la Comisión Europea sobre la IA, dijo que había "mucha vaguedad y lagunas" en la legislación propuesta.

"El planteamiento de la UE de definir de forma binaria el alto y el bajo riesgo es chapucero en el mejor de los casos y peligroso en el peor, ya que carece del contexto y los matices necesarios para el complejo ecosistema de la IA que ya existe en la actualidad".

"En primer lugar, la Comisión debería considerar los riesgos de los sistemas de IA dentro de un marco basado en los derechos, como los riesgos que suponen para los derechos humanos, el Estado de Derecho y la democracia.

"En segundo lugar, la comisión debería rechazar una estructura demasiado simplificada de riesgo bajo-alto y considerar un enfoque basado en niveles sobre los niveles de riesgo de la IA".

Los detalles podrían cambiar de nuevo antes de que las normas se den a conocer oficialmente la próxima semana. Y es poco probable que se convierta en ley hasta dentro de varios años.

Lo más leído

Leé más

¿Qué te pareció esta noticia?

80% Me interesa
20% Me gusta
0% Me da igual
0% Me aburre
0% Me indigna

Noticias relacionadas

Dejá tu comentario