{# #} {# #}
El Gobierno chino, a través de la Administración del Ciberespacio de China, se quiere asegurar que la IA refleje valores socialistas.
La censura en China vuelve a ser noticia debido a un informe del Financial Times, que asegura que el Gobierno chino revisa los grandes modelos lingüísticos (LLM) de las empresas de inteligencia artificial del país para asegurarse de que "encarnen valores socialistas fundamentales". Este país ya había bloqueado tecnologías similares, como ChatGPT.
El reporte surge después de que en abril del año pasado China anunciara su intención de implementar esta medida a través de un borrador de decreto oficial. Sin embargo, según Reuters, tres meses después se informó que las reglas de IA generativa solo se aplicarían a productos para el público, suavizando así el tono en comparación con el borrador original.
Actualmente, el Financial Times indica que la Administración del Ciberespacio de China (CAC), el principal regulador de Internet del Gobierno, está llevando a cabo estas revisiones en empresas de todo tipo, desde gigantes tecnológicos como ByteDance y Alibaba hasta pequeñas startups.
El proceso de evaluación, descrito por múltiples fuentes, incluye revisiones exhaustivas de cómo estos LLM responden a una amplia gama de cuestiones. Muchas de estas preguntas tocan temas políticos delicados, incluyendo referencias al liderazgo de China bajo el presidente Xi Jinping.
Los funcionarios de la CAC ponen a prueba los modelos de IA para verificar sus respuestas a diversas preguntas y revisan los datos de entrenamiento y los procesos de seguridad del modelo. Una fuente anónima de una empresa de inteligencia artificial en Hangzhou mencionó que su modelo no pasó la primera ronda de pruebas por razones poco claras, logrando pasar solo después de meses de "adivinar y ajustar".
China fue uno de los primeros países en aprobar una regulación gubernamental de la inteligencia artificial, con el objetivo de permitir a las empresas locales mantenerse a la vanguardia de esta tecnología y alcanzar a Estados Unidos en su desarrollo y liderazgo en GenAI, pero sin perder el control sobre los contenidos que pudiera generar la IA.
Cumplir con las políticas de censura implica un "filtrado de seguridad", y se ha vuelto complicado porque los LLM chinos aún se entrenan con una cantidad significativa de contenido en inglés, según ingenieros y personas con información privilegiada de la industria citadas por el Financial Times.
El filtrado se realiza eliminando "información problemática" de los datos de entrenamiento del modelo de IA y creando una base de datos de palabras y frases sensibles. Así, los chatbots más populares del país suelen negarse a responder preguntas sobre temas delicados, como las protestas de la Plaza Tiananmen de 1989.
Sin embargo, hay límites en la cantidad de preguntas que los LLM pueden rechazar directamente, por lo que los modelos deben generar "respuestas políticamente correctas" cuando se les consulta sobre estos temas. Para lograr esto, los ingenieros añaden una capa adicional al sistema que reemplaza las respuestas problemáticas en tiempo real.