{# #} {# #}

ver más

Apple defiende la nueva tecnología de protección infantil de escaneo de fotos

Apple defendió su nuevo sistema que escanea los teléfonos de los usuarios en busca de material de abuso sexual infantil tras la reacción de los clientes y los defensores de la privacidad.

La tecnología busca coincidencias de material de abuso conocido antes de que la imagen se suba a su almacenamiento en iCloud. Los críticos advirtieron que podría ser una "puerta trasera" para espiar a la gente, y más de 5.000 personas y organizaciones han firmado una carta abierta contra la tecnología. Como resultado, Apple se ha comprometido a no "ampliar" el sistema por ningún motivo.

Los defensores de la privacidad digital advirtieron la semana pasada que los gobiernos autoritarios podrían utilizar la tecnología para reforzar los regímenes anti-LGBT, o para reprimir a los disidentes políticos en países donde las protestas se consideran ilegales. Pero Apple dijo que "no accederá a la petición de ningún gobierno de ampliar" el sistema.

La empresa publicó un documento de preguntas y respuestas en el que afirmaba que contaba con numerosas salvaguardias para impedir que sus sistemas se utilizaran para otra cosa que no fuera la detección de imágenes de abusos a menores.

"Ya nos hemos enfrentado antes a demandas para construir y desplegar cambios exigidos por el gobierno que degradan la privacidad de los usuarios, y nos hemos negado firmemente a esas demandas. Seguiremos rechazándolas en el futuro", expresaron desde la empresa.

Sin embargo, Apple ha hecho algunas concesiones en el pasado para poder seguir operando en países de todo el mundo.

El gigante tecnológico retiró 39.000 aplicaciones de su App Store china en el marco de una ofensiva contra los juegos sin licencia por parte de las autoridades del país.

Apple también dijo que su herramienta anti-CSAM no permitirá a la empresa ver o escanear el álbum de fotos de un usuario. Sólo escaneará las fotos que se compartan en iCloud.

El sistema buscará coincidencias, de forma segura en el dispositivo, a partir de una base de datos de hashes de imágenes conocidas de CSAM proporcionadas por organizaciones de seguridad infantil.

Apple también afirma que es casi imposible señalar falsamente a personas inocentes a la policía. "La probabilidad de que el sistema marque incorrectamente una cuenta determinada es inferior a una entre un billón por año", afirma. También hay una revisión humana de las coincidencias positivas.

Los defensores de la privacidad, sin embargo, han argumentado que lo único que impide que esa tecnología se destine a otros usos es la promesa de Apple de que no lo hará.

El grupo de derechos digitales Electronic Frontier Foundation, por ejemplo, dijo que "todo lo que se necesitaría... es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido".

"Eso no es una pendiente resbaladiza; es un sistema totalmente construido a la espera de la presión externa para hacer el más mínimo cambio", advirtió.

Apple también ofreció garantías respecto a otra nueva función que advertirá a los niños y a sus padres que utilicen cuentas familiares vinculadas, cuando se envíen o reciban fotos sexualmente explícitas.

La compañía afirma que sus dos nuevas funciones no utilizan la misma tecnología y dice que "nunca" tendrá acceso a las comunicaciones privadas de los usuarios.

Mientras que los defensores de la privacidad reaccionaron ante el anuncio de Apple, algunos políticos acogieron con satisfacción la nueva tecnología.

El Secretario de Sanidad del Reino Unido, Sajid Javid, dijo que era hora de que otros, especialmente Facebook, siguieran su ejemplo.

Te puede interesar