La respuesta de Facebook a los abusos a menores
Un ex empleado de Facebook declaró a las autoridades estadounidenses que los esfuerzos de la empresa por eliminar el material de abuso infantil de la plataforma eran "inadecuados" y "carecían de recursos".
Las acusaciones aparecen en documentos relevados por BBC News y presentados a la Comisión de Valores de Estados Unidos (SEC) hace dos semanas.
El denunciante anónimo afirma que los moderadores "no están suficientemente formados y están mal preparados".
Facebook dijo en un comunicado: "No toleramos este abominable abuso de menores y utilizamos tecnologías sofisticadas para combatirlo".
"Hemos financiado y ayudado a construir las herramientas que utiliza la industria para investigar este terrible delito, rescatar a los niños y hacer justicia a las víctimas".
Las revelaciones se producen después de que la ex empleada, Frances Haugen, relatara a principios de este mes en el Congreso de Estados Unidos que las plataformas de Facebook "perjudican a los niños, avivan la división y dañan nuestra democracia".
Esta semana también declaró ante la comisión parlamentaria del Reino Unido que examina el proyecto de ley de seguridad en línea.
Los altos ejecutivos de Facebook, Twitter, Google, YouTube y Tiktok también tienen que declarar.
No hay solución
Las últimas revelaciones provienen de un denunciante no identificado, con conocimiento interno de los equipos dentro de Facebook creados para interceptar material dañino.
En una declaración jurada ante la SEC, que regula los mercados de valores y protege a los inversores, el denunciante dijo que no había solución al material ilegal en Facebook porque no se habían dedicado "los activos adecuados al problema".
Afirman que un pequeño equipo creado para desarrollar un software que pudiera detectar vídeos indecentes de niños fue disuelto y reubicado, porque se consideró "demasiado complejo".
Facebook afirma que utiliza una tecnología conocida como PhotoDNA y VideoDNA, que busca automáticamente imágenes conocidas de abusos a menores: cada imagen recuperada por las fuerzas de seguridad de todo el mundo y remitida al Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos, recibe un código de identificación único.
El denunciante dijo a la SEC que se trataba de una cuestión empresarial legítima, "pero no cuando se trata de cuestiones de seguridad pública tan críticas como los abusos sexuales a menores".
En el documento legal de cinco páginas también se advierte sobre los "grupos" de Facebook, que se describen como "facilitadores del daño".
Los grupos, muchos de los cuales sólo son visibles para los miembros, es donde "se producen muchos comportamientos aterradores y aborrecibles".
Los pedófilos "utilizan palabras clave para describir el tipo de niño, el tipo de actividad sexual... utilizan el servicio de mensajería encriptada de Facebook o Whatsapp para compartir estos códigos, que cambian rutinariamente".
"El sistema de Facebook depende de un modelo de autocontrol que no puede aplicarse de forma racional o razonable".
Facebook dijo en una entrevista a la BBC que sí escanea los grupos privados en busca de contenido que viole sus políticas y que tiene 40.000 personas trabajando en seguridad, con una inversión de más de 13.000 millones de dólares desde 2016.
Dijo que había actuado 25,7 millones de piezas de contenido para la explotación sexual infantil en el segundo trimestre de 2021.
Peter Wanless, director ejecutivo de la NSPCC, dijo: "Estas revelaciones plantean preguntas profundas e inquietantes sobre el compromiso de Facebook para combatir el abuso infantil ilegal en sus servicios".
"Por primera vez, las pruebas procedentes del interior de Facebook sugieren que han abdicado de su responsabilidad de abordar de forma exhaustiva el material de abuso sexual infantil".
El ex empleado concluyó su declaración escribiendo: "A menos que exista... la amenaza creíble de una acción legislativa y/o legal. Facebook no cambiará".
Te puede interesar...









