Víctima de "abuso sexual digital" advierte cómo funciona el delito y cómo prevenirlo
"Pusieron mi cara en un video porno", denunció una mujer inglesa y compartió cómo funciona la ciberdelincuencia y cómo denunciarla.
Una mujer inglesa denunció haber sido víctima de abuso sexual digital, lo descubrió mientras navegaba en Internet cuando, de repente, vio su cara en un video pornográfico. La víctima es Kate Isaacs, una mujer de 30 años que, después de la conmoción inicial por verse manteniendo relaciones sexuales en una plataforma pública, se dio cuenta de algo aún más inquietante: aunque era su cara la que aparecía en el video, el cuerpo que se veía no era el suyo.
Kate se había convertido en víctima de la llamada pornografía deepfake, término que designa a los videos pornográficos realizados con fotos robadas que se transforman en clips porno mediante un software. La mujer, que es activista, cree que fue víctima de este abuso sexual digital debido a su campaña #NotYourPorn de 2020, que supuso la eliminación de 10 millones de videos de pornografía infantil y no consentida en varios sitios para adultos.
Lo más sorprendente es que los agresores también “doxearon” a Kate, publicando en Internet las direcciones de su trabajo y de su casa. Isaacs confesó que había recibido amenazas como que la iban a perseguir durante las noches, que la iban a violar, a grabarlo y subirlo a Internet.
Según informó Kate, para el video falso en el que parecía que estaba teniendo relaciones sexuales, utilizaron imágenes de una entrevista televisiva de Kate de su campaña contra la pornografía no consentida, y la habían etiquetado al compartirlo en Twitter.
Qué son y cómo se hacen los videos deepfake
Para lograr este tipo de clips se utiliza inteligencia artificial para manipular un video y colocar de manera digital el rostro de una persona sobre las imágenes del cuerpo de otra que está realizando actos sexuales, en este caso, una actriz porno.
Los deepfake como abuso sexual digital
La publicación de pornografía deepfake se considera abuso sexual digital, basado en imágenes, un término que abarca la toma, la creación y/o el intercambio de fotos íntimas sin consentimiento. Kate compartió su experiencia en un documental de la BBC llamado “Deepfake Porn: Could You Be Next?” (Porno deepfake: ¿podrías ser el siguiente?), presentado por la periodista Jess Davies, en donde se demuestra y analiza lo fácil que es crear este tipo de contenidos.
En el documental, Davies conversa con Gorkem y MrDeepFakes, dos de los más populares creadores de deepfakes. El primero, que realiza videos a pedido, relativiza el tema y expresa que la víctima, al no ser la real protagonista y tratarse de un video falsificado, “no sufre ningún daño”.
“Mientras no se trate de hacer pasar el video como real”, no debería importar ni tampoco debería mediar consentimiento, coincide MrDeepFake.
Kate Isaacs, víctima de un deepfake sexual, no está de acuerdo con esas declaraciones: “Esto es preocupante y realmente aterrador. Estamos hablando de Internet, no de la Deep Web. No sé en qué mundo vive esta gente si es capaz de crear estas cosas y pensar que no tienen ningún impacto en la reputación de alguien”, afirmó.
Como parte de su investigación para el documental, Davies también descubrió que aplicaciones fácilmente disponibles como FaceMagic -que tiene una calificación para mayores de 12 años- pueden crear deepfakes en menos de un minuto.
Para demostrarlo, en el documental Davies hizo un clip de sí misma en ocho segundos: “Puede que los resultados no parezcan muy realistas, pero alcanzan para que la víctima sienta la vergüenza y la humillación”.
Los deepfake como instrumento misógino
El hecho de haber sido víctima de un deepfake tuvo un impacto en la salud de Kate y en su capacidad para confiar en otras personas. Ella cree que quienes estaban detrás de los ataques no solamente intentaban intimidarla y humillarla, sino también silenciarla. Hace poco, la mujer confesó que se había dado cuenta de que el tema le importaba demasiado como para dejarlo y anunció que no iba a permitir que le ganen en su lucha.
“Los deepfakes pueden utilizarse para controlar a las mujeres”, afirmó Kate. Y agregó que: “Las empresas tecnológicas -incluidas las que fabrican aplicaciones que permiten el intercambio de rostros- deben poner restricciones e implementar sistemas que sean capaces de detectar el contenido sexual”.
“Si las empresas no invierten dinero, recursos y tiempo para garantizar que sus apps no se utilicen como herramienta para crear contenido de abuso sexual, están siendo deliberadamente irresponsables. Son culpables”, finalizó Isaacs.
Te puede interesar...
Leé más
Impugnarán la condena por abuso sexual a la adolescente que se suicidó: el ADN no es del tío
Engañaba a una niña, le decía que le iba a comprar golosinas y la violaba: cumplirá 8 años de cárcel
Investigan un caso de abuso a una joven que hizo una escalofriante publicación en redes sociales
Noticias relacionadas









Dejá tu comentario