El clima en Neuquén

icon
29° Temp
30% Hum
La Mañana google

Google le pone un cepo a las búsquedas sobre sexo

La empresa intenta reducir los resultados explícitos en las búsquedas de términos generales o relacionadas a etnias.

En 2019, la actriz estadounidense Natalie Morales,realizó una búsqueda en Google de "adolescente latina" y todos los resultados que mostró el navegador se asociaban a paginas o contenidos pornográficos. La actriz publicó en su cuenta de Twitter lo sucedido y estalló la polémica.

Sin embargo, ahora Google está trabajando en ajustar su navegador. La unidad de Alphabet está recortado los resultados explícitos en un 30% en el último año en las búsquedas de "adolescente latina" y otras relacionadas con la etnia, la preferencia sexual y el género, dijo el miércoles a Tulsee Doshi, jefe de producto del equipo de IA responsable de Google.

Doshi dijo que Google había puesto en marcha un nuevo software de inteligencia artificial, conocido como BERT, para interpretar mejor cuándo alguien buscaba resultados subidos de tono o más generales.

Además de "adolescente latina", otras consultas que ahora muestran resultados diferentes son "la chef lesbienne", "dormitorio universitario", "instructora de yoga latina" y "autobús de lesbianas", según Google.

"Todo ha sido un conjunto de resultados excesivamente sexualizados", dijo Doshi, añadiendo que esos resultados de búsqueda históricamente sugerentes eran potencialmente impactantes para muchos usuarios.

google-buscador.jpg

En su tuit de 2019, Morales explicaba que había estado buscando imágenes para una presentación, y que había notado un contraste en los resultados de "adolescente" por sí mismo, que describió como "todo lo normal de un adolescente", y pidió a Google que investigara.

El gigante de las búsquedas lleva años abordando los comentarios sobre contenidos ofensivos en sus herramientas publicitarias y en los resultados de las búsquedas de "hot" y "CEO". También recortó los resultados sexualizados de "chicas negras" después de que un artículo de 2013 de la autora Safiya Noble planteara su preocupación por las representaciones dañinas.

Por otro lado, este miércoles, Google informó que en las próximas semanas utilizaría una IA llamada MUM para empezar a detectar mejor cuándo mostrar recursos de apoyo relacionados con el suicidio, la violencia doméstica, la agresión sexual y el abuso de sustancias.

MUM debería reconocer los "puntos calientes de suicidio en Sídney" como una consulta para saltar de lugar, no de viaje, y ayudar con preguntas más largas, incluyendo "por qué me atacó cuando le dije que no lo amaba" y "las formas más comunes de suicidio", dijo Google.

Te puede interesar...

Leé más

Noticias relacionadas