{# #} {# #}
Muchos usuarios de IA comparten información sensible como diagnóstico médicos que podrían ponerlos en riesgo.
La irrupción de la Inteligencia Artificial en 2022 transformó la forma en que millones de personas se relacionan con la tecnología. Hoy es posible evacuar dudas sobre cientos de temas y a medida que llegan las actualizaciones a la plataforma son más las capacidades que tiene el servicio para sus usuarios.
Recientemente, la última actualización del chatGPT permitió a sus miles de usuarios crear imágenes animadas a partir de una fotografía o una descripción que realice el usuario de una situación puntual. El efecto “Ghibli” como se lo conoce permitió que se generaran más de 700 millones de imágenes en tan solo una semana.
Sin embargo, muchos usuarios del servicio desconocen que hacer uso de la plataforma puede traer algunas complicaciones y peligros cuando se comparte información. Por ello, a continuación, se enumera una serie de datos que no tenés que compartir con la IA para evitar caer en riesgo.
Proteger la privacidad y la seguridad de los usuarios es fundamental sobre todo cuando se trata de una plataforma usada por miles de personas alrededor del mundo.
Una foto puede ser considerada completamente indefensa. Sin embargo, compartir una imagen del rostro podría ser suficiente para entregar datos biométricos. ¿Peligroso? Si. Esos datos podrían ser utilizados para entrenar modelos, generar patrones faciales o incluso alimentar bases de datos sin tu consentimiento.
Información como tu número de teléfono, fecha de nacimiento, dirección o rutas que sueles recorrer a diario no deben ser compartidas en la plataforma. Hacerlo implicaría que la aplicación no solo te identifique, sino que te rastree y vulnere tu seguridad.
Muchos utilizan el ChatGPT para la búsqueda de un diagnóstico médico. Hay que tener en cuenta que la plataforma no es una herramienta médica certificada y que no reemplaza al profesional de la salud. No puede brindar diagnósticos reales y compartir información médica como resultados de análisis o síntomas pone en riesgo nuestra seguridad.
Números de tarjetas, claves de acceso, cuentas o transferencias son dato muy sensibles que no solo no tenemos que compartir con la IA, sino con nadie. Estos sistemas no están diseñados para manejar transacciones financieras y podrían ser un blanco fácil de los ciberdelincuentes.
Muchas empresas utilizan la IA, sin embargo, compartir información sensible como tareas laborales, documentos, estrategias internas o nombres de clientes podría comprometer la integridad del negocio.
Es importante saber que pese a que la IA tiene políticas de seguridad muchas veces no se cumplen tal cual lo expresan en sus enunciados y nuestra información se pone en riesgo.