El clima en Neuquén

icon
28° Temp
30% Hum
La Mañana datos

Los 5 datos que jamás debes compartir con una inteligencia artificial, aunque sea tendencia usarla

Muchos usuarios de IA comparten información sensible como diagnóstico médicos que podrían ponerlos en riesgo.

La irrupción de la Inteligencia Artificial en 2022 transformó la forma en que millones de personas se relacionan con la tecnología. Hoy es posible evacuar dudas sobre cientos de temas y a medida que llegan las actualizaciones a la plataforma son más las capacidades que tiene el servicio para sus usuarios.

Recientemente, la última actualización del chatGPT permitió a sus miles de usuarios crear imágenes animadas a partir de una fotografía o una descripción que realice el usuario de una situación puntual. El efecto “Ghibli” como se lo conoce permitió que se generaran más de 700 millones de imágenes en tan solo una semana.

Sin embargo, muchos usuarios del servicio desconocen que hacer uso de la plataforma puede traer algunas complicaciones y peligros cuando se comparte información. Por ello, a continuación, se enumera una serie de datos que no tenés que compartir con la IA para evitar caer en riesgo.

inteligencia-artificial(2).jpg

Cinco cosas que no tenés que informarle al ChatGPT

Proteger la privacidad y la seguridad de los usuarios es fundamental sobre todo cuando se trata de una plataforma usada por miles de personas alrededor del mundo.

Imágenes con datos biométricos

Una foto puede ser considerada completamente indefensa. Sin embargo, compartir una imagen del rostro podría ser suficiente para entregar datos biométricos. ¿Peligroso? Si. Esos datos podrían ser utilizados para entrenar modelos, generar patrones faciales o incluso alimentar bases de datos sin tu consentimiento.

Datos personales

Información como tu número de teléfono, fecha de nacimiento, dirección o rutas que sueles recorrer a diario no deben ser compartidas en la plataforma. Hacerlo implicaría que la aplicación no solo te identifique, sino que te rastree y vulnere tu seguridad.

Información médica

Muchos utilizan el ChatGPT para la búsqueda de un diagnóstico médico. Hay que tener en cuenta que la plataforma no es una herramienta médica certificada y que no reemplaza al profesional de la salud. No puede brindar diagnósticos reales y compartir información médica como resultados de análisis o síntomas pone en riesgo nuestra seguridad.

Datos bancarios

Números de tarjetas, claves de acceso, cuentas o transferencias son dato muy sensibles que no solo no tenemos que compartir con la IA, sino con nadie. Estos sistemas no están diseñados para manejar transacciones financieras y podrían ser un blanco fácil de los ciberdelincuentes.

Información corporativa

Muchas empresas utilizan la IA, sin embargo, compartir información sensible como tareas laborales, documentos, estrategias internas o nombres de clientes podría comprometer la integridad del negocio.

Es importante saber que pese a que la IA tiene políticas de seguridad muchas veces no se cumplen tal cual lo expresan en sus enunciados y nuestra información se pone en riesgo.

Te puede interesar...

Leé más

Noticias relacionadas