Santiago, RD — El uso masivo de herramientas de inteligencia artificial como ChatGPT ha encendido nuevas alertas sobre privacidad digital, debido al almacenamiento, procesamiento y posible reutilización de los datos que los usuarios introducen en estas plataformas. Expertos en ciberseguridad advierten que muchas personas desconocen qué ocurre realmente con sus conversaciones y qué riesgos enfrentan al compartir información sensible.
Cómo maneja ChatGPT tus datos
Almacenamiento en servidores
Cada mensaje enviado a ChatGPT se guarda en los servidores de OpenAI para mantener el historial y el contexto de la conversación. En algunos casos, estos datos pueden conservarse hasta 30 días por motivos de seguridad y monitoreo de abusos.
Uso para entrenamiento de modelos
De forma predeterminada, las versiones gratuita y Plus permiten que las conversaciones se utilicen para entrenar y mejorar los modelos de IA. En cambio, las cuentas Business, Enterprise, Edu, Healthcare y API no usan los datos del usuario para entrenamiento.
Investigadores advierten que los modelos de lenguaje pueden memorizar fragmentos de información, lo que abre la puerta a riesgos de filtración mediante técnicas avanzadas de extracción.
Revisión humana
Una muestra de conversaciones anonimizadas puede ser revisada por personal especializado para evaluar la calidad y seguridad de las respuestas. Aunque los datos se procesan sin identificar al usuario, el contenido podría permitir la reidentificación en ciertos casos.
Riesgos principales para los usuarios
1. Exposición de información confidencial
Planes estratégicos, datos de clientes, código propietario o documentos internos no deben compartirse en plataformas de IA, ya que podrían ser utilizados para mejorar modelos futuros.
2. Robo de cuentas
En 2024 se detectaron más de 225,000 credenciales de ChatGPT a la venta en foros de la dark web, muchas obtenidas mediante malware especializado. Una cuenta comprometida expone todo el historial del usuario.
3. Riesgos legales y regulatorios
En entornos corporativos, introducir datos personales o empresariales en ChatGPT puede violar normativas de protección de datos como la LGPD en Brasil o leyes locales similares.
Cómo proteger tu privacidad al usar ChatGPT
Configura tu cuenta
- Desactiva la opción “Mejorar el modelo para todos” en Controles de datos.
- Revisa periódicamente la configuración de privacidad.
Buenas prácticas
- No compartas información sensible: nombres, direcciones, credenciales, datos financieros o documentos internos.
- Anonimiza cualquier dato antes de ingresarlo.
- Activa la autenticación de dos factores.
- Usa contraseñas robustas y únicas.
- Evita subir archivos delicados sin cifrado.
