La rápida expansión de la inteligencia artificial generativa ha puesto en evidencia un riesgo subestimado: la exposición de datos personales y laborales por parte de los usuarios en chats de plataformas como ChatGPT y Gemini. Expertos en tecnología y ciberseguridad advierten que, por defecto, muchos servicios gratuitos o personales utilizan la información ingresada para continuar entrenando sus modelos, a menos que el usuario modifique manualmente la configuración.
Según estimaciones recientes de consultoras internacionales, herramientas como ChatGPT superan los cientos de millones de usuarios semanales, multiplicando así la cantidad de información sensible que circula en estos canales. Los especialistas señalan que el peligro no radica en que la IA «cuente secretos» de forma literal, sino en que fragmentos únicos de textos puedan quedar almacenados en los datos de entrenamiento, lo que potencialmente permitiría que esa información reaparezca en consultas posteriores o ante terceros.
Este fenómeno se intensifica en el entorno laboral. Investigaciones recientes revelan que una parte significativa de los empleados utiliza modelos de IA sin autorización de sus organizaciones para tareas diarias, como resumir documentos, crear contenido o analizar datos. Informes privados indican que más del 66% de los trabajadores comparte información interna o documentos confidenciales en chats públicos de IA, incrementando el riesgo de filtraciones, incumplimientos contractuales y sanciones regulatorias.
Uno de los errores más comunes es copiar archivos completos —como listas de salarios, contratos o códigos fuente— en plataformas que no garantizan privacidad ni control sobre la retención de datos. La diferencia en la gestión del uso de datos varía según el plan contratado: los servicios gratuitos o personales por defecto suelen utilizar las conversaciones para mejorar los modelos, mientras que los planes corporativos, generalmente de pago, incluyen cláusulas específicas que excluyen esta práctica, ofreciendo además mecanismos de auditoría y retención controlada.
Según expertos en arquitectura de datos, estos criterios están claramente especificados en los términos de uso y políticas de privacidad, en apartados como “nuestro uso del contenido”. En general, las versiones gratuitas o personales de ChatGPT, Gemini o Copiloto Claude toman por defecto el material de los usuarios para entrenamiento, mientras que los planes empresariales y gubernamentales excluyen esta práctica.
Para quienes utilizan versiones gratuitas, los expertos recomiendan no ingresar datos que puedan identificar a personas, información financiera, credenciales, números de tarjeta o datos sensibles como salud o biometría. También sugieren evitar compartir contenido sobre operaciones internas, precios aún no públicos o información confidencial de la empresa.
Además, es recomendable establecer protocolos internos para el uso de IA en los equipos laborales, incluyendo restricciones sobre qué tipos de información se pueden compartir y mecanismos de autorización previa. La adopción de modelos gratuitos para tareas rápidas seguirá siendo alta, pero los especialistas enfatizan que la supervisión y el uso responsable son clave. Revisar la configuración de privacidad, desactivar la utilización de datos y evitar compartir información crítica son acciones fundamentales para disminuir riesgos.
A medida que las plataformas siguen expandiendo su presencia, la gestión adecuada de los datos introducidos será crucial para prevenir filtraciones involuntarias y proteger la información sensible de usuarios y empresas.