"Lo que nadie sabía”: por qué lo que le compartís a la inteligencia artificial no es privado

Las conversaciones con IA se pueden convertir en información de dominio público

General04/11/2025Redacción M1Redacción M1
por-que-tendrias-que-empezar-a-pensar-que-le-6M4KXI5GOZB7HO5VEAO3LHJQAA

La adopción de la inteligencia artificial crece y, con ello, un riesgo poco conocido para la mayoría: la fuga de los datos que le damos a la inteligencia artificial.

Efectivamente, la adopción de la inteligencia artificial es masiva e innegable. “En 2025, ChatGPT supera los 700–800 millones de usuarios semanales, según datos recientes reportados por la prensa especializada a partir de declaraciones de OpenAI", explica Matias Hilaire, CEO de The App Master, compañía argentina que crea soluciones tecnológicas para startups, pequeñas y medianas empresas.

Lo que pocos saben es que lo que se comparte ahí no es privado, sino que las inteligencias artificiales utilizan los datos que se vuelcan para seguir entrenándose. En otras palabras, las conversaciones con ChatGPT, Gemini y otras versiones gratuitas o personales de inteligencias artificiales pueden usarse para mejorar el modelo; y no solo eso, sino que esto funciona por defecto, salvo que el usuario lo desactive manualmente en las configuraciones.

Ahora bien, no todos los modelos funcionan igual, ya que las versiones empresariales o de trabajo no utilizan los datos para entrenamiento y existen acuerdos formales que protegen la información. En palabras de Juan Pablo Cosentino, profesor asociado y director académico del área Operaciones y Tecnología de IAE Business School, la escuela de negocios de la Universidad Austral: “Hay una regla simple que aplica en este ámbito: si es gratis, deberías saber que nada es gratuito, por lo tanto, asumí que se entrena con tus datos".

El especialista explica que, aunque los modelos no “cuenten tus secretos”, pueden “memorizar” fragmentos raros o únicos de texto. “Si otro usuario hace una pregunta muy similar, existe una pequeña posibilidad de que aparezca algo parecido a lo que vos escribiste”, agrega.

según los expertos, esto ya está ocurriendo. “La adopción masiva de IA generativa disparó un fenómeno silencioso: empleados y directivos pegan texto sensible (contratos, planillas salariales, código propietario, datos confidenciales de la empresa, estrategias de marketing) en chats públicos o cuentas gratuitas. La productividad crece, pero también el riesgo de fuga de datos y de incumplimientos normativos", explica Hilaire.

Y aporta datos que evidencian cómo la IA ingresó en las empresas por “la puerta de atrás”: un informe de Microsoft (octubre 2025) halló que 71% de los trabajadores usan herramientas de IA no aprobadas por su compañía. Si a eso se suman otros números, como un estudio difundido por TechRepublic, según el cual el 77% de los empleados comparten datos sensibles con ChatGPT u otras inteligencias artificiales, el resultado de la ecuación se torna especialmente crítico.

Te puede interesar
Lo más visto