La conversación global sobre la protección de la información adquiere una nueva dimensión en la actualidad. Esto porque el avance acelerado de la inteligencia artificial (IA), especialmente en aplicaciones como chatbots, copilotos empresariales y sistemas avanzados de analítica, está transformando la manera en que las organizaciones recopilan, procesan y utilizan los datos, señalan varias especialistas de SAS, líder en datos, analítica avanzada, e inteligencia artificial.
Para SAS, hoy, las preocupaciones ya no se limitan únicamente a evitar filtraciones o ciberataques. Sino que la IA introduce riesgos menos visibles, pero igualmente críticos. Entre ellos, el uso prolongado de datos más allá de su propósito original, la inferencia de información sensible que nunca fue compartida explícitamente y la dificultad de explicar cómo los modelos generan resultados y toman decisiones. En este contexto, la privacidad de los datos se convierte en un pilar fundamental para sostener la confianza digital.
La privacidad como base de la confianza en la IA
De acuerdo con Marinela Profi, Global AI & Generative AI Market Strategy Lead de SAS, la rápida adopción de soluciones de IA en múltiples industrias está revelando nuevos dilemas que van más allá de los modelos tradicionales de protección de datos.
“A medida que sectores como los servicios financieros, el comercio minorista y la banca se apresuran a implementar chatbots impulsados por IA y copilotos empresariales, los desafíos de privacidad, transparencia y confianza emergen con la misma rapidez. Estos sistemas pueden filtrar inadvertidamente datos sensibles, inferir información que nunca fue compartida explícitamente o difuminar la línea entre el uso aceptable de datos privados y públicos”, explicó Profi.
La experta advierte que, aunque las organizaciones han utilizado históricamente herramientas como los datos sintéticos para mitigar riesgos de privacidad, la IA plantea un reto distinto. Este es entender cómo los modelos retienen, infieren y exponen información durante las interacciones diarias, incluso a partir de señales emocionales o contextuales.
“En la medida en que la IA impulsa cada vez más la toma de decisiones y la creación de contenidos, los usuarios quieren saber cómo se entrenan los modelos, cómo se generan los resultados y quién es el propietario final de los datos, e incluso de las ‘memorias’ que se crean en el proceso”, agregó Profi.
Ante este escenario, SAS impulsa la necesidad de una arquitectura de privacidad moderna y basada en derechos, que incorpore transparencia, gobernanza y supervisión humana en los flujos de trabajo de la IA. Esto con el objetivo de prevenir exposiciones involuntarias de datos, riesgos de inferencia y la erosión de la confianza de los usuarios.
El desafío del ciclo de vida de los datos
Por su parte, Manisha Khanna, Global Product Marketing Lead for AI & Analytics de SAS, mencionó que la privacidad de los datos ha evolucionado significativamente en los últimos años. Tradicionalmente, el foco estuvo en el acceso. Específicamente, en quién puede recopilar los datos, quién puede utilizarlos y cómo se protegen. Sin embargo, la IA está poniendo en jaque ese enfoque al extender la vida útil de los datos mucho más allá de lo originalmente previsto.
“La IA plantea una pregunta que muchas organizaciones aún no han respondido: ¿cuándo caducan los datos? Muchos sistemas de IA siguen tomando decisiones basadas en información que, en la práctica, ya debería haber expirado. Por ejemplo, datos recopilados para un propósito específico, bajo determinados supuestos y consentimientos, que se reutilizan silenciosamente años después para entrenar modelos completamente nuevos”, explicó Khanna.
De acuerdo con la vocera, este problema no responde necesariamente a una brecha de seguridad o a un ataque cibernético, sino a un punto ciego de gobernanza. Añadió que la mayoría de los sistemas de IA empresarial fueron diseñados para retener datos, no para reconocer cuándo estos han dejado de ser relevantes, apropiados o legítimos para su uso.
“A medida que la IA se integra en decisiones críticas del negocio, las organizaciones deben replantearse la gestión del ciclo de vida de los datos. Una IA responsable no depende solo de proteger la información, sino de comprender cuándo ha perdido su contexto, su legitimidad o su lugar dentro del sistema”, enfatizó Khanna.
El aporte de SAS a una privacidad responsable
Frente a estos desafíos, SAS promueve un enfoque integral de IA responsable y privacidad desde el diseño, apoyado en soluciones que permiten a las organizaciones gestionar, auditar y gobernar el uso de los datos y los modelos de IA a lo largo de todo su ciclo de vida.
Las soluciones de SAS integran capacidades de gobernanza, explicabilidad, gestión del riesgo y control del acceso a los datos, facilitando que las empresas cumplan con regulaciones de privacidad, refuercen la transparencia y mantengan la supervisión humana sobre los procesos automatizados. Este enfoque no solo reduce riesgos legales y reputacionales, sino que fortalece la confianza de clientes, colaboradores y socios en el uso ético de la tecnología.
SAS hace un llamado a las organizaciones a ampliar su visión sobre la protección de la información, entendiendo que la privacidad es un habilitador clave de la innovación responsable.
Fuente. SAS






































