La Inteligencia Artificial (IA) ha cobrado gran auge en años recientes, especialmente con la llegada de aplicaciones como ChatGPT y Gemini, ambas fácilmente accesibles; lo cual ha agilizado su implementación en múltiples ámbitos laborales, por facilitar tareas y automatizar procesos.
El uso de esta tecnología no solo conlleva beneficios, también existen riesgos en la seguridad de información, tanto personal, como organizacional. «La tecnología nos brinda una ventana al mundo, pero también puede abrir puertas a la vulnerabilidad de nuestra información personal y organizacional», comentó José Amado, gerente de la Práctica de Identidades Digitales de SISAP
¿Le ofrece la Inteligencia Artificial privacidad con sus datos?
Amado comparte que uno de los mayores riesgos al utilizar aplicaciones de Inteligencia Artificial, es la incertidumbre respecto al manejo de datos privados por la misma. “ChatGPT, por ejemplo, es un programa que necesita de gran cantidad de información para entrenarse, la cual nosotros le proporcionamos cada vez que lo utilizamos, datos que son almacenados en una nube fuera de nuestro alcance”, explicó.
El experto brindó un ejemplo sobre el riesgo que esto representa para una organización: “Pensemos que un colaborador en la oficina debe realizar un resumen de un reporte ejecutivo, y para ahorrarse trabajo, copia este en ChatGPT y le pide que lo haga por él”. Esto le daría acceso completo al reporte, información de la empresa, entre otros datos, que ahora están almacenados en la nube y que no sabemos quién puede tener acceso.
Estas preocupaciones de privacidad deben de estar presentes en la organización al momento de considerar la implementación de Inteligencia Artificial. Una vez se comparten los datos con estas aplicaciones, no pueden eliminarse o regresarse, por lo que resulta importante capacitar a los colaboradores sobre estas tecnologías y sus usos, así evitar que compartan información sensible o confidencial con ellas.
Aplicaciones creadas por Inteligencia Artificial y su vulnerabilidad
A través de la Inteligencia Artificial ha sido posible realizar tareas de programación, como escribir el código fuente para nuevas aplicaciones y páginas webs; esto sin duda facilita la labor de los programadores y/o personas con poca experiencia en el tema. Amado comparte que, el código de más del 65% de las aplicaciones se están escribiendo con Inteligencia Artificial.
Para el experto, el problema es que generalmente la Inteligencia Artificial generará un código similar o idéntico para varios usuarios, por lo que es posible que varias organizaciones manejen prácticamente el mismo software o aplicación. “Si todos comparten el mismo código generado por IA, también compartirán las mismas vulnerabilidades, facilitando el acceso a cualquier cibercriminal”, indicó Amado.
La tendencia demuestra que este riesgo seguirá en aumento, especialmente por el dinamismo y la velocidad con la que se busca crear nuevas aplicaciones y sistemas; por lo que Amado recomienda a las organizaciones no utilizar la Inteligencia Artificial (IA) para generar los códigos que necesiten, en cambio recurrir a métodos tradicionales, los cuales pueden ser más lentos, pero a la larga brindarán mayor seguridad.
El lado oscuro de las aplicaciones de Inteligencia Artificial
Mientras que ChatGPT y Gemini buscan apoyar y facilitar las tareas diarias de las personas, existen aplicaciones similares con fines maliciosos, las cuales buscan ayudar a los cibercriminales a mejorar sus métodos de ataque y pasar desapercibidos.
“Algunos ejemplos de GPTs maliciosos son WormGPT, FraudGPT y PoisonGPT, los cuales pueden realizar tareas desde escribir correos creíbles de phishing, hasta escribir el código de un programa maligno para extraer información”, alertó Amado.
El experto recalca la importancia de conocer acerca de este tipo de aplicaciones, ya que con su ayuda el riesgo de que las organizaciones puedan sufrir ataques cibernéticos y ser víctimas de Ransomware, aumentan.
Si en su organización se hace el uso de Inteligencia Artificial para la programación de aplicaciones o web sites, o bien, los colaboradores hacen uso de aplicaciones como ChatGPT, Amado recomienda que se acerquen a una empresa de soluciones en ciberseguridad, como lo es SISAP, quienes puedan realizar un análisis de sus vulnerabilidades y aumentar sus defensas contra ciberataques.
Fuente. SISAP