jueves, agosto 21, 2025
MAD-HAV Enjoy Travel Group
AVA Resorts
Irtra
Grupo Hotelero Islazul
Walmart
Realidad Turística
Centro Nacional de Cirugía de Mínimo Acceso de Cuba
Realidad Turística
Barceló Solymar
blackanddecker
Cervecería Centroamericana S.A.
Walmart
Servicios Médicos Cubanos
Intecap
Nestle
INOR
Grupo Hotelero Islazul
MAD-HAV Enjoy Travel Group
Agexport
Irtra
Instituto Hondureño de Turismo
Tigo
Los Portales
Hoteles Gran Caribe
AVA Resorts
Hoteles Gran Caribe
Herbalife
CUN-HAV Enjoy Travel Group

Alza en casos de suplantación de identidad generará un aumento de estafas por clonación de voz y video

La Inteligencia Artificial (IA) permite hoy en día generar cualquier tipo de contenido audiovisual, lo que es aprovechado por ciberdelincuentes para realizar suplantaciones de identidad y obtener datos personales, financieros y empresariales, tanto de individuos como de organizaciones, y mejorar así la efectividad de sus ataques.

Según un Reporte de IBM, en 2024 Brasil (68%), Colombia (17%) y Chile (8%) fueron los países más atacados en Latinoamérica. A nivel de industria, una vez más, retail fue uno de los sectores con más incidentes, empatando con finanzas y seguros en el primer lugar, con 25% cada uno. Además, datos de Appgate, empresa de acceso seguro, muestran que, entre los métodos más comunes de ataque, destacan la creación de redes sociales falsas (56%), el phishing tradicional (24%) y el phishing con redirección (7%). Con tecnologías como el deepfake, estos ataques amplifican significativamente su efectividad al hacerlos más convincentes y difíciles de detectar.

“Con el objetivo de imitar o suplantar a las personas, e incluso engañar los algoritmos de control de acceso o autenticación de las organizaciones, los delincuentes utilizan herramientas especializadas de IA para modificar o crear elementos auditivos, así como también elementos gráficos o editar textos”, confirma Michael López, vicepresidente senior de soluciones fraude de Appgate.

Ante esto, estafas que utilicen clonación de voz o video, serán una tendencia cada vez más presente en la región. El modo de operar para estos casos sigue un esquema basado en la tecnología “deepfake”, donde con programas de Inteligencia Artificial y aprendizaje automático, que permiten copiar los patrones de una persona a través de archivos públicos, los ciberdelincuentes pueden llevar a cabo sus crímenes.

“Se emplea un software para imitar la voz, con el objetivo de engañar o estafar a otras personas, mientras que, en el caso de la creación de videos, se logra imitar la cara y los movimientos de un individuo. De esta manera, los criminales aprovechan herramientas que les permiten aumentar la credibilidad de los engaños”, declaran desde Appgate.

Actualmente existen distintos servicios por medio de sitios web en los que se pueden adquirir este tipo de suplantaciones, lo que ha democratizado y facilitado no solo la creación sino el acceso que tienen las personas al deepfake para usarlo con distintos fines.

¿Cómo protegerse?

Prevenir estafas mediante clonación de voz y ataques de ingeniería social, es crucial verificar la autenticidad de mensajes y llamadas, evitando entregar información personal como fecha de nacimiento, número de cédula de identidad o dirección de domicilio. Además, ante cualquier llamada inesperada lo mejor es desconfiar.

“Los cibercriminales generalmente utilizan tres elementos para captar la atención de quien se quiere estafar: urgencia, emoción y dinero. Los ciberdelincuentes querrán que se ejecute una acción rápida, y que seguramente traerá consigo una recompensa que apela a lo que más moviliza desde las emociones a esa persona. Por esto, si a una persona le dicen que la están llamando desde una entidad bancaria, es preferible cortar la llamada y consultar directamente la información con el ejecutivo del banco para tener seguridad de que la comunicación es verídica”, detalla López.

Mientras más alerta una persona esté, mejor preparado se encontrará para detectar suplantaciones. Otra recomendación para protegerse es pensar en la huella digital que un individuo deja, especialmente antes de compartir información en línea. Publicaciones en redes sociales pueden ser utilizadas para crear deepfakes, por lo que se aconseja ajustar la privacidad de redes como Facebook e Instagram, y limitar quién puede ver el contenido.

Fuente. Appgate

Realidad Turística
Nestle
Grupo Hotelero Islazul
Intecap
Centro Nacional de Cirugía de Mínimo Acceso de Cuba
blackanddecker
Walmart
INOR
Agexport
AVA Resorts
Tigo
Barceló Solymar
Instituto Hondureño de Turismo
MAD-HAV Enjoy Travel Group
Herbalife
CUN-HAV Enjoy Travel Group
Los Portales
Hoteles Gran Caribe
Irtra
Servicios Médicos Cubanos
Cervecería Centroamericana S.A.
Hoteles Gran Caribe

Related Articles

Instituto Hondureño de Turismo
AVA Resorts
Centro Nacional de Cirugía de Mínimo Acceso de Cuba
Intecap
Servicios Médicos Cubanos
blackanddecker
CUN-HAV Enjoy Travel Group
Hoteles Gran Caribe
INOR
Agexport
Herbalife
Realidad Turística
Hoteles Gran Caribe
Irtra
Walmart
Los Portales
Grupo Hotelero Islazul
Nestle
MAD-HAV Enjoy Travel Group
Barceló Solymar
Tigo
Cervecería Centroamericana S.A.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí
Captcha verification failed!
La puntuación de usuario de captcha falló. ¡por favor contáctenos!

Nestle
Irtra
Agexport
Los Portales
Herbalife
Centro Nacional de Cirugía de Mínimo Acceso de Cuba
Intecap
INOR
Hoteles Gran Caribe
blackanddecker
Grupo Hotelero Islazul
Walmart
MAD-HAV Enjoy Travel Group
Cervecería Centroamericana S.A.
Realidad Turística
Instituto Hondureño de Turismo
Hoteles Gran Caribe
Servicios Médicos Cubanos
Barceló Solymar
CUN-HAV Enjoy Travel Group
AVA Resorts
Tigo
- Advertisement -
Cubacel
Intecap
Hotel Barcelo Solymar
Tigo
AirEuropa
Revista Colombiana de Turismo Passport
Havanatur
Maggi - GLUTEN-FREE
Barcelo Guatemala City
Irtra
Vuelos a Cuba

Lo más leído...

- Advertisement -
Cubacel
Irtra
Barcelo Guatemala City
Revista Colombiana de Turismo Passport
Tigo
Havanatur
AirEuropa
Hotel Barcelo Solymar
Vuelos a Cuba
Intecap
Maggi - GLUTEN-FREE