Aunque todavía quede mucho desarrollo de IA por delante, en los últimos años hemos experimentado una gran evolución en este tipo de tecnología. Los ciberdelincuentes se han aprovechado: antes imitar voces, crear rostros realistas o manipular asistentes virtuales implicaba horas de preparación; ahora, es cuestión de minutos.
Zerod es un marketplace de white hackers y sus expertos se encargan de detectar estafas impulsadas por IA. En una nota de prensa publicada en septiembre de 2025, sus investigadores alertan que las más preocupantes son:
- El robo masivo de credenciales y datos financieros dirigido especialmente al sector hotelero, utilizando phishing automatizado con IA.
- Los deepfakes con impacto político.
- Los fraudes de identidad sofisticados que aprovechan técnicas como el voice cloning o el prompt injection.
Más baratos, más creíbles y más difíciles de detectar
Los expertos de Zerod consideran que los ataques que usan IA son más baratos, más creíbles y más difíciles de detectar. Según señala Víctor Ronco, CEO de la firma, el sector del turismo es uno de los más vulnerables. Aunque también hay cibercrímenes destinados a difundir fake news o a suplantar identidad de personas conocidas.
“En los últimos seis meses hemos visto cómo operaciones que antes requerían días de preparación, como grabar un audio falso o crear una web trampa, hoy se pueden replicar en cuestión de minutos y a gran escala -comenta Ronco-. Eso obliga a repensar por completo las defensas, porque el adversario juega ahora con una ventaja de velocidad y realismo”. El auge en esta materia del cibercrimen está relacionada con el uso de IA.
Las estafas de hoteles o agencias
Los estafadores suelen suplantar la identidad de empleados de agencias o cadenas hoteleras usando chats y correos generados por IA para robar credenciales y datos bancarios de los clientes. También se pueden encontrar mensajes falsos de Booking u otras empresas que actúan como intermediarios entre el cliente y el alojamiento.
“Con sistemas de mensajería automatizada, pueden atender a decenas de víctimas a la vez y generar comunicaciones que imitan el tono corporativo de un hotel real -explica Ronco-. Una vez obtienen las credenciales, las utilizan para realizar transferencias fraudulentas, compras no autorizadas o incluso para vender esos datos en mercados clandestinos”.
Desinformación política
También están los deepfakes políticos, utilizados para difundir desinformación, en especial durante las campañas electorales. Ronco advierte que cada vez son más los vídeos y audios falsos que parecen auténticos y buscan «socavar la reputación de un candidato o provocar desconfianza en procesos democráticos». Zerod resalta que, en 2024, se detectaba un intento de deepfake cada cinco minutos a nivel mundial.
He decidido fundar un partido político y pediros el voto.
— Pau Garcia-Milà (@pau) September 30, 2025
¿El problema? Ese del vídeo no soy yo.
Así de fácil es caer en un deepfake.
Te lo cuento en 1 minuto ⤵️ pic.twitter.com/9V4gGzbrHv
Clonación de voz
En lo que respecta a la clonación de voz, la IA ofrece resultados muy realistas y permite crear audios que simulen la voz de un directivo, proveedor o incluso familiar en segundos. “Esa clonación se utiliza en llamadas (vishing) para ordenar transferencias urgentes o convencer a un empleado de que comparta información sensible”, detalla el CEO de Zerod.
En ocasiones, la clonación va acompañada de técnicas como prompt injection, que consiste en inyectar instrucciones maliciosas en asistentes de IA, que aprovechan vulnerabilidades en apps corporativas para acceder a datos confidenciales de empresas.
Ante esta situación, Ronco recuerda que es mejor prevenir que recuperar: «Empresas turísticas, partidos políticos y administraciones públicas deben asumir que ya no basta con el antivirus tradicional y es que la identidad digital se ha convertido en el verdadero campo de batalla». Invertir en una buena prevención sale más barato que tener que pagar por la recuperación del robo de datos.
La IA también puede ser tu aliada
Los avances de IA no solo sirven para las ciberestafas u otras técnicas delictivas digitales. Esta tecnología también puede utilizarse para proteger a los usuarios o a empresas. «La misma tecnología que usan los delincuentes puede utilizarse para defender, pero con la ventaja de la velocidad y exhaustividad que solo la IA puede ofrecer», recalca Víctor Ronco.
Existen herramientas capaces de analizar los dispositivos de forma completamente autónoma. No solo detectan la descarga de un archivo sospechoso de esconder malware, sino que exploran posibles vulnerabilidades a través de pruebas de penetración exhaustivas en entornos controlados. De esta manera, comprueban si hay brechas de seguridad antes de que un atacante pueda usarla.
Fuente: adslzone