El potencial de la Inteligencia Artificial es enorme y sus límites desconocidos, por lo que algunas personalidades como Elon Musk han advertido de los riegos que podría correr la humanidad en caso no regularla para evitar la creación de computadoras y robots destinados ser utilizados como armas de destrucción masiva. De hecho, cada vez menos personas dudan de la futura existencia de “terminators” y “skynets” ante el avance combinado de unos robots que van ganando en agilidad y el de la Inteligencia Artificial. Pero los potenciales “terminators” y “skynets” no son los únicos peligros, ya que esta también puede ser utilizada para crear o potenciar malware o herramientas de ataque.

Investigadores de IBM Research han desarrollado una herramienta de ataque “altamente dirigida y evasiva” apoyada en Inteligencia Artificial, a la que han decidido llamar DeepLocker y tiene como principal función principal la posibilidad de ocultar su intención maliciosa hasta que un objetivo específico haya sido infectado. Los investigadores de la multinacional han dicho que la han desarrollado “para comprender mejor cómo varios modelos de IA existentes se pueden combinar con las técnicas de malware actuales para crear una nueva clase de malware especialmente desafiante.”

Para realizar correctamente su función, DeepLocker es capaz de de evitar su detección y activarse él mismo cuando se den una serie de condiciones específicas. La Inteligencia Artificial abre las puertas a una gran cantidad de nuevas posibilidades dentro del malware, sobre todo cuando se trata de estados que buscan lanzar ataques sofisticados contra objetivos muy concretos. Por ejemplo, en el caso que nos ocupa, podría ocultarse y seleccionar el objetivo según reconocimiento de voz o facial, geololización o apoyándose en otras funciones del sistema. Profundizando en sus capacidad, IBM ha dicho lo siguiente:

Lo que es único acerca de DeepLocker es que el uso de la Inteligencia Artificial hace que las “condiciones de activación” para desbloquear el ataque sean casi imposibles de realizar con ingeniería inversa. La carga útil maliciosa solo se desbloqueará si se alcanza el objetivo deseado, algo que logra utilizando un modelo de Red Neuronal Profunda de Inteligencia Artificial.

Los investigadores han mostrado una prueba de concepto en la que se ve cómo el peligroso ransomware WannaCry quedaba camuflado por DeepLocker (cuyo nombre traducido sería bloqueado profundo) dentro una aplicación benigna de videoconferencias para que no fuera detectado por las herramientas de análisis de malware, incluyendo motores de antimalware y soluciones de sandbox. En cuanto se den las condiciones desencadenantes, como por ejemplo el reconocer la cara de una persona concreta, DeepLocker pasaría a desbloquear WannaCry, que entraría en acción para provocar sus habituales grandes daños.

Por lo que se puede ver, la Inteligencia Artificial podría poner en aprietos a las soluciones de protección disponibles ahora en el mercado, gracias a que puede hacer que malware potente pase desapercibido mediante su bloqueo dentro de aplicaciones aparentemente legítimas, y esto es solo una demostración del potencial que podría alcanzar.

 

Fuente: Security Affairs | muyseguridad