Ciberseguridad | Noticias | 02 DIC 2016

¿Podrá la Inteligencia Artificial llevarnos a una guerra cibernética entre máquinas?

La inteligencia artificial podría cambiar el tipo de hackers a los que estamos acostumbrados, entrando en una batalla máquina vs máquina.
inteligencia artificial

Los hackers no serán necesariamente seres humanos en un futuro. La inteligencia artificial - una tecnología que también promete revolucionar la ciberseguridad - podría convertirse algún día en la herramienta de hacking.

Los organizadores del Cyber ​​Grand Challenge, un concurso patrocinado por la agencia de defensa estadounidense DARPA, hicieron un experiemento en el que siete supercomputadores se enfrentaron entre sí para demostrar que las máquinas pueden encontrar y corregir vulnerabilidades de software.

Teóricamente, la tecnología se puede utilizar para perfeccionar cualquier codificación, librándola de los defectos. Pero, ¿y si ese poder fuera usado con fines maliciosos? El futuro de la ciberdefensa también podría allanar el camino para una nueva era de hacking.

Los posibles peligros
Por ejemplo, los ciberdelincuentes pueden utilizar esas capacidades para analizar el software de vulnerabilidades previamente desconocidas y luego explotarlas para mal. Sin embargo, a diferencia de un ser humano, la AI puede hacer esto con la eficiencia de la máquina. Los hacks que consumían mucho tiempo para desarrollarse podrían convertirse en productos baratos en este escenario de pesadilla.

Es un riesgo que los expertos en ciberseguridad conocen bien, en un momento en que la industria de la tecnología ya está desarrollando automóviles autodirigidos, robots avanzados y otras formas de automatización. 

La compañía de Melski fue una de las que construyó un superordenador para participar en el Cyber ​​Grand Challenge de agosto. La firma está considerando usar esa tecnología para ayudar a los vendedores a prevenir fallos en sus dispositivos de IoT o hacer que los navegadores de Internet sean más seguros.

"Sin embargo, el descubrimiento de vulnerabilidades es una espada de doble filo", asegura David Melski, vicepresidente de investigación de GrammaTech. 

Por lo tanto, no es difícil para los expertos en seguridad imaginar un lado oscuro potencial - uno donde la iteligencia artificial puede construir o controlar poderosas ciberguerras. Melski señaló el caso de Stuxnet, un gusano de ordenador malintencionado diseñado para interrumpir el programa nuclear de Irán.

Aprovechar el potencial

Es posible que estos servicios de 'rent-a-hacker' eventualmente incorporen tecnologías IA que puedan diseñar estrategias de ataque completas, lanzarlas y calcular la tarifa asociada. 

Sin embargo, todavía ninguna empresa ha creado una verdadera inteligencia artificial. La industria en su lugar ha llegado a tecnologías que pueden jugar juegos mejor que un ser humano, actuar como asistentes digitales, o incluso diagnosticar enfermedades raras.

Empresas de ciberseguridad como Cylance también han estado utilizando un subconjunto de AI llamado aprendizaje de máquinas para detener el malware. Se trata de la construcción de modelos matemáticos basados ​​en muestras de malware que pueden medir si determinada actividad en un ordenador es normal o no.

Escalada
Un inconveniente es que el uso de la máquina de aprendizaje puede ser caro. Cualquier persona que intente utilizar las tecnologías de IA con fines maliciosos se enfrentaría a esta barrera de entrada. Además, también tendrá que contar con los mejores profesioales para desarrollar la programación. Pero con el tiempo, los costes disminuirán.

Sin embargo, el día en que los piratas informáticos recurran al uso de la AI puede estar lejos.hasta ahora no se ha hecho, simplemente porque no es necesario, hay suficientes defectos conocidos. Hasta el día de hoy, muchos hacks se producen después de que un correo electrónico de phishing que contiene malware se envía al destino. En otros casos, las víctimas aseguraron sus inicios de sesión con contraseñas débiles o se olvidaron de actualizar su software con el último parche, haciéndolos más fáciles de hackear.

Las tecnologías de IA como el aprendizaje automático ha mostrado el potencial para resolver algunos de estos problemas, dijo Justin Fier, director de ciberinteligencia de la empresa de seguridad Darktrace. Pero puede ser sólo una cuestión de tiempo antes de que los hackers eventualmente mejoren su arsenal. "Parece que estamos entrando en un mundo de guerra cibernética máquina versus máquina", dijo Fier.

 

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información