Clicky

Están llegando los ataques cibernéticos de inteligencia artificial, pero ¿qué significa eso?

ciber ataque de IA

La automatización puede hacer que los ataques complejos sean mucho más rápidos y eficaces

El siguiente ciberataque importante podría implicar sistemas de inteligencia artificial (IA). Incluso podría suceder pronto. En una reciente conferencia de ciberseguridad, 62 profesionales de la industria, de los 100 encuestados, dijeron que pensaban que el primer ciberataque mejorado con IA podría llegar en los próximos 12 meses.

Esto no significa que robots marcharán por la calle principal. Más bien, la inteligencia artificial hará que los esfuerzos de ciberataque existentes - cosas como robo de identidad, ataques de denegación de servicio y cracking de contraseñas - sean más potentes y más eficientes. Esto es bastante peligroso - este tipo de hacking puede robar dinero, causar daño emocional (anchivo PDF) e incluso herir o matar a la gente. Los ataques más grandes pueden cortar la electricidad a cientos de miles de personas, cerrar hospitales e incluso afectar a la seguridad nacional.

La interpretación de las acciones humanas sigue siendo difícil para la IA y los humanos no confían realmente en los sistemas de IA para tomar decisiones importantes. Por lo tanto, a diferencia de las películas, las capacidades que la IA podría traer a los ataques cibernéticos - y a la ciberdefensa - probablemente no involucrarán inmediatamente a las computadoras para elegir objetivos y atacarlos por su cuenta. La gente todavía tendrá que crear ataques de sistemas IA, y lanzarlos a objetivos específicos. Pero, sin embargo, agregando IA al mundo de la cibercriminalidad y la ciberseguridad de hoy escalará lo que ya es una carrera de armamentos que cambia rápidamente entre atacantes y defensores.

Ataques más rápidos

Más allá de la falta de comida y sueño de las computadoras - las necesidades que limitan los esfuerzos de los hackers humanos - incluso cuando trabajan en equipo, la automatización puede hacer que los ataques complejos sean mucho más rápidos y eficaces.

Hasta la fecha, los efectos de la automatización han sido limitados. Capacidades rudimentarias similares a la IA han proporcionado durante décadas a los programas antivirus la capacidad de auto-replicarse, extendiéndose de una computadora a otra sin instrucciones humanas específicas. Además, los programadores han utilizado sus habilidades para automatizar los diferentes elementos de los esfuerzos de piratería. Los ataques distribuidos, por ejemplo, implican el desencadenamiento de un programa remoto en varios ordenadores o dispositivos para abrumar a los servidores. El ataque que cerró grandes secciones de Internet en octubre de 2016 utilizó este tipo de enfoque. En algunos casos, los ataques comunes se ponen a disposición como un script que permite a un usuario poco sofisticado elegir un objetivo y lanzar un ataque contra él.

La IA, sin embargo, podría ayudar a los ciberdelincuentes humanos a personalizar los ataques. Los ataques de Spearphishing, por ejemplo, requieren que los atacantes tengan información personal sobre posibles blancos, detalles como el lugar de su banco o la compañía de seguros médicos que utilizan. Los sistemas de IA pueden ayudar a recopilar, organizar y procesar grandes bases de datos para conectar la información de identificación, haciendo este tipo de ataque más fácil y rápido de llevar a cabo. Esta reducción de la carga de trabajo puede conducir a los ladrones a lanzar muchos ataques más pequeños que pasan desapercibidos durante un largo período de tiempo -si se detectan en absoluto- debido a su impacto más limitado.

Los sistemas de inteligencia artificial podrían incluso utilizarse para extraer información de múltiples fuentes para identificar a personas que serían particularmente vulnerables a los ataques. Alguien que está hospitalizado o en un asilo de ancianos, por ejemplo, puede no notar el dinero que falta de su cuenta hasta mucho tiempo después de que el ladrón se ha ido.

Adaptación mejorada

Los atacantes habilitados para IA también serán mucho más rápidos para reaccionar cuando se encuentren con resistencia, o cuando los expertos en ciberseguridad solucionen las debilidades que previamente habían permitido la entrada de usuarios no autorizados. La IA puede ser capaz de explotar otra vulnerabilidad - o comenzar a explorar nuevas formas en el sistema - sin esperar instrucciones humanas.

Esto podría significar que los respondedores y defensores humanos se encuentran incapaces de mantenerse al día con la velocidad de los ataques entrantes. Puede resultar en una carrera de armamentos tecnológicos y de programación, con defensores desarrollando asistentes de IA para identificar y protegerse contra los ataques - o quizás incluso IA con capacidades de ataques de represalia.

Evitar los peligros

Operar de manera autónoma podría llevar a los sistemas de IA a atacar un sistema que no debería, o causar un daño inesperado. Por ejemplo, el software iniciado por un atacante con la intención de robar dinero podría decidir dirigirse el solo a una computadora del hospital de una manera que cause lesiones humanas o la muerte. La posibilidad de que los vehículos aéreos no tripulados funcionen de manera autónoma ha planteado cuestiones similares sobre la necesidad de que los seres humanos tomen las decisiones sobre los objetivos.

Las implicaciones y consecuencias son significativas, pero la mayoría de la gente no notará un gran cambio cuando se desencadene el primer ataque de IA. Para la mayoría de los afectados, el resultado será el mismo que los ataques provocados por humanos. Pero a medida que continuamos llenando nuestras casas, fábricas, oficinas y carreteras con sistemas robotizados conectados a Internet, los efectos potenciales de un ataque por inteligencia artificial crecen exponencialmente.

Jesus_Caceres