Inicio » Machine Learning » Adversarial Machine Learning. ¿Qué es?

Adversarial Machine Learning. ¿Qué es?

¿Alguna vez has oído hablar del adversal machine learning? ¿Sabes qué importantes implicaciones tiene este concepto en el ámbito de la seguridad informática? No te preocupes, sean cuales sean tus respuestas a estas preguntas, has llegado al sitio indicado. Nosotros, a lo largo del presente artículo, vamos a darte sus claves fundamentales.

Al fin y al cabo, conceptos tales como el big data, la IA y el aprendizaje automático están cada vez más presentes en ámbitos de lo más diverso, como la medicina, las traducciones, la publicidad y el reconocimiento facial. Esto es lo que hace tan interesante el ámbito del que aquí te hablamos, que actualmente ofrece una enorme cantidad de oportunidades laborales. Por eso aprender sobre ello nunca es una mala idea. ¡Vamos allá!

¿Qué es el adversarial machine learning?

El adversal machine learning ataque adversario puede ser definido, a grandes rasgos, como un ataque informático destinado a manipular una inteligencia artificial de manera que dé lugar a predicciones y evaluaciones incorrectas. Partiendo de la idea de que la IA presenta un potencial extraordinario y que sus funcionalidades pueden llegar a revolucionar el mundo, no hay que olvidar que, en malas manos, pueden ser muy peligrosas.

Ahí radica el problema de estos ataques, que se introducen en la IA de su víctima y la manipulan para ponerla a su servicio y, consecuentemente, ocasionar problemas más o menos graves. Muchas veces el objetivo es obtener un beneficio a través de la amenaza, del secuestro de datos o del sabotaje de un modelo de la competencia.

¿Cómo se lleva adelante un ataque adversario?

Partimos de la idea de que el aprendizaje automático permite a los ordenadores aprender por sí mismos a través de grandes cantidades de datos, sin necesidad de que se les vaya programando cada vez para que puedan realizar nuevas tareas. En esta línea, el aprendizaje automático inverso o adversario manipula tal aprendizaje para que los resultados sean distintos a los que cabría esperar.

Tal manipulación se lleva a cabo de la siguiente manera:

  1. Se introduce un malware en los equipos de la víctima.
  2. Se generan datos incorrectos o se modifica el contenido de los datos ya introducidos.
  3. Se fuerza, a través del punto anterior, a que la IA tome una decisión incorrecta o contraria a la que debería tomar.
  4. Se hace imposible, mediante tales perturbaciones, que la IA aplique el machine learning de manera conveniente.

Los tipos de ataques adversarios que existen

Si analizas el comportamiento de los cibercriminales, podrás ver que no todos actúan de la misma manera. Sus estrategias, decisiones y actuaciones varían de acuerdo a los objetivos, medios y enemigos que tengan. Esto ha hecho posible clasificar sus ataques en distintos tipos. Evidentemente, esto ayuda enormemente a los profesionales de la seguridad, pues, cuanto más conozcan de los atacantes y de sus estrategias, más fácilmente podrán prevenir las consecuencias negativas.

Ataques de envenenamiento (poisoning)

Los ataques de envenenamiento consisten en la presentación de datos mal etiquetados de manera consciente por el cibercriminal, de manera que los procedimientos de categorización automática de una determinada IA los clasifique indebidamente. Evidentemente, esto da lugar a decisiones inexactas o sesgadas.

Además, dado que los dispositivos de aprendizaje automático acumulan progresivamente sus conocimientos, se genera una espiral de errores que empeora progresivamente. Se trata de un ataque de alto grado de sutilidad y muy sigiloso, que requiere, para su detección, a un data scientist con experiencia.

Ataque de evasión o exploratorios

A diferencia del anterior, este no ocurre en la etapa de clasificación o categorización de datos, sino directamente sobre la de predicción. De esta forma, el cibercriminal trata de introducir gran cantidad de ruido en los momentos en los que la IA está tomando su decisión final, ocasionando que esta sea incorrecta.

Ataques de extracción

Este se diferencia bastante de los anteriores. No sigue el esquema clásico de ataque adversario que te hemos planteado más arriba. Básicamente consiste en la extracción de datos de una IA con tal de copiarlos y utilizarlos en el propio beneficio. Más que un sabotaje, consiste en un robo o ataque a la propiedad intelectual.

Ataque de inversión

Muy parecido al anterior, este también desea robar datos. Sin embargo, no se centra en la violación de la propiedad intelectual del programador de la IA concreta, sino en la vulneración del derecho a la intimidad. El ciberatacante toma el big data manejado por la IA para tratar de encontrar datos sensibles que poder usar a su favor.

Para entender la gravedad de esta clase de ataque basta con imaginar la posibilidad de que un criminal robe los datos médicos introducidos en una IA por un hospital con el fin de obtener estadísticas sobre la prevalencia de determinadas infecciones.

¿Es posible mitigar o reducir estos ataques de cibercriminales?

Por suerte, en la actualidad sí es posible introducir medidas de seguridad capaces de impedir, o al menos dificultar en gran medida, esta clase de ataques. Lo importante es contar con profesionales del sector capaces de conocer en profundidad los entresijos de la IA, del modo en el que el aprendizaje automático funciona y de la manera en la que los criminales informáticos actúan.

Evidentemente, aquí es clave la formación. Tan solo aquellos individuos debidamente formados en este ámbito son capaces de ofrecer al mercado laboral y a las empresas la seguridad suficiente de estar contando con servicios expertos. Por supuesto, centros educativos como el nuestro, IMF, son los que presentan suficiente prestigio como para dar lugar a alumnos bien formados y con una proyección laboral extraordinaria en este ámbito.

En definitiva, ya has podido ver hasta qué punto la IA puede volverse en contra si es manipulada mediante el uso de machine learning torticero y negativo. Ante ello, el sector de las tecnologías exige cada vez más profesionales en el mundo del big data, la ciberseguridad y el manejo de inteligencias artificiales. Por eso te recomendamos que te animes a formarte en este ámbito. 

¡Estudiar nuestro Máster en Big Data te ayudará a alcanzar tus sueños pronto!

Formación Relacionada

Las dos pestañas siguientes cambian el contenido a continuación.
Equipo de profesionales formado esencialmente por profesores y colaboradores con amplia experiencia en las distintas áreas de negocio del mundo empresarial y del mundo académico. IMF Smart Education pertenece a la AACSB, a la AMBA, a la AEEN y a ANCED, entre otras organizaciones. Sus programas cuentan con el aval de ANECA, Cambridge y Oxford y la alta valoración de sus más de 110.000 alumnos. Está incluida en el Ranking The Best Global MBA 2018 y reconocida como Emagister Cum Laude desde 2015. Cuenta con los sellos de calidad EFQM 5star, Excelencia Europea, Madrid Excelente, ISO 9001 e ISO 14001. Escuela de Negocios Nº1 del mundo en el EFQM Global Index.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¡Noticias, eventos y formación!

Suscríbete ahora y recibe los mejores contenidos sobre Negocios, Prevención, Marketing, Energías Renovables, Tecnología, Logística y Recursos Humanos.

Acepto recibir comunicaciones comerciales por parte del grupo IMF
He leído y acepto las condiciones


Adversarial Machine Learning. ¿Qué es?

El Adversarial Machine Learning es un concepto realmente importante dentro de la ciberseguridad y el Big Data del que tienes que aprender.