Imprimir
Inicio »Especiales, Internet y TICs  »

Ataques adversarios: Cuando la Inteligencia Artificial se vuelve vulnerable

| 3 |

Imagen ilustrativa. Foto: Royalty-free / Gettyimages.ru

Hola mis estimados lectores de cada viernes. Sean bienvenidos una vez más a la columna Código Seguro. Como bien conocemos el aprendizaje profundo es una rama del aprendizaje automático que permite a los modelos computacionales compuestos por múltiples capas de procesamiento con un alto nivel de abstracción aprender de la experiencia y percibir el mundo en términos de jerarquía de conceptos. Utiliza el algoritmo de retropropagación para descubrir detalles complejos en grandes conjuntos de datos con el fin de calcular la representación de los datos en cada capa a partir de la representación en la capa anterior.

En los últimos años, se ha descubierto que el aprendizaje profundo es extraordinario a la hora de proporcionar soluciones a problemas que no eran posible resolver con las técnicas convencionales de aprendizaje automático. Con la evolución de los modelos de redes neuronales profundas (DNN) y la disponibilidad de hardware de alto rendimiento para entrenar modelos complejos, el aprendizaje profundo ha logrado avances notables en los campos tradicionales de la clasificación de imágenes, el reconocimiento de voz y la traducción de idiomas, así como en áreas más avanzadas como el análisis del potencial de moléculas farmacológicas, la reconstrucción de circuitos cerebrales, el análisis de datos de aceleradores de partículas y los efectos de las mutaciones en el ácido desoxirribonucleico (ADN).

Las redes de aprendizaje profundo, con su precisión sin igual, han supuesto una gran revolución en los servicios basados en inteligencia artificial (IA) en Internet, incluidos los servicios de IA basados en la computación en la nube de empresas comerciales como Google, Alibaba y las correspondientes propuestas de plataformas de Intel y Nvidia. El uso extensivo de aplicaciones basadas en el aprendizaje profundo se puede observar en entornos críticos para la seguridad, como la detección de programas malignos, los coches autónomos, los drones y la robótica. Con los recientes avances en los sistemas de reconocimiento facial, los cajeros automáticos y los teléfonos móviles utilizan la autenticación biométrica como medida de seguridad; los sistemas controlables por voz y los modelos de reconocimiento automático del habla han permitido crear productos como los archiconocidos Amazon Alexa, Apple Siri y Microsoft Cortana.

Sin embargo, esta tecnología no es infalible. A medida que las DNN han pasado de los laboratorios al mundo real, la seguridad y la integridad de las aplicaciones suscitan gran preocupación. Existe una amenaza silenciosa pero poderosa que compromete su fiabilidad: los llamados ataques adversarios. Estos no son hackeos convencionales, sino manipulaciones sutiles diseñadas específicamente para engañar a los algoritmos de aprendizaje automático. El peligro radica en que cambios mínimos en los datos de entrada, imperceptibles para el ojo humano, pueden llevar a un sistema de IA a cometer errores graves con consecuencias potencialmente catastróficas.

Los ataques adversarios explotan una característica fundamental de las redes neuronales: su dependencia de patrones estadísticos en los datos. A diferencia de los humanos, que reconocemos objetos basándonos en características generales, estos sistemas procesan información matemáticamente. Esto los hace vulnerables a perturbaciones cuidadosamente calculadas. Por ejemplo, investigadores han demostrado que, añadiendo un ruido específico a una imagen de un stop, casi invisible para nosotros, un sistema de visión por computadora puede interpretarla erróneamente como una señal de velocidad máxima.

El alcance de estos ataques es alarmantemente amplio. En el ámbito de la seguridad, podrían usarse para evadir sistemas de reconocimiento facial en aeropuertos o instalaciones gubernamentales. En el sector financiero, podrían manipular algoritmos de detección de fraude. Los vehículos autónomos representan uno de los casos más preocupantes, donde alteraciones mínimas en señales de tránsito o marcas viales podrían provocar accidentes. Incluso en el campo médico, donde la IA se usa para analizar radiografías, un ataque adversario podría llevar a diagnósticos erróneos con consecuencias potencialmente mortales.

Existen varias formas en que estos ataques se materializan. Los ataques de evasión operan modificando ligeramente los datos de entrada para engañar al modelo ya entrenado. Los ataques de envenenamiento son más insidiosos, corrompiendo el conjunto de datos de entrenamiento para que el modelo aprenda comportamientos incorrectos desde su fase de desarrollo. Otro tipo preocupante son los ataques de extracción, donde un adversario puede interactuar con un modelo para reconstruir su funcionamiento interno, obteniendo así información valiosa sobre su arquitectura y parámetros.

Frente a esta amenaza, la comunidad de investigación en IA ha desarrollado diversas estrategias defensivas. El entrenamiento adversario ha emergido como una de las técnicas más prometedoras, donde se exponen los modelos a ejemplos adversarios durante su fase de aprendizaje para mejorar su resistencia. Otra línea de defensa importante es la detección de anomalías, donde sistemas secundarios monitorean las entradas para identificar posibles manipulaciones antes de que lleguen al modelo principal. También se están desarrollando técnicas de regularización que hacen los modelos menos sensibles a pequeñas perturbaciones en los datos.

El futuro de esta batalla tecnológica es incierto pero crucial. A medida que los sistemas de IA se vuelven más complejos y se integran en áreas críticas de la sociedad, los ataques adversarios probablemente aumentarán en sofisticación. Esto plantea desafíos éticos y regulatorios importantes. ¿Cómo garantizar la seguridad de sistemas cuya toma de decisiones no siempre es transparente? ¿Quién debe ser responsable cuando un ataque adversario cause daños? Estas preguntas no tienen respuestas simples, pero es claro que la seguridad adversarial debe convertirse en una prioridad desde las primeras etapas del desarrollo de sistemas de IA.

La investigación en este campo avanza rápidamente, pero es una carrera contra el tiempo. Cada nuevo avance en aprendizaje automático trae consigo nuevas vulnerabilidades potenciales. La colaboración entre investigadores, empresas y gobiernos será esencial para establecer estándares de seguridad robustos. Al mismo tiempo, es crucial educar a los desarrolladores sobre estas amenazas y las mejores prácticas para mitigarlas.

En última instancia, los ataques adversarios nos recuerdan que la inteligencia artificial, por más avanzada que sea, sigue siendo un producto humano con limitaciones humanas. Su seguridad no puede darse por sentada. A medida que confiamos más en estos sistemas para tomar decisiones importantes, debemos invertir igual esfuerzo en entender y protegerlos contra estas amenazas sutiles, pero potencialmente devastadoras. El camino hacia una IA verdaderamente confiable pasa por reconocer sus vulnerabilidades y abordarlas de manera sistemática y proactiva.

Este desafío no es solo técnico, sino también social y ético. La próxima generación de sistemas de aprendizaje automático deberá diseñarse no solo para ser inteligentes, sino también resistentes. En este nuevo paradigma de seguridad, la pregunta ya no es si un sistema de IA puede realizar una tarea, sino si puede hacerla de manera segura y confiable frente a adversarios determinados. La respuesta a esta pregunta determinará en gran medida el futuro de la inteligencia artificial y su papel en nuestra sociedad. Por hoy nos despedimos hasta la próxima semana.

Se han publicado 3 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

  • Rogelio López Rodríguez dijo:

    Muy interesante sus artículos. ¿Cómo anda el desarrollo de la IA cubana?

    • Rey dijo:

      La IA cubana tiene una larga historia, con casi las mismas cimas y simas que la IA en todo el planeta, con las especificidades cubanas.
      El primer trabajo sobre IA se publicó en 1968, por el profesor Luciano García, de la UH. Luego hubo un alza desde finales de los 70 y hasta finales de los 90. Hubo aportes teóricos relevantes u resultados prácticos, de hecho recuerdo se llegó a vender un Shell basado en lógica Fuzzy en Brasil.
      Luego vino el invierno de la IA en los 90 , con la salvedad de que en Cuba coincidió con el período especial y todo lo que trajo eso, haciendo más frío al invierno.
      Ahora, hasta donde puedo percibir, hay un renacimiento, de nuevo acorde a lo que pasa en el mundo, al menos desde las universidades y los centros de investigación, hay mucha gente investigando, las tesis lo reflejan, ya tenemos el primer LLM cubano.

      No obstante, también a mi entender todavía no existe la misma cantidad de grupos consolidados con núcleos y líderes en la medida que llegó a ser en los 80 pero eso debe ser cuestión de tiempo para que se alcance la " masa crítica".

      • Rey dijo:

        Quise decir hasta finales de los 80, no de los 90.

Se han publicado 3 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Antonio Hernández Domínguez

Antonio Hernández Domínguez

Ingeniero en Ciencias Informáticas en el 2009. Profesor Auxiliar de la Universidad de las Ciencias Informáticas. Imparte docencia de pregrado en Matemática, Sistemas de Bases de Datos y Programación Web. Actualmente es matrícula de la Maestría en Informática Avanzada. Sus intereses de investigación incluyen matemáticas, ingeniería informática, bases de datos, seguridad de la información y minería de datos.

Vea también