Microsoft trabaja en nuevo framework para proteger a los sistemas de aprendizaje automático contra ataques - Masterhacks Blog

Microsoft trabaja en nuevo framework para proteger a los sistemas de aprendizaje automático contra ataques

Microsoft, en colaboración con MITRE, IBM, NVIDIA y Bosch, lanzó un nuevo framework abierto que tiene como objetivo ayudar a los analistas de seguridad a detectar, responder y remediar ataques adversarios contra sistemas de aprendizaje automático (ML).

Denominada como Adversarial ML Threat Matrix, la iniciativa es un intento de organizar las diferentes técnicas empleadas por adversarios maliciosos para subvertir los sistemas de ML.

Así como la inteligencia artificial (IA) y el aprendizaje automático se están implementando en una gran variedad de aplicaciones nuevas, los actores de amenazas no solo pueden abusar de la tecnología para impulsar su malware, sino que también pueden aprovecharla para engañar a los modelos de aprendizaje automático con conjuntos de datos envenenados, lo que genera sistemas beneficiosos para tomar decisiones incorrectas y representar una amenaza para la estabilidad y seguridad de las aplicaciones de IA.

Cabe mencionar que los investigadores de ESET encontraron el año pasado que Emotet, un malware basado en correo electrónico detrás de distintas campañas de spam impulsadas por botnets y ataques de ransomware, estaba utilizando ML para mejorar su orientación.

Después, a inicios de este mes, Microsoft advirtió sobre una nueva variedad de ransomware para Android, que incluía un modelo de aprendizaje automático que, aunque no se ha integrado en el malware, podría utilizarse para ajustar la imagen de la nota de rescate dentro de la pantalla del dispositivo móvil sin ninguna distorsión.

Según un informe de Gartner, citado por Microsoft, se espera que el 30% de todos los ataques cibernéticos de IA para 2022 aprovechen el envenenamiento de datos de entrenamiento, el robo de modelos o las muestras adversas para atacar los sistemas impulsados por el aprendizaje automático.

«A pesar de estas razones de peso para proteger los sistemas de aprendizaje automático, la encuesta de Microsoft que abarcó 28 empresas encontró que la mayoría de los profesionales de la industria aún no han llegado a un acuerdo con el aprendizaje automático contradictorio. 25 de las 28 empresas indicaron que no cuentan con las herramientas adecuadas para proteger sus sistemas de aprendizaje automático», dijo Microsoft.

Adversarial ML Threat Matrix espera abordar las amenazas contra el armamentismo de datos con un conjunto seleccionado de vulnerabilidades y comportamientos adversarios que Microsoft y MITRE examinaron para ser efectivos contra los sistemas de ML.

De este modo, las empresas pueden utilizar la Matriz de Amenazas de Aprendizaje Automático Adversario para probar la resistencia de sus modelos de inteligencia artificial simulando escenarios de ataque realistas utilizando una lista de tácticas para obtener acceso inicial al entorno, ejecutar modelos de aprendizaje automático inseguros, contaminar los datos de entrenamiento y exfiltrar información confidencial a través de ataques de robo de modelos.

«El objetivo de Adversarial ML Threat Matrix es posicionar los ataques a los sistemas de ML en un marco en el que los analistas de seguridad puedan orientarse en estas amenazas nuevas y futuras», dijo Microsoft.

«La matriz está estructurada como el marco ATT & CK, debido a su amplia adopción entre la comunidad de analistas de seguridad; de este modo, los analistas no tienen que aprender un marco nuevo o diferente para conocer las amenazas a los sistemas ML», agregó.

Gracias por apoyar el libre conocimiento con tu donación!
Bitcoin: bc1q4sw9260twfcxatj8mjp7358cyvrf8whzlelyhj
Ethereum: 0xFb93D2a3c9d1A0b83EE629c2dE1725BCa192e581
Litecoin: LbFduJmHvQXcpCnwfUT7aJ4DYoWSL3iQw8
Dogecoin: D7QQVqNR5rk215A4zd2gyzV9P2bLQtZHFV
Transferencia bancaria en México:
Cuenta CLABE: 646180224401848086 Nombre: Masterhacks LATAM Banco: STP

Unete a nuestros grupos:
WhatsApp: https://chat.whatsapp.com/C8fqiz3aDDc58VRRd1vdrb
Telegram: https://t.me/masterhacks_net
Canal de WhatsApp https://whatsapp.com/channel/0029VaBBLCn5vKAH9NOWCl3K

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *