Google amplía su programa Bug Bounty para abordar las amenazas de inteligencia artificial

0

Google amplía su programa Bug Bounty para abordar las amenazas de inteligencia artificial

Google anunció una inversión de 10 mil millones de dólares en India, como parte del proyecto de digitalización de ese país

Google ha comunicado su ampliación del Programa de Recompensas por Vulnerabilidades (VRP) con el propósito de remunerar a los investigadores que identifiquen escenarios de ataque diseñados para sistemas de inteligencia artificial generativa (IA), en un esfuerzo por reforzar la seguridad y fiabilidad de la IA.

Laurie Richardson y Royal Hansen de Google han señalado que «la IA generativa plantea preocupaciones distintas y novedosas en comparación con la seguridad digital tradicional, como la posibilidad de sesgos injustos, manipulación de modelos o interpretaciones erróneas de datos (alucinaciones)».

Entre las categorías incluidas en el ámbito del programa se encuentran las inyecciones de instrucciones, la filtración de datos confidenciales de conjuntos de datos de entrenamiento, la manipulación de modelos, los ataques de perturbación adversaria que inducen a errores en la clasificación y el robo de modelos.

Es importante mencionar que Google, a principios de julio, estableció un Equipo Rojo de IA para abordar las amenazas a los sistemas de IA como parte de su Marco de IA Segura (SAIF).

Además, como parte de su compromiso con la IA segura, Google también ha anunciado esfuerzos para fortalecer la cadena de suministro de IA a través de iniciativas de seguridad de código abierto existentes, como Niveles de la Cadena de Suministro para Artefactos de Software (SLSA) y Sigstore.

«Las firmas digitales, como las que ofrece Sigstore, permiten a los usuarios verificar que el software no ha sido alterado o reemplazado», destacó Google.

«Los metadatos, como la procedencia de SLSA, proporcionan información sobre el contenido del software y cómo se construyó, lo que permite a los consumidores garantizar la compatibilidad de licencias, identificar vulnerabilidades conocidas y detectar amenazas más avanzadas».

Este anuncio coincide con la presentación por parte de OpenAI de un nuevo equipo interno de Preparación que se encargará de «rastrear, evaluar, prever y proteger» contra riesgos catastróficos relacionados con la IA generativa, abarcando amenazas en ciberseguridad, químicas, biológicas, radiológicas y nucleares (CBRN).

Además, ambas empresas, junto con Anthropic y Microsoft, han anunciado la creación de un Fondo de Seguridad de IA de $10 millones, enfocado en promover la investigación en el ámbito de la seguridad de la IA.


Gracias por apoyar el libre conocimiento con tu donación!
Bitcoin: bc1q4sw9260twfcxatj8mjp7358cyvrf8whzlelyhj
Ethereum: 0xFb93D2a3c9d1A0b83EE629c2dE1725BCa192e581
Litecoin: LbFduJmHvQXcpCnwfUT7aJ4DYoWSL3iQw8
Dogecoin: D7QQVqNR5rk215A4zd2gyzV9P2bLQtZHFV
Transferencia bancaria en México:
Cuenta CLABE: 661610005838513425 Nombre: Masterhacks LATAM Banco: Alternativos

Unete a nuestros grupos:
WhatsApp: https://chat.whatsapp.com/HcazyklpyeU4X3BF657KFQ
Telegram: https://t.me/masterhacks_net
Canal de WhatsApp https://whatsapp.com/channel/0029VaBBLCn5vKAH9NOWCl3K

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *