Google refuerza la seguridad en la IA Generativa

Google ha anunciado recientemente una serie de medidas diseñadas para mejorar la seguridad en la inteligencia artificial (IA) generativa, marcando un paso significativo hacia la protección de esta tecnología emergente. Estas iniciativas incluyen la expansión de su programa de recompensas por vulnerabilidades (VRP) específico para escenarios de ataque en IA generativa y la implementación de nuevas herramientas de seguridad para las cadenas de suministro de IA en código abierto.

La Evolución de las Amenazas Cibernéticas y la Respuesta de Google

Las amenazas cibernéticas evolucionan rápidamente, y algunas de las vulnerabilidades más graves no son descubiertas por las empresas, sino por investigadores de seguridad externos. Reconociendo esto, Google tiene una larga tradición de apoyo a la seguridad colectiva a través de programas como el Vulnerability Rewards Program (VRP) y Project Zero. Con la expansión del VRP para incluir escenarios de ataque específicos de la IA generativa, Google espera incentivar la investigación en seguridad y sacar a la luz posibles problemas que, en última instancia, harán que la IA sea más segura para todos.

 

Este enfoque proactivo se alinea con el compromiso de Google, junto con otras compañías líderes en IA, con la Casa Blanca, para avanzar en la detección de vulnerabilidades en los sistemas de IA. En agosto, Google participó en el evento público de Red Teaming de IA generativa más grande de la historia en DEF CON, donde miles de investigadores de seguridad buscaron posibles vulnerabilidades. Ahora, con la expansión del programa de recompensas y la publicación de nuevas directrices para la investigación de seguridad en IA, Google pretende acelerar la identificación y solución de problemas en este campo.

Nuevas Directrices para la Seguridad en la IA Generativa

La IA generativa plantea preocupaciones únicas en comparación con la seguridad digital tradicional, como el sesgo injusto, la manipulación de modelos o las «alucinaciones» de datos. Google está tomando un enfoque integral para anticipar y probar estos riesgos, basándose en décadas de experiencia en seguridad. Sin embargo, la compañía reconoce que los investigadores externos pueden ayudar a identificar vulnerabilidades novedosas, lo que fortalecerá aún más sus productos de IA generativa.

 

Con la expansión del VRP, Google ha lanzado nuevas directrices de categorización y reporte de vulnerabilidades, específicas para la IA generativa. Al compartir estas directrices, la compañía espera motivar a más investigadores a enviar reportes, acelerando el objetivo de una IA más segura y robusta.

Fortaleciendo la Cadena de Suministro de IA

Además de la seguridad en la IA generativa, Google está ampliando su trabajo en seguridad de código abierto para proteger la cadena de suministro de IA. Con el marco de trabajo Secure AI Framework (SAIF), Google busca asegurar que el ecosistema de IA cuente con bases de seguridad sólidas, protegiendo los componentes críticos de la cadena de suministro de amenazas como la manipulación de modelos, envenenamiento de datos y la producción de contenido dañino.

 

Para abordar estos desafíos, Google ha anunciado la disponibilidad de los primeros prototipos de firmas de modelos con Sigstore y verificación de atestación con SLSA. Estos esfuerzos se basan en colaboraciones previas con la Open Source Security Foundation, y son pasos iniciales hacia el desarrollo seguro y confiable de la IA generativa.

Un Futuro Seguro para la IA

La expansión del programa de recompensas por vulnerabilidades y el fortalecimiento de la cadena de suministro de IA son solo el comienzo. Google espera que estas iniciativas fomenten una mayor colaboración con la comunidad de seguridad de código abierto y otros actores de la industria, asegurando que el desarrollo de la IA sea seguro y beneficioso para todos.

Conclusión

Google está dando pasos importantes hacia la seguridad de la inteligencia artificial generativa al expandir su programa de recompensas por vulnerabilidades y reforzar la seguridad en la cadena de suministro de IA. Estas iniciativas no solo buscan identificar y mitigar riesgos emergentes, sino que también promueven una colaboración más amplia entre la comunidad de investigadores de seguridad y la industria tecnológica.

 

Recuerda que estaremos publicando constantemente en nuestro blog más contenido sobre tecnología.

 

Puedes encontrarnos en Facebook y Linkedln para más contenido relacionado con seguridad en internet y muchos temas más.