Hugging Face se asocia con Wiz Research para mejorar la seguridad de la IA

Nos complace anunciar que nos asociamos con Wiz con el objetivo de mejorar la seguridad de nuestra plataforma y de todo el ecosistema AI/ML.

Los investigadores de Wiz trabajan con Hugging Face en la seguridad de nuestra plataforma y comparten sus hallazgos. Wiz es una empresa de seguridad en la nube que ayuda a los clientes a crear y mantener software de forma segura. Con la publicación de esta investigación, aprovecharemos la oportunidad para resaltar algunas mejoras de seguridad relevantes de Hugging Face.

  • Más información sobre la asociación de Wiz con Hugging Face https://www.wiz.io/blog/wiz-and-hugging-face-address-risks-to-ai-infrastruct

Hugging Face integró recientemente Wiz para la gestión de vulnerabilidades, un proceso proactivo continuo que garantiza que nuestra plataforma esté protegida contra vulnerabilidades de seguridad. Además, utilizamos Wiz para Cloud Security Posture Management (CSPM), que nos permite configurar de forma segura nuestro entorno de nube y monitorearlo para garantizar su seguridad.

Una de nuestras funciones favoritas de Wiz es una visión holística de las vulnerabilidades, desde el almacenamiento hasta la computación y la red. Ejecutamos múltiples clústeres de Kubernetes (k8s) y tenemos recursos en múltiples regiones y proveedores de nube, por lo que es muy útil tener un informe central con una imagen contextual completa de cada vulnerabilidad en una sola ubicación. También creamos sus herramientas para solucionar automáticamente los problemas detectados en nuestros productos, específicamente en Spaces.

Durante el transcurso de un esfuerzo conjunto, el equipo de investigación de seguridad de Wiz identificó deficiencias en nuestro entorno informático de espacio aislado mediante el uso de pickle para ejecutar código arbitrario dentro del sistema. Mientras lee este blog y la investigación de seguridad de Wiz, recuerde que hemos abordado todos los problemas relacionados con esta vulnerabilidad y continuaremos atentos a nuestros procesos de detección de amenazas y respuesta a incidentes.

Seguridad para abrazar la cara

En Hugging Face nos tomamos muy en serio la seguridad. A medida que la inteligencia artificial avanza rápidamente, cada día parecen surgir nuevos vectores de amenazas. Incluso cuando Hugging Face anuncia múltiples asociaciones y relaciones comerciales con algunos de los nombres más importantes de la tecnología, seguimos comprometidos a capacitar a nuestros usuarios y a la comunidad de IA para experimentar y operar de manera responsable sistemas y tecnologías de IA/ML. Estamos comprometidos a proteger nuestra plataforma e impulsar la democratización de AI/ML para que la comunidad pueda contribuir y ser parte de este cambio de paradigma que nos impactará a todos. Escribimos este blog para reafirmar nuestro compromiso de proteger a nuestros usuarios y clientes de amenazas a la seguridad. A continuación, también analizamos la filosofía de Hugging Face sobre la compatibilidad con archivos pickle controvertidos y la responsabilidad compartida de alejarnos de los formatos pickle.

También habrá muchas mejoras de seguridad interesantes y anuncios en el futuro cercano. Estas publicaciones no solo discutirán los riesgos de seguridad que enfrenta la comunidad de la plataforma Hugging Face, sino que también cubrirán los riesgos de seguridad sistémicos de la IA y las mejores prácticas de mitigación. Siempre estamos comprometidos a garantizar la seguridad de nuestros productos, infraestructura y comunidad de IA. Preste atención a las publicaciones de blogs y documentos técnicos posteriores sobre seguridad.

Colaboración y herramientas de seguridad de código abierto para la comunidad

Valoramos mucho la transparencia y la colaboración con la comunidad, lo que incluye participar en la identificación y divulgación de vulnerabilidades, resolver conjuntamente problemas de seguridad y desarrollar herramientas de seguridad. Los siguientes son ejemplos de resultados de seguridad logrados a través de la colaboración que ayudan a toda la comunidad de IA a reducir los riesgos de seguridad:

  • Picklescan fue desarrollado en colaboración con Microsoft; el proyecto lo inició Matthieu Maitre, y como también teníamos una versión de la misma herramienta internamente, unimos fuerzas y contribuimos a Picklescan. Si desea saber más sobre cómo funciona esto, consulte la siguiente página de documentación: https://hf.co/docs/hub/en/security-pickle

  • Los tensores de seguridad son una alternativa más segura a las limas pickle desarrolladas por Nicolas Patry. Los Safetensores fueron auditados por Trail of Bits en un proyecto de colaboración con EuletherAI y Stability AI.

    https://hf.co/docs/safetensors/en/index

  • Contamos con un sólido programa de recompensas por errores que atrae a muchos investigadores destacados de todo el mundo. Los investigadores que identifiquen vulnerabilidades de seguridad pueden unirse a nuestro programa comunicándose con [email protected].

  • Escaneo de malware: https://hf.co/docs/hub/en/security-malware

  • Escaneo de privacidad: visite el siguiente enlace para obtener más información: https://hf.co/docs/hub/security-secrets

  • Como se mencionó anteriormente, también trabajamos con Wiz para reducir los riesgos de seguridad de la plataforma.

  • Estamos lanzando una serie de publicaciones de seguridad para abordar los problemas de seguridad que enfrenta la comunidad AI/ML.

Mejores prácticas de seguridad para usuarios de IA/ML de código abierto

  • AI/ML introduce nuevos vectores de ataque, pero para muchos de estos ataques, las mitigaciones existen desde hace mucho tiempo y se conocen. Los profesionales de la seguridad deben garantizar que se apliquen controles de seguridad relevantes a los recursos y modelos de IA. Además, aquí hay algunos recursos y mejores prácticas al trabajar con software y modelos de código abierto:
  • Conozca a sus colaboradores: utilice únicamente modelos de fuentes confiables y tenga cuidado con las firmas de confirmación. https://hf.co/docs/hub/en/security-gpg
  • No utilice archivos pickle en producción
  • Uso de Safetensors: https://hf.co/docs/safetensors/en/index
  • Revisión del Top 10 de OWASP: https://owasp.org/www-project-top-ten/
  • Habilite MFA en su cuenta de Hugging Face
  • Establezca un ciclo de vida de desarrollo seguro que incluya revisiones de código por parte de profesionales o ingenieros de seguridad con la formación adecuada en seguridad.
  • Modelos de prueba en entornos de prueba/desarrollo virtualizados y no productivos.

Archivos Pickle: un riesgo de seguridad que no se puede ignorar

Los archivos Pickle han sido el foco de la investigación de Wiz y otras publicaciones recientes de investigadores de seguridad sobre Hugging Face. Los archivos Pickle se han considerado durante mucho tiempo un riesgo para la seguridad; para obtener más información, consulte nuestra documentación: https://hf.co/docs/hub/en/security-pickle

A pesar de estos fallos de seguridad conocidos, la comunidad AI/ML todavía utiliza con frecuencia archivos pickle (o formatos similares fácilmente explotables). Muchos de estos casos de uso son de bajo riesgo o solo tienen fines de prueba, lo que hace que la familiaridad y la facilidad de uso de los archivos pickle sean más atractivas que las alternativas más seguras.

Como plataforma de inteligencia artificial de código abierto, tenemos las siguientes opciones:

  • Deshabilitar completamente los archivos encurtidos
  • No hacer nada con archivos encurtidos
  • Encuentre un término medio que permita el decapado y al mismo tiempo mitigue de manera razonable y realista los riesgos asociados con las limas decapadas.

Actualmente elegimos la tercera opción, que es un compromiso. Esta elección es una carga para nuestros equipos de ingeniería y seguridad, pero hemos hecho un gran esfuerzo para mitigar el riesgo y al mismo tiempo permitir que la comunidad de IA utilice las herramientas de su elección. Algunas de las medidas de mitigación clave que hemos implementado contra los riesgos relacionados con los encurtidos incluyen:

  • Cree documentación clara que describa los riesgos.
  • Desarrollar herramientas de escaneo automatizadas
  • 使用扫描工具和标记具有安全漏洞的模型并发出明确的警告
  • 我们甚至提供了一个安全的解决方案来代替 pickle (Safetensors)
  • 我们还将 Safetensors 设为我们平台上的一等公民,以保护可能不了解风险的社区成员
  • 除了上述内容之外,我们还必须显着细分和增强使用模型的区域的安全性,以解决其中潜在的漏洞

我们打算继续在保护和保障 AI 社区方面保持领先地位。我们的一部分工作将是监控和应对与 pickle 文件相关的风险。虽然逐步停止对 pickle 的支持也不排除在外,但我们会尽力平衡此类决定对社区的影响。

需要注意的是,上游的开源社区以及大型科技和安全公司在贡献解决方案方面基本上保持沉默,留下 Hugging Face 独自定义理念,并大量投资于开发和实施缓解措施,以确保解决方案既可接受又可行。

结束语

我在撰写这篇博客文章时,与 Safetensors 的创建者 Nicolas Patry 进行了广泛交流,他要求我向 AI 开源社区和 AI 爱好者发出行动号召:

  • 主动开始用 Safetensors 替换您的 pickle 文件。如前所述,pickle 包含固有的安全缺陷,并且可能在不久的将来不再受支持。
  • 继续向您喜欢的库的上游提交关于安全性的议题/PR,以尽可能推动上游的安全默认设置。

AI 行业正在迅速变化,不断有新的攻击向量和漏洞被发现。Hugging Face 拥有独一无二的社区,我们与大家紧密合作,以帮助我们维护一个安全的平台。

请记住,通过适当的渠道负责任地披露安全漏洞/错误,以避免潜在的法律责任和违法行为。

想加入讨论吗?请通过 [email protected] 联系我们,或者在 LinkedIn/Twitter 上关注我们。


英文原文: https://hf.co/blog/hugging-face-wiz-security-blog

原文作者: Josef Fukano, Guillaume Salou, Michelle Habonneau, Adrien, Luc Georges, Nicolas Patry, Julien Chaumond

译者: xiaodouzi

本文分享自微信公众号 - Hugging Face(gh_504339124f0f)。
如有侵权,请联系 [email protected] 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

微软中国 AI 团队集体打包去美国,涉及数百人 一个不知名的开源项目可以带来多少收入 华为官宣余承东职务调整 华中科技大学开源镜像站正式开放外网访问 诈骗分子利用 TeamViewer 转走 398 万!远程桌面厂商该如何作为? 前端第一可视化库、百度知名开源项目 ECharts 创始人——“下海”养鱼 知名开源公司前员工爆料:技术 leader 被下属挑战后狂怒爆粗、辞退怀孕女员工 OpenAI 考虑允许 AI 生成色情内容 微软向 Rust 基金会捐赠 100 万美元 请教各位,此处的 time.sleep(6) 起到了什么作用?
{{o.name}}
{{m.name}}

Supongo que te gusta

Origin my.oschina.net/HuggingFace/blog/11126604
Recomendado
Clasificación