Hugging Face s'associe à Wiz Research pour améliorer la sécurité de l'IA

Nous sommes ravis d'annoncer notre partenariat avec Wiz dans le but d'améliorer la sécurité de notre plateforme et de l'ensemble de l'écosystème IA/ML.

Les chercheurs de Wiz travaillent avec Hugging Face sur la sécurité de notre plateforme et partagent leurs découvertes. Wiz est une société de sécurité cloud qui aide ses clients à créer et à maintenir des logiciels de manière sécurisée. Avec la publication de cette recherche, nous profiterons de l’occasion pour mettre en évidence certaines améliorations pertinentes en matière de sécurité de Hugging Face.

  • Plus d’informations sur le partenariat de Wiz avec Hugging Face https://www.wiz.io/blog/wiz-and-hugging-face-address-risks-to-ai-infrastruct

Hugging Face a récemment intégré Wiz pour la gestion des vulnérabilités, un processus proactif continu qui garantit que notre plateforme est protégée contre les vulnérabilités de sécurité. De plus, nous utilisons Wiz pour Cloud Security Posture Management (CSPM), qui nous permet de configurer en toute sécurité notre environnement cloud et de le surveiller pour garantir sa sécurité.

L'une de nos fonctionnalités Wiz préférées est une vue globale des vulnérabilités, du stockage au calcul en passant par le réseau. Nous exécutons plusieurs clusters Kubernetes (k8s) et disposons de ressources dans plusieurs régions et fournisseurs de cloud. Il est donc très utile de disposer d'un rapport central avec une image contextuelle complète de chaque vulnérabilité en un seul endroit. Nous avons également créé leurs outils pour résoudre automatiquement les problèmes détectés dans nos produits, en particulier dans Spaces.

Au cours d'un effort conjoint, l'équipe de recherche en sécurité de Wiz a identifié des lacunes dans notre environnement informatique sandbox grâce à l'utilisation de pickle pour exécuter du code arbitraire dans le système. En lisant ce blog et les recherches de sécurité de Wiz, n'oubliez pas que nous avons résolu tous les problèmes liés à cette vulnérabilité et que nous continuerons à rester vigilants dans nos processus de détection des menaces et de réponse aux incidents.

Étreindre la sécurité du visage

Chez Hugging Face, nous prenons la sécurité très au sérieux. À mesure que l’intelligence artificielle progresse rapidement, de nouveaux vecteurs de menace semblent émerger chaque jour. Même si Hugging Face annonce de multiples partenariats et relations commerciales avec certains des plus grands noms de la technologie, nous restons déterminés à permettre à nos utilisateurs et à la communauté de l'IA d'expérimenter et d'exploiter de manière responsable les systèmes et technologies d'IA/ML. Nous nous engageons à sécuriser notre plateforme et à favoriser la démocratisation de l'IA/ML afin que la communauté puisse contribuer et faire partie de ce changement de paradigme qui nous impactera tous. Nous avons écrit ce blog pour réaffirmer notre engagement à protéger nos utilisateurs et clients contre les menaces de sécurité. Ci-dessous, nous discutons également de la philosophie de Hugging Face concernant la prise en charge des fichiers pickle controversés et discutons de la responsabilité partagée de s'éloigner des formats pickle.

De nombreuses améliorations et annonces intéressantes en matière de sécurité seront également prévues dans un avenir proche. Ces publications discuteront non seulement des risques de sécurité auxquels est confrontée la communauté de la plateforme Hugging Face, mais couvriront également les risques de sécurité systémiques de l'IA et les meilleures pratiques d'atténuation. Nous nous engageons toujours à assurer la sécurité de nos produits, de notre infrastructure et de notre communauté IA. Veuillez prêter attention aux articles de blog et aux livres blancs suivants sur la sécurité.

Collaboration en matière de sécurité open source et outils pour la communauté

Nous accordons une grande valeur à la transparence et à la collaboration avec la communauté, ce qui inclut la participation à l'identification et à la divulgation des vulnérabilités, la résolution conjointe des problèmes de sécurité et le développement d'outils de sécurité. Voici des exemples de résultats en matière de sécurité obtenus grâce à une collaboration qui aident l’ensemble de la communauté de l’IA à réduire les risques de sécurité :

  • Picklescan a été développé en collaboration avec Microsoft ; le projet a été lancé par Matthieu Maitre, et comme nous avions également une version du même outil en interne, nous avons uni nos forces et contribué à Picklescan. Si vous souhaitez en savoir plus sur son fonctionnement, veuillez vous référer à la page de documentation suivante : https://hf.co/docs/hub/en/security-pickle

  • Les Safetensors sont une alternative plus sûre aux fichiers pickle développés par Nicolas Patry. Les Safetensors ont été audités par Trail of Bits dans le cadre d'un projet collaboratif avec EuletherAI et Stability AI.

    https://hf.co/docs/safetensors/en/index

  • Nous avons un solide programme de bug bounty qui attire de nombreux grands chercheurs du monde entier. Les chercheurs qui identifient des vulnérabilités de sécurité peuvent rejoindre notre programme en contactant [email protected].

  • Analyse des logiciels malveillants : https://hf.co/docs/hub/en/security-malware

  • Analyse de confidentialité : veuillez visiter le lien suivant pour plus d'informations : https://hf.co/docs/hub/security-secrets

  • Comme mentionné précédemment, nous travaillons également avec Wiz pour réduire les risques de sécurité de la plateforme.

  • Nous lançons une série de publications sur la sécurité pour répondre aux problèmes de sécurité auxquels est confrontée la communauté IA/ML.

Bonnes pratiques de sécurité pour les utilisateurs open source AI/ML

  • L’IA/ML introduit de nouveaux vecteurs d’attaque, mais pour bon nombre de ces attaques, des mesures d’atténuation existent depuis longtemps et sont connues. Les professionnels de la sécurité doivent s’assurer que les contrôles de sécurité pertinents sont appliqués aux ressources et modèles d’IA. De plus, voici quelques ressources et bonnes pratiques lorsque vous travaillez avec des logiciels et des modèles open source :
  • Connaissez vos contributeurs : utilisez uniquement des modèles provenant de sources fiables et faites attention aux signatures de validation. https://hf.co/docs/hub/en/security-gpg
  • N'utilisez pas de fichiers pickle en production
  • Utilisation de Safetensors : https://hf.co/docs/safetensors/en/index
  • Bilan du Top 10 OWASP : https://owasp.org/www-project-top-ten/
  • Activez MFA sur votre compte Hugging Face
  • Établissez un cycle de vie de développement sécurisé qui comprend des révisions de code par des professionnels de la sécurité ou des ingénieurs ayant une formation en sécurité appropriée.
  • Modèles de test dans des environnements de test/développement hors production et virtualisés.

Fichiers Pickle – un risque de sécurité qui ne peut être ignoré

Les fichiers Pickle ont été au centre des recherches de Wiz et d'autres publications récentes de chercheurs en sécurité sur Hugging Face. Les fichiers Pickle ont longtemps été considérés comme un risque de sécurité. Pour plus d'informations, veuillez consulter notre documentation : https://hf.co/docs/hub/en/security-pickle

Malgré ces failles de sécurité connues, la communauté AI/ML utilise encore fréquemment des fichiers pickle (ou des formats similaires facilement exploitables). Beaucoup de ces cas d'utilisation présentent un faible risque ou sont uniquement destinés à des fins de test, ce qui rend la familiarité et la facilité d'utilisation des fichiers pickle plus attrayantes que des alternatives plus sûres.

En tant que plateforme d'intelligence artificielle open source, nous disposons des options suivantes :

  • Désactiver complètement les fichiers marinés
  • Ne rien faire avec les fichiers marinés
  • Trouver un terrain d'entente qui permet le décapage tout en atténuant de manière raisonnable et réaliste les risques associés aux fichiers décapés.

Nous choisissons actuellement la troisième option, qui est un compromis. Ce choix est un fardeau pour nos équipes d'ingénierie et de sécurité, mais nous avons déployé des efforts importants pour atténuer le risque tout en permettant à la communauté IA d'utiliser les outils de son choix. Certaines des principales mesures d'atténuation que nous avons mises en œuvre contre les risques liés aux cornichons comprennent :

  • Créer une documentation claire décrivant les risques
  • Développer des outils d’analyse automatisés
  • 使用扫描工具和标记具有安全漏洞的模型并发出明确的警告
  • 我们甚至提供了一个安全的解决方案来代替 pickle (Safetensors)
  • 我们还将 Safetensors 设为我们平台上的一等公民,以保护可能不了解风险的社区成员
  • 除了上述内容之外,我们还必须显着细分和增强使用模型的区域的安全性,以解决其中潜在的漏洞

我们打算继续在保护和保障 AI 社区方面保持领先地位。我们的一部分工作将是监控和应对与 pickle 文件相关的风险。虽然逐步停止对 pickle 的支持也不排除在外,但我们会尽力平衡此类决定对社区的影响。

需要注意的是,上游的开源社区以及大型科技和安全公司在贡献解决方案方面基本上保持沉默,留下 Hugging Face 独自定义理念,并大量投资于开发和实施缓解措施,以确保解决方案既可接受又可行。

结束语

我在撰写这篇博客文章时,与 Safetensors 的创建者 Nicolas Patry 进行了广泛交流,他要求我向 AI 开源社区和 AI 爱好者发出行动号召:

  • 主动开始用 Safetensors 替换您的 pickle 文件。如前所述,pickle 包含固有的安全缺陷,并且可能在不久的将来不再受支持。
  • 继续向您喜欢的库的上游提交关于安全性的议题/PR,以尽可能推动上游的安全默认设置。

AI 行业正在迅速变化,不断有新的攻击向量和漏洞被发现。Hugging Face 拥有独一无二的社区,我们与大家紧密合作,以帮助我们维护一个安全的平台。

请记住,通过适当的渠道负责任地披露安全漏洞/错误,以避免潜在的法律责任和违法行为。

想加入讨论吗?请通过 [email protected] 联系我们,或者在 LinkedIn/Twitter 上关注我们。


英文原文: https://hf.co/blog/hugging-face-wiz-security-blog

原文作者: Josef Fukano, Guillaume Salou, Michelle Habonneau, Adrien, Luc Georges, Nicolas Patry, Julien Chaumond

译者: xiaodouzi

本文分享自微信公众号 - Hugging Face(gh_504339124f0f)。
如有侵权,请联系 [email protected] 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

微软中国 AI 团队集体打包去美国,涉及数百人 一个不知名的开源项目可以带来多少收入 华为官宣余承东职务调整 华中科技大学开源镜像站正式开放外网访问 诈骗分子利用 TeamViewer 转走 398 万!远程桌面厂商该如何作为? 前端第一可视化库、百度知名开源项目 ECharts 创始人——“下海”养鱼 知名开源公司前员工爆料:技术 leader 被下属挑战后狂怒爆粗、辞退怀孕女员工 OpenAI 考虑允许 AI 生成色情内容 微软向 Rust 基金会捐赠 100 万美元 请教各位,此处的 time.sleep(6) 起到了什么作用?
{{o.name}}
{{m.name}}

Je suppose que tu aimes

Origine my.oschina.net/HuggingFace/blog/11126604
conseillé
Classement