Wir freuen uns, bekannt geben zu können, dass wir mit Wiz zusammenarbeiten, um die Sicherheit unserer Plattform und des gesamten KI/ML-Ökosystems zu verbessern.
Wiz-Forscher arbeiten mit Hugging Face an der Sicherheit unserer Plattform und teilen ihre Erkenntnisse. Wiz ist ein Cloud-Sicherheitsunternehmen, das Kunden dabei unterstützt, Software auf sichere Weise zu erstellen und zu warten. Mit der Veröffentlichung dieser Studie werden wir die Gelegenheit nutzen, einige relevante Sicherheitsverbesserungen von Hugging Face hervorzuheben.
-
Weitere Informationen zur Partnerschaft von Wiz mit Hugging Face https://www.wiz.io/blog/wiz-and-hugging-face-address-risks-to-ai-infrastruct
Hugging Face hat kürzlich Wiz für das Schwachstellenmanagement integriert, einen fortlaufenden proaktiven Prozess, der sicherstellt, dass unsere Plattform vor Sicherheitslücken geschützt ist. Darüber hinaus verwenden wir Wiz für Cloud Security Posture Management (CSPM), das es uns ermöglicht, unsere Cloud-Umgebung sicher zu konfigurieren und zu überwachen, um ihre Sicherheit zu gewährleisten.
Eine unserer Lieblingsfunktionen von Wiz ist eine ganzheitliche Sicht auf Schwachstellen, vom Speicher über die Rechenleistung bis hin zum Netzwerk. Wir betreiben mehrere Kubernetes (k8s)-Cluster und verfügen über Ressourcen über mehrere Regionen und Cloud-Anbieter hinweg. Daher ist es sehr hilfreich, einen zentralen Bericht mit einem vollständigen Kontextbild jeder Schwachstelle an einem einzigen Ort zu haben. Wir haben auch ihre Tools entwickelt, um in unseren Produkten erkannte Probleme, insbesondere in Spaces, automatisch zu beheben.
Im Rahmen einer gemeinsamen Anstrengung identifizierte das Sicherheitsforschungsteam von Wiz Mängel in unserer Sandbox-Computing-Umgebung durch die Verwendung von Pickle zur Ausführung beliebigen Codes innerhalb des Systems. Wenn Sie diesen Blog und die Sicherheitsforschung von Wiz lesen, denken Sie bitte daran, dass wir alle Probleme im Zusammenhang mit dieser Sicherheitslücke behoben haben und bei unseren Prozessen zur Erkennung von Bedrohungen und zur Reaktion auf Vorfälle weiterhin wachsam bleiben werden.
Umarmende Gesichtssicherheit
Bei Hugging Face nehmen wir Sicherheit sehr ernst. Da die künstliche Intelligenz rasant voranschreitet, scheinen jeden Tag neue Bedrohungsvektoren aufzutauchen. Auch wenn Hugging Face mehrere Partnerschaften und Geschäftsbeziehungen mit einigen der größten Namen der Technologiebranche ankündigt, setzen wir uns weiterhin dafür ein, unsere Benutzer und die KI-Community in die Lage zu versetzen, verantwortungsvoll mit KI/ML-Systemen und -Technologien zu experimentieren und diese zu betreiben. Wir sind bestrebt, unsere Plattform zu sichern und die Demokratisierung von KI/ML voranzutreiben, damit die Community einen Beitrag leisten und Teil dieses Paradigmenwechsels sein kann, der uns alle betreffen wird. Wir haben diesen Blog geschrieben, um unser Engagement für den Schutz unserer Benutzer und Kunden vor Sicherheitsbedrohungen zu bekräftigen. Im Folgenden diskutieren wir auch die Philosophie von Hugging Face zur Unterstützung kontroverser Pickle-Dateien und besprechen die gemeinsame Verantwortung, von Pickle-Formaten Abstand zu nehmen.
In naher Zukunft stehen außerdem viele spannende Sicherheitsverbesserungen und Ankündigungen an. In diesen Veröffentlichungen werden nicht nur die Sicherheitsrisiken erörtert, denen die Community der Hugging Face-Plattform ausgesetzt ist, sondern auch systemische Sicherheitsrisiken von KI und bewährte Abhilfemaßnahmen behandelt. Wir sind stets bestrebt, die Sicherheit unserer Produkte, Infrastruktur und KI-Community zu gewährleisten. Bitte beachten Sie die nachfolgenden Sicherheitsblogbeiträge und Whitepapers.
Open-Source-Sicherheitszusammenarbeit und Tools für die Community
Wir legen großen Wert auf Transparenz und Zusammenarbeit mit der Community. Dazu gehört die Beteiligung an der Identifizierung und Offenlegung von Schwachstellen, die gemeinsame Lösung von Sicherheitsproblemen und die Entwicklung von Sicherheitstools. Im Folgenden finden Sie Beispiele für durch Zusammenarbeit erzielte Sicherheitsergebnisse, die der gesamten KI-Community helfen, Sicherheitsrisiken zu reduzieren:
-
Picklescan wurde in Zusammenarbeit mit Microsoft entwickelt; das Projekt wurde von Matthieu Maitre ins Leben gerufen, und da wir auch intern über eine Version desselben Tools verfügten, haben wir uns zusammengetan und zu Picklescan beigetragen. Wenn Sie mehr darüber erfahren möchten, wie das funktioniert, lesen Sie bitte die folgende Dokumentationsseite: https://hf.co/docs/hub/en/security-pickle
-
Safetensoren sind eine sicherere Alternative zu Pickle-Feilen, die von Nicolas Patry entwickelt wurden. Safetensoren wurden von Trail of Bits in einem Gemeinschaftsprojekt mit EuletherAI und Stability AI geprüft.
https://hf.co/docs/safetensors/en/index
-
Wir haben ein robustes Bug-Bounty-Programm, das viele großartige Forscher aus der ganzen Welt anzieht. Forscher, die Sicherheitslücken identifizieren, können an unserem Programm teilnehmen, indem sie sich an [email protected] wenden.
-
Malware-Scanning: https://hf.co/docs/hub/en/security-malware
-
Datenschutzscan: Weitere Informationen finden Sie unter folgendem Link: https://hf.co/docs/hub/security-secrets
-
Wie bereits erwähnt, arbeiten wir auch mit Wiz zusammen, um Plattformsicherheitsrisiken zu reduzieren.
-
Wir starten eine Reihe von Sicherheitspublikationen, um Sicherheitsprobleme anzugehen, mit denen die KI/ML-Community konfrontiert ist.
Best Practices für die Sicherheit für Open-Source-KI/ML-Benutzer
-
KI/ML führt neue Angriffsvektoren ein, aber für viele dieser Angriffe gibt es schon seit langem Abhilfemaßnahmen, die bekannt sind. Sicherheitsexperten sollten sicherstellen, dass relevante Sicherheitskontrollen auf KI-Ressourcen und -Modelle angewendet werden. Darüber hinaus finden Sie hier einige Ressourcen und Best Practices für die Arbeit mit Open-Source-Software und -Modellen: -
Kennen Sie Ihre Mitwirkenden: Verwenden Sie nur Modelle aus vertrauenswürdigen Quellen und seien Sie vorsichtig mit Commit-Signaturen. https://hf.co/docs/hub/en/security-gpg -
Verwenden Sie in der Produktion keine Pickle-Dateien -
Verwendung von Safetensoren: https://hf.co/docs/safetensors/en/index -
Rückblick auf die OWASP Top 10: https://owasp.org/www-project-top-ten/ -
Aktivieren Sie MFA für Ihr Hugging Face-Konto -
Richten Sie einen sicheren Entwicklungslebenszyklus ein, der Codeüberprüfungen durch Sicherheitsexperten oder -ingenieure mit entsprechender Sicherheitsschulung umfasst. -
Testen Sie Modelle in nicht produktiven und virtualisierten Test-/Entwicklungsumgebungen.
Pickle-Dateien – ein Sicherheitsrisiko, das nicht ignoriert werden kann
Pickle-Dateien standen im Mittelpunkt der Forschung von Wiz und anderer aktueller Veröffentlichungen von Sicherheitsforschern zu Hugging Face. Pickle-Dateien gelten seit langem als Sicherheitsrisiko. Weitere Informationen finden Sie in unserer Dokumentation: https://hf.co/docs/hub/en/security-pickle
Trotz dieser bekannten Sicherheitslücken verwendet die KI/ML-Community immer noch häufig Pickle-Dateien (oder ähnliche, leicht auszunutzende Formate). Bei vielen dieser Anwendungsfälle besteht ein geringes Risiko oder sie dienen lediglich Testzwecken, sodass die Vertrautheit und Benutzerfreundlichkeit von Pickle-Dateien attraktiver ist als sicherere Alternativen.
Als Open-Source-Plattform für künstliche Intelligenz haben wir folgende Möglichkeiten:
-
Deaktivieren Sie eingelegte Dateien vollständig -
Machen Sie nichts mit eingelegten Feilen -
Finden Sie einen Mittelweg, der das Beizen ermöglicht und gleichzeitig die mit eingelegten Feilen verbundenen Risiken vernünftig und realistisch mindert
Wir entscheiden uns derzeit für die dritte Option, die einen Kompromiss darstellt. Diese Wahl stellt eine Belastung für unsere Technik- und Sicherheitsteams dar, aber wir haben erhebliche Anstrengungen unternommen, um das Risiko zu mindern und gleichzeitig der KI-Community die Nutzung der Tools ihrer Wahl zu ermöglichen. Zu den wichtigsten Abhilfemaßnahmen, die wir gegen die mit Gurken verbundenen Risiken ergriffen haben, gehören:
-
Erstellen Sie eine klare Dokumentation, in der die Risiken dargelegt werden -
Entwickeln Sie automatisierte Scan-Tools -
使用扫描工具和标记具有安全漏洞的模型并发出明确的警告 -
我们甚至提供了一个安全的解决方案来代替 pickle (Safetensors) -
我们还将 Safetensors 设为我们平台上的一等公民,以保护可能不了解风险的社区成员 -
除了上述内容之外,我们还必须显着细分和增强使用模型的区域的安全性,以解决其中潜在的漏洞
我们打算继续在保护和保障 AI 社区方面保持领先地位。我们的一部分工作将是监控和应对与 pickle 文件相关的风险。虽然逐步停止对 pickle 的支持也不排除在外,但我们会尽力平衡此类决定对社区的影响。
需要注意的是,上游的开源社区以及大型科技和安全公司在贡献解决方案方面基本上保持沉默,留下 Hugging Face 独自定义理念,并大量投资于开发和实施缓解措施,以确保解决方案既可接受又可行。
结束语
我在撰写这篇博客文章时,与 Safetensors 的创建者 Nicolas Patry 进行了广泛交流,他要求我向 AI 开源社区和 AI 爱好者发出行动号召:
-
主动开始用 Safetensors 替换您的 pickle 文件。如前所述,pickle 包含固有的安全缺陷,并且可能在不久的将来不再受支持。 -
继续向您喜欢的库的上游提交关于安全性的议题/PR,以尽可能推动上游的安全默认设置。
AI 行业正在迅速变化,不断有新的攻击向量和漏洞被发现。Hugging Face 拥有独一无二的社区,我们与大家紧密合作,以帮助我们维护一个安全的平台。
请记住,通过适当的渠道负责任地披露安全漏洞/错误,以避免潜在的法律责任和违法行为。
想加入讨论吗?请通过 [email protected] 联系我们,或者在 LinkedIn/Twitter 上关注我们。
英文原文: https://hf.co/blog/hugging-face-wiz-security-blog
原文作者: Josef Fukano, Guillaume Salou, Michelle Habonneau, Adrien, Luc Georges, Nicolas Patry, Julien Chaumond
译者: xiaodouzi
本文分享自微信公众号 - Hugging Face(gh_504339124f0f)。
如有侵权,请联系 [email protected] 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。