Die Cloud-native FinOps-Lösung von Huawei Cloud erschließt den größten Nutzen von Cloud-Native

Das Cloud-native FinOps von Huawei Cloud hilft Benutzern, die Cloud sorgfältig zu nutzen, um die Ressourcennutzung pro Kosteneinheit zu verbessern und Kostensenkungs- und Effizienzziele durch visuelle Kosteneinblicke und Kostenoptimierung zu erreichen.

Aktueller Stand der Cloud-Migration von Unternehmen: Der Trend zur Cloud-Migration verstärkt sich weiter, es kommt jedoch zu erheblichen Verschwendungen bei den Cloud-Ausgaben

Laut der neuesten Umfrage von Flexer aus dem Jahr 2024 nutzen derzeit mehr als 70 % der Unternehmen intensiv Cloud-Dienste, während dieser Wert im letzten Jahr noch bei 65 % lag. Es zeigt sich, dass immer mehr Unternehmen damit beginnen, ihre Dienste in der Cloud bereitzustellen. Während Unternehmen Cloud-Dienste von Cloud-Anbietern nutzen, zahlen sie auch für Cloud-Dienste. Umfragen zeigen, dass im Durchschnitt etwa 30 % der Cloud-Kostenausgaben als ineffektive Ausgaben gelten. Die Einsparung von Cloud-Kosten ist in den letzten Jahren zum Hauptanliegen von Cloud-Unternehmen geworden.

Die Cloud-Nativeisierung von Unternehmen schreitet allmählich voran, das Kostenmanagement steht jedoch immer noch vor Herausforderungen

Cloud-native Technologie ist mittlerweile für viele Unternehmen zur gängigen Methode für die digitale Transformation geworden. Die Ressourcenfreigabe, Ressourcenisolierung, elastische Planung und andere von Kubernetes bereitgestellte Funktionen können Unternehmen dabei helfen, die Ressourcennutzung zu verbessern und die IT-Kosten des Unternehmens zu senken. Der CNCF-Umfragebericht „FinOps Kubernetes Report“ aus dem Jahr 2021 zeigt jedoch, dass nach der Migration auf die Kubernetes-Plattform 68 % der Befragten angaben, dass die Kosten für Rechenressourcen in ihrem Unternehmen gestiegen seien, und 36 % der Befragten gaben an, dass die Kosten gestiegen seien stieg um mehr als 20 %. Es lohnt sich, über die Gründe hierfür nachzudenken.

Herausforderungen für das Kostenmanagement im Cloud-Native-Zeitalter

Im Kostenmanagement im Cloud-native-Zeitalter gibt es vier Widersprüche:

  1. Geschäftseinheit vs. Abrechnungseinheit: Im Allgemeinen ist der Abrechnungszyklus von Cloud-Diensten (z. B. ECS) relativ lang und kann monatlich oder jährlich sein, während der Lebenszyklus von Cloud-nativen Containern relativ kurz ist und Aktionen wie elastische Skalierung und Ausfälle auftreten Der Neustart von Containern ist schwierig. Dies kann zu einer relativ hohen Leerlaufrate der Ressourcen führen.
  2. Kapazitätsplanung vs. Ressourcenversorgung: Die Kapazitätsplanung ist im Allgemeinen statisch und bereitet Container normalerweise im Voraus gemäß Budget oder Planung vor, während die Ressourcenversorgung vom Geschäft bestimmt wird. Szenarien wie geschäftliche Spitzenverkehrsauswirkungen und Kapazitätserweiterungen werden die Kapazitätsplanung vor große Herausforderungen stellen.
  3. Einheitliche Governance vs. Multi-Cloud-Bereitstellung: Viele Unternehmen nutzen mittlerweile mehr als eine Cloud, und verschiedene Cloud-Anbieter verfügen über unterschiedliche Abrechnungsschnittstellen und -formate, was dem einheitlichen Kostenmanagement von Unternehmen in mehreren Clouds nicht förderlich ist.
  4. Kostenmodell vs. Cloud-native Architektur: Das Kostenmodell von Cloud-Anbietern ist relativ einfach und wird im Allgemeinen auf Basis physischer Ressourcen abgerechnet. ECS-Dienste werden beispielsweise auf Basis des Preises der gesamten Maschine abgerechnet. Die Cloud-native Architektur ist anwendungszentriert und die Ressourcenanwendung wird auf die Granularität von CPU/Speicher verfeinert. Dies erschwert die Kostenvisualisierung und Kostenanalyse von Cloud-Native-Szenarien.

Zusammenfassend lässt sich sagen, dass die Cloud-native Kostenverwaltung vor drei großen Herausforderungen steht:

Kosteneinblick: Wie kann eine Kostenvisualisierung in cloudnativen Szenarien realisiert werden, wie lassen sich Kostenprobleme schnell lokalisieren und Ressourcenverschwendung identifizieren?

Kostenoptimierung: Es gibt viele Möglichkeiten, Cloud-native-Kosten zu optimieren. Wie können geeignete Methoden zur Kostenoptimierung eingesetzt werden, um den Nutzen zu maximieren?

Kostenbetrieb: Wie können Unternehmen ein nachhaltiges Kosten-Governance-System und eine nachhaltige Kosten-Governance-Kultur aufbauen?

Huawei Cloud native FinOps-Lösung

FinOps ist eine Disziplin, die Finanzmanagementprinzipien mit Cloud-Engineering und -Betrieb kombiniert, um Unternehmen ein besseres Verständnis ihrer Cloud-Ausgaben zu ermöglichen. Es hilft ihnen auch, fundierte Entscheidungen darüber zu treffen, wie Cloud-Kosten zugewiesen und verwaltet werden. Das Ziel von FinOps besteht nicht darin, Geld zu sparen, sondern den Umsatz oder den Geschäftswert durch die Cloud zu maximieren. Es hilft Unternehmen dabei, ihre Cloud-Ausgaben zu kontrollieren und gleichzeitig das zur Unterstützung ihres Geschäftsbetriebs erforderliche Maß an Leistung, Zuverlässigkeit und Sicherheit aufrechtzuerhalten.

Die FinOps Foundation definiert FinOps als drei Phasen: informieren, optimieren und betreiben. Je nachdem, wie weit jedes Team oder Unternehmen bei der Fertigstellung von FinOps ist, kann sich ein Unternehmen gleichzeitig in mehreren Phasen befinden.

Benachrichtigung (Kosteneinblicke): Benachrichtigung ist die erste Phase des FinOps-Frameworks. Diese Phase soll allen Beteiligten die Informationen liefern, die sie benötigen, um informiert zu sein und fundierte, kosteneffiziente Entscheidungen über die Cloud-Nutzung zu treffen.

Kostenoptimierung: Im Mittelpunkt der Kostenoptimierung steht die Suche nach Möglichkeiten zur Kosteneinsparung. Wo kann Ihr Unternehmen Ressourcen entsprechend der aktuellen Nutzung richtig dimensionieren und von Rabatten profitieren?

Kostenoperationen: Kostenoperationen sind die letzte Stufe des FinOps-Frameworks. Während dieser Phase bewertet die Organisation kontinuierlich die Leistung anhand der Geschäftsziele und sucht dann nach Möglichkeiten zur Verbesserung der FinOps-Praktiken. Mit der Optimierung können Unternehmen die Automatisierung nutzen, um Richtlinien durchzusetzen und Kosten zu kontrollieren, indem sie Cloud-Ressourcen kontinuierlich anpassen, ohne die Leistung zu beeinträchtigen.

Die Cloud-native FinOps-Lösung von Huawei Cloud orientiert sich an den FinOps-Standards und Best Practices der Branche, um Benutzern eine mehrdimensionale Visualisierung der Cloud-nativen Kosten und mehrere Verwaltungsmethoden zur Kostenoptimierung zu bieten und Kunden dabei zu helfen, ihren Umsatz oder Geschäftswert zu maximieren.

Cloud Native FinOps – Kosteneinblicke

Die cloudnativen FinOps-Kosteneinblicke von Huawei Cloud bieten die folgenden Hauptfunktionen:

1. Tag-basierte Ressourcenkostenzuordnung

Unterstützt Cluster-Tags, die mit ECS, EVS und anderen Ressourcen verknüpft sind, um die Berechnung der Cluster-Kostenzusammenfassung zu erleichtern

2. Genaue Kostenberechnung basierend auf CBC-Rechnungen

Berechnen Sie die Kostenzuteilung auf der Grundlage echter CBC-Rechnungen und teilen Sie die Abteilungskosten genau auf

3. Flexible Kostenverteilungsstrategie

Unterstützt Kostenvisualisierungs- und Kostenzuordnungsstrategien in mehreren Dimensionen wie Clustern, Namespaces, Knotenpools, Anwendungen und Anpassungen.

4. Unterstützen Sie die langfristige Speicherung und den Abruf von Kostendaten

Unterstützt Kostenanalysen für bis zu 2 Jahre sowie monatliche, vierteljährliche und jährliche Berichte und Exporte.

5. Erfassen Sie Arbeitslasten schnell und bewältigen Sie schnell elastische Szenarien problemlos

Für schnelle, elastische Anwendungsszenarien unterstützt es Lasterkennungs- und Abrechnungsfunktionen auf Minutenebene, sodass keine Kosten entgehen.

Einführung in den Implementierungsmechanismus von Cloud-nativen Kosteneinblicken:

1. Kosten für physische Clusterressourcen im Vergleich zu Kosten für logische Clusterressourcen

Die Kosten eines Clusters können aus zwei Perspektiven berechnet werden:

  • Zu den physischen Ressourcenkosten des Clusters gehören Ressourcenkosten, die direkt oder indirekt mit dem Cluster verbunden sind, wie z. B. Clusterverwaltungsgebühren, ECS-Kosten, EVS-Kosten usw. Die physischen Ressourcenkosten des Clusters können intuitiv in der Cloud-Kostenrechnung widergespiegelt werden.
  • Kosten für logische Clusterressourcen . Aus Sicht der Kubernetes-Ressourcen umfassen die Kosten des Clusters die Kosten für die Arbeitslast sowie die Kosten für ungenutzte Clusterressourcen und öffentliche Gemeinkosten.

Es ist nicht schwer zu erkennen, dass die Kosten für physische Clusterressourcen = die Kosten für logische Clusterressourcen sind.

2. Kostenberechnung der Einheitenressourcen (CPU/Speicher usw.).

Wenn die physischen Ressourcenkosten des Clusters bekannt sind, ist die Ableitung der logischen Cluster-Ressourcenkosten (z. B. Pod/Workload) der Schlüssel zu Cloud-nativen FinOps-Kostenerkenntnissen. Das Kernproblem, das hier gelöst werden muss, ist die Berechnung der Ressourceneinheitskosten. Wir wissen, dass allgemeine virtuelle Cloud-Maschinen zum Preis der gesamten Maschine verkauft werden, nicht basierend auf der CPU oder dem Arbeitsspeicher der Einheit. Die Ressourcenbelegung des Containerdienstes wird jedoch auf Basis der Einheitenressourcen (CPU oder Speicher usw.) angewendet. Daher müssen die Kosten pro Ressourceneinheit berechnet werden, um schließlich die Kosten für den Containerdienst zu berechnen.

Im Allgemeinen verfügen Cloud-Anbieter über eine Schätzung des Stückpreises für CPU oder Speicher. Wir können die Ressourcenkosten pro Einheit auch basierend auf dem Kostenverhältnis von CPU und Speicher berechnen.

3. Berechnung der Cloud-nativen Ressourcenkosten

Aus der folgenden Abbildung können wir ersehen, dass die Ressourcennutzung eines Pods im Laufe der Zeit dynamisch schwankt. Manchmal ist die Ressourcennutzung des Pods geringer als die Ressourcenanforderung (Anfrage), und zu anderen Zeiten ist die Ressourcennutzung des Pods größer als die Ressourcenanforderung (Anfrage). Bei der Berechnung der Pod-Kosten erfassen wir regelmäßig den tatsächlichen Nutzungswert und den Anforderungswert des Pods und verwenden den Maximalwert des tatsächlichen Nutzungswerts und des Anforderungswerts für die Berechnung der Pod-Kosten. Dies liegt daran, dass diese Ressource, sobald der Anforderungswert einem Pod zugewiesen wird, von K8S reserviert wird und nicht von anderen Pods vorbelegt wird. Alle Pods müssen für die Ressourcen der Anforderungsabteilung bezahlen. Wenn die tatsächliche Nutzung des Pods die Anforderung übersteigt, muss der Pod ebenfalls für den Überschuss aufkommen.

Basierend auf den oben genannten Prinzipien können wir die Kosten für Pod berechnen:

Indem wir die Kosten aller Pods unter dem Namespace akkumulieren, können wir die Kosten der Namespace-Dimension ermitteln:

Basierend auf der oben genannten Berechnungslogik ermöglicht die Cloud-native Kostenverwaltungsfunktion von Huawei Cloud CCE die Visualisierung von Clusterkosten in mehreren Dimensionen, wie zum Beispiel:

Visualisierung der Clusterkosten

Visualisierung der Namespace-Kosten

Visualisierung der Knotenpoolkosten

Visualisierung der Arbeitslastkosten

4. Kostenzuordnungs- und Kostenanalyseberichte der Abteilungen

Viele Unternehmen weisen die Granularität eines Clusterinstallations-Namespace verschiedenen Abteilungen zu. Wie kann man also die Kosten jeder Abteilung visuell analysieren?

Wie aus der obigen Abbildung ersichtlich ist, umfassen die Kosten einer Abteilung nicht nur die Kosten des Namensraums, zu dem die Abteilung gehört, sondern sollten auch einen Teil der öffentlichen Kosten tragen. Dieser Teil der Funktionskosten umfasst die Kosten für den System-Namespace und die Kosten für ungenutzte Ressourcen.

Das cloudnative Kostenmanagement von Huawei Cloud CCE unterstützt die abteilungsbasierte Konfiguration von Kostenzuordnungsrichtlinien, wie in der folgenden Abbildung dargestellt:

Gleichzeitig bietet das cloudnative Kostenmanagement von Huawei Cloud CCE basierend auf der Kostenzuweisungsstrategie der Abteilung monatliche/vierteljährliche/jährliche Berichtsfunktionen und unterstützt die Berichtsabfrage und den Export für bis zu zwei Jahre.

Cloud Native FinOps – Kostenoptimierung

Wie kann die Ressourcennutzung in Cloud-nativen Szenarien verbessert werden?

Laut Gartner-Statistiken liegt die durchschnittliche CPU-Auslastung in Unternehmen unter 15 % . Es gibt viele Gründe für eine geringe Ressourcenauslastung.

Unangemessene Ressourcenzuweisung : Einige Benutzer verstehen die Ressourcennutzung ihrer eigenen Dienste nicht und sind bei der Beantragung von Ressourcen blind. Sie beantragen normalerweise übermäßige Ressourcen. 

Geschäftsspitzen und -tiefs : Microservices weisen offensichtliche tägliche Spitzen- und Tiefstwerte auf. Um die Leistung und Stabilität des Dienstes sicherzustellen, beantragen Benutzer Ressourcen entsprechend den Spitzen. 

Ressourcenfragmentierung : Verschiedene Geschäftsabteilungen verfügen über unabhängige Ressourcenpools, können Ressourcen nicht gemeinsam nutzen und sind anfällig für Ressourcenfragmentierung. 

Die Containerisierung kann die Ressourcennutzung bis zu einem gewissen Grad verbessern, es gibt jedoch einige Probleme, die nicht effektiv gelöst werden können, wenn man sich ausschließlich auf die Containerisierung verlässt:

Übermäßiger Einsatz von Ressourcen : Wenn es keine wirksamen Ressourcenempfehlungen und Überwachungsmechanismen gibt, kommt es gängige Praxis zu einem übermäßigen Einsatz und einer Anhäufung von Sand, was zu Ressourcenverschwendung führt. 

Einheitlicher Ressourcenpool : Dem nativen Scheduler von K8 fehlen übergeordnete Planungsfunktionen wie Gruppen und Warteschlangen. Es ist schwierig, Big-Data-Geschäftsspeicher und -Computing zu integrieren, um die Containerelastizität zu nutzen. 

Anwendungsleistung : Eine bloße Erhöhung der Bereitstellungsdichte kann die Servicequalität nicht garantieren. 

Um die Cluster-Ressourcennutzung zu verbessern, bietet die Cloud-native FinOps-Lösung von CCE eine Vielzahl von Optimierungsmethoden, wie z. B. intelligente Empfehlungen zur Spezifikation von Anwendungsressourcen, Cloud-native Hybridbereitstellung, dynamisches Überverkaufen und andere Funktionen.

5. Empfohlene Spezifikationen für intelligente Anwendungsressourcen

Um die Leistung und Zuverlässigkeit der Anwendungen sicherzustellen und aufgrund des Mangels an ausreichenden Visualisierungstools neigen wir immer dazu, übermäßige Ressourcen für Anwendungen zu beantragen. Um dieses Problem zu lösen, bietet das Cloud-native Kostenmanagement von CCE eine intelligente Empfehlungsfunktion für Anwendungsressourcenspezifikationen. Diese Funktion basiert auf den historischen Porträtdaten der Anwendung und auf dem Algorithmus des maschinellen Lernens, um den besten Anwendungswert für die Anwendung zu empfehlen.

6. Native Co-Location-Lösung von Huawei Cloud

Die cloudnative Hybridlösung Huawei Cloud CCE basiert auf dem Vulkan-Plug-in, unterstützt die Ein-Klick-Bereitstellung und bietet Containerdienste mit gemischter Bereitstellung hoher und niedriger Priorität, dynamischem Überverkauf, Service-QoS-Garantie und anderen Funktionen. Zu den Hauptfähigkeiten gehören vor allem:

  • Container-Geschäftspriorität und Ressourcenisolation
  • Fusionsplanung
  1. Anwendungs-SLO-Bewusstsein: intelligente Hybridplanung mehrerer Arten von Diensten, Bewusstsein für die Anwendungstopologie, Time-Sharing-Multiplexing, Überverkauf usw.;
  2. Ressourcenbewusste Planung: Bietet CPU-NUMA-Topologiebewusstsein, IO-Erkennung, netzwerkbewusste Planung sowie Software- und Hardware-Zusammenarbeit, um die Anwendungsleistung zu verbessern;
  3. Cluster-Ressourcenplanung : Bietet umfassende Strategien wie Warteschlange, Fairness, Priorität, Reservierung und Vorkauf, um qualitativ hochwertige und minderwertige Dienste einheitlich zu erfüllen.
  • Knoten-QoS-Verwaltung: mehrdimensionale Ressourcenisolation, Interferenzprüfung und Räumungsmechanismus.

Das Folgende konzentriert sich auf die dynamische Überverkaufsfunktion: Wie können ungenutzte Knotenressourcen wiederverwendet und die Ressourcennutzung verbessert werden?

Das Kernprinzip des dynamischen Überverkaufs besteht darin, die Differenz zwischen der Knotenanforderung und der tatsächlichen Nutzung als planbare Ressource zu verwenden, die der Planer neu zuweisen und nur für Aufgaben mit geringer Qualität verwenden kann.

Das Merkmal „Überverkauft“ weist folgende Merkmale auf:

  • Priorisieren Sie die Verwendung überverkaufter Ressourcen unterhalb von Jobs
  • Wenn hochwertige Jobs überverkaufte Knoten vorab auswählen, können sie nur ihre nicht überverkauften Ressourcen nutzen.
  • In einem einheitlichen Planungszyklus werden Aufträge mit hoher Qualität vor Aufträgen mit geringer Qualität geplant.

Unabhängig davon, ob es sich um eine cloudnative gemischte Bereitstellung oder überverkaufte Funktionen handelt, kann die Ressourcennutzung verbessert werden. Wie lässt sich also die Ressourcennutzung verbessern und gleichzeitig die Anwendungsleistung und Servicequalität sicherstellen?

Die vom Huawei HCE 2.0 OS bereitgestellte CPU-Isolierungsfunktion stellt in Kombination mit den Lastausgleichsfunktionen von CPU Fast Preemption, SMT-Verwaltungssteuerung und Anweisungen zur Unterdrückung von Offline-Aufgaben die QoS von Online-Geschäftsressourcen sicher und ermöglicht die Reaktion auf unterdrückte Offline-Aufgabenanweisungen so schnell wie möglich.

Basierend auf dem Leistungsvergleich zwischen dem simulierten Online- und Offline-Co-Deployment-Szenario im Labor (CPU-Auslastung 70+ %) und dem Szenario, in dem ein einzelner Dienst online bereitgestellt wird (CPU-Auslastung 30 %), wurde die Leistung von Online-Diensten (Latenz & Durchsatz) im Co-Deployment-Szenario) Der Grad der Verschlechterung wird innerhalb von 5 % der Onlinedienstleistung einer einzelnen Bereitstellung kontrolliert. Grundsätzlich kann davon ausgegangen werden, dass der Einfluss gemischter Teile auf die Leistung auf ein vernachlässigbares Maß reduziert wird.

Werfen wir einen Blick auf einen Kundenfall. Dieser Kunde nutzte die native Co-Location-Lösung von Huawei Cloud, um die Ressourcenzuteilung zu optimieren und erzielte letztendlich eine Steigerung der Ressourcenauslastung um 35 %.

Zu den Hauptproblemen dieses Kunden gehören:

  • Anwendungsbeeinträchtigung: Big Data und Online-Sprach-, Empfehlungs- und andere Anwendungen konkurrieren um Ressourcen wie CPU/Speicher und Netzwerk und beeinträchtigen die Servicequalität hochwertiger Aufgaben.
  • Unangemessene Anwendungsressourcenkonfiguration: Um eine erfolgreiche Planung sicherzustellen, ist die Anforderungseinstellung sehr klein und kann den Lastressourcenbedarf nicht zurückmelden, was zu Ressourcenkonflikten führt.
  • Anwendungen werden mit Kernen gebündelt: Einige Anwendungen werden mit Kernen gebündelt und die Gesamtressourcenauslastung ist gering.

Basierend auf den Kundenproblemen bieten wir unseren Kunden die folgenden Lösungen:

  • Der Kunde hat das ursprüngliche Knoten-Betriebssystem von CentOS auf Huawei Cloud HCE OS umgestellt;
  • Wechseln Sie den Planer vom ursprünglichen Standardplaner zum Volcano-Planer.
  • Konfigurieren Sie Planungspriorität, Isolation und andere Richtlinien entsprechend den Geschäftsattributen des Kunden.

Durch die cloudnative Co-Location-Lösung von Huawei können Kunden letztendlich von einer 35-prozentigen Steigerung der Ressourcennutzung profitieren.

7. CCE Autopilot: Pay-as-you-go und flexible Spezifikationen helfen Kunden, Kosten zu sparen

Der neu eingeführte Autopilot-Cluster von CCE unterstützt die nutzungsbasierte Bezahlung basierend auf der tatsächlichen Nutzung der Anwendung. Der Vorteil gegenüber dem CCE-Cluster besteht darin, dass der Autopilot-Cluster die Verwaltung und den Betrieb von Knoten vollständig übernimmt, sodass Sie keine Knoten planen und kaufen müssen Ressourcen im Voraus zu verwalten und so ein Kostenmanagement zu erreichen.

Hier betrachten wir zwei Kundenszenarien:

  • Für Internetunterhaltungs- und Social-Networking-Unternehmen ist das Verkehrsaufkommen während der Frühlingsfestferien um ein Vielfaches höher als zu normalen Zeiten. Es sind besondere Tracking-, Betriebs- und Wartungsgarantien erforderlich, und Ressourcen werden im Voraus reserviert, was kostspielig ist.
  • Das Geschäft mit Online-Car-Hailing-Plattformen weist typische morgendliche und abendliche Spitzeneigenschaften auf. Beim herkömmlichen Fahrmodus müssen Kunden Ressourcen manuell im Voraus kaufen und reservieren, was zu einer geringen Ressourcenauslastung führt.

Durch Autopilot kann ein verfeinertes Kostenmanagement erreicht werden, was letztendlich zu einer Gesamtkostenreduzierung und Umsatzmaximierung führt.

Klicken Sie hier, um zu folgen und so schnell wie möglich mehr über die neuen Technologien von Huawei Cloud zu erfahren~

Ich beschloss , auf Open-Source -Industriesoftware zu verzichten – OGG 1.0 wurde veröffentlicht, das Team von Ubuntu 24.04 LTS wurde offiziell entlassen ". Fedora Linux 40 wurde offiziell veröffentlicht. Ein bekanntes Spieleunternehmen veröffentlichte neue Vorschriften: Hochzeitsgeschenke von Mitarbeitern dürfen 100.000 Yuan nicht überschreiten. China Unicom veröffentlicht die weltweit erste chinesische Llama3 8B-Version des Open-Source-Modells. Pinduoduo wird zur Entschädigung verurteilt 5 Millionen Yuan für unlauteren Wettbewerb. Inländische Cloud-Eingabemethode – nur Huawei hat keine Sicherheitsprobleme beim Hochladen von Cloud-Daten
{{o.name}}
{{m.name}}

Ich denke du magst

Origin my.oschina.net/u/4526289/blog/11062915
Empfohlen
Rangfolge