Implementierung einer groß angelegten KI-Optimierung mithilfe der Plattformtechnik von MLOPS

Unternehmen, die den MLOps-Plattform-Engineering-Ansatz übernehmen, erhalten die dringend benötigte, sofortige Steigerung ihrer betrieblichen Effizienz.

Übersetzt aus Optimize AI at Scale With Platform Engineering for MLOps , Autor Kevin Cochrane.

Zwei aktuelle Umfragen zu KI deuten darauf hin, dass das Wertversprechen von KI eine kritische Masse erreicht hat. Laut der PwC-Umfrage „Emerging Technologies Survey 2023“ gaben 73 % der US-Befragten an, dass ihre Unternehmen in einigen Geschäftsbereichen künstliche Intelligenz eingeführt hätten. In einer aktuellen Forbes Advisor-Umfrage gaben 64 % der Befragten an, dass KI die Kundenbeziehungen verbessern und die Produktivität steigern wird, und 60 % erwarten, dass KI das Umsatzwachstum vorantreiben wird.

Da Unternehmen ihre Geschäftsabläufe jedoch auf prädiktive und generative KI umstellen, um sich einen Wettbewerbsvorteil zu verschaffen, müssen sie die Effizienz ihrer maschinellen Lernvorgänge ( MLOps ) maximieren, um eine positive Kapitalrendite zu erzielen. Heutzutage ist dies keine leichte Aufgabe, denn groß angelegte KI bedeutet, dass Unternehmen jederzeit über Dutzende oder Hunderte von Modellen für maschinelles Lernen (MLM) in Entwicklung, Schulung oder Produktion verfügen können.

Ohne die richtigen Automatisierungs- und Self-Service-Funktionen können Arbeitsabläufe, die groß angelegte verteilte MLOps unterstützen, Ingenieure für maschinelles Lernen (ML) daran hindern, endlose Architektur- und Komponentenverwaltungsaufgaben auszuführen. Dies hindert sie daran, hochwertige Arbeiten am Modell oder an den KI-Anwendungen durchzuführen, die ihr MLM unterstützt.

Übernehmen Sie einen Plattform-Engineering-Ansatz

So wie das Plattform-Engineering aus der DevOps-Bewegung hervorgegangen ist, um die Arbeitsabläufe bei der Anwendungsentwicklung zu vereinfachen, muss das Plattform-Engineering auch die MLOps-Workflows vereinfachen. Um dieses Ziel zu erreichen, müssen Sie zunächst die grundlegenden Unterschiede zwischen DevOps und MLOps erkennen. Nur so können effektive Plattform-Engineering-Lösungen für ML-Ingenieure entwickelt werden. Um KI in großem Maßstab zu ermöglichen, müssen sich Unternehmen dazu verpflichten, Plattform-Engineering-Lösungen zu entwickeln, bereitzustellen und zu warten, die speziell für MLOps entwickelt wurden.

Skalieren Sie KI im gesamten verteilten Unternehmen mit anpassbaren Blaupausen

Ob aufgrund von Data-Governance-Anforderungen oder praktischen Bedenken hinsichtlich der Übertragung großer Datenmengen über große geografische Entfernungen: Groß angelegte MLOps erfordern von Unternehmen die Einführung eines Spoke-and-Hub-Ansatzes. Modellentwicklung und -schulung erfolgen zentral, trainierte Modelle werden an Edge-Standorte verteilt, um auf der Grundlage lokaler Daten feinabgestimmt zu werden, und feinabgestimmte Modelle werden in der Nähe der Orte bereitgestellt, an denen Endbenutzer mit ihnen interagieren und an den KI-Anwendungen, die sie nutzen.

Hier erfahren Sie, wie viele Unternehmen KI in großem Umfang implementieren:

  • Richten Sie innerhalb des Unternehmens ein Kompetenzzentrum ein, in dem die MLM-Entwicklung und -Schulung zentralisiert werden kann.
  • Nutzen Sie Open-Source-Modelle in öffentlichen Repositorys, damit Ihr Unternehmen nicht bei der Entwicklung jedes neuen Modells bei Null anfangen muss.
  • Konzentrieren Sie sich auf die Entwicklung kleinerer, spezialisierterer Modelle, die spezifische Geschäftsanwendungsfälle lösen.
  • Trainieren Sie Modelle anhand proprietärer Unternehmensdaten und verschieben Sie die trainierten Modelle in ein zentralisiertes privates Register, sodass sie im gesamten Unternehmen zugänglich sind.
  • Nutzen Sie eine leistungsstarke, cloudbasierte Hybrid- und/oder Multi-Cloud-Edge-Architektur, die eine enge Integration von CPU- und GPU-Vorgängen ermöglicht, um KI-Inferenzen in den geografischen Bereichen zu liefern, in denen Ihr Unternehmen tätig ist.
  • Passen Sie Edge-Modelle auf der Grundlage lokaler Daten an, um regionale und kulturelle Faktoren zu berücksichtigen und gleichzeitig die Anforderungen an Datenverwaltung und Datenschutz zu erfüllen.

Optimieren Sie MLOps mit Plattform-Engineering-Lösungen, die für MLOps entwickelt wurden

Plattform-Engineering-Lösungen, die für große MLOps entwickelt wurden, müssen alle folgenden Anforderungen erfüllen:

  • Infrastrukturoptimierung : Vereinfachen Sie die Art und Weise, wie Datenwissenschaftler und ML-Ingenieure Infrastrukturkomponenten bereitstellen, die für ML-Workloads optimiert sind.
  • Modellverwaltung und -bereitstellung : Erstellen Sie eine effiziente private Kubernetes-basierte Registrierung für Trainingsmodelle, um diese im gesamten Unternehmen verfügbar und zugänglich zu machen.
  • Datenverwaltung und Datenschutz : Bereitstellung von Edge-basierten Datenspeicher- und Sicherheitsmaßnahmen zur Wahrung der Datenverwaltung und des Datenschutzes beim Training von Modellen mithilfe proprietärer Unternehmensdaten und bei der Feinabstimmung von Modellen am Edge auf der Grundlage regionaler Daten.
  • Modellbeobachtbarkeit in jeder Phase : Integrieren Sie Überwachungs- und Beobachtbarkeitstools in Plattform- Engineering-Lösungen, damit ML-Ingenieure in jeder Phase von MLOps Beobachtbarkeit aufbauen können, um verantwortungsvolle KI-Praktiken sicherzustellen.
  • Automatisierte Aufgaben und Self-Service : Automatisieren Sie Code-Builds , Tests und Bereitstellung über CI/CD-Pipelines und verwenden Sie Infrastructure as Code (IaC)-Tools für die Infrastrukturkonfiguration und -verwaltung.

Bereiten Sie Ihr Unternehmen mit MLOps auf die Zukunft vor und machen Sie Ihre Plattform-Engineering-Lösungen zukunftssicher

Die Innovationsökonomie rund um das KI-Ökosystem führt täglich neue Komponenten ein, um den KI-Stack zu verbessern. Bei richtiger Entwicklung können Ihre ML-Plattform-Engineering-Lösungen die Leistungsfähigkeit neuer Technologien nutzen, sobald diese verfügbar sind. Um dies zu erreichen, muss Ihre ML-Plattform-Engineering-Lösung als Produkt und nicht als Projekt verwaltet werden.

Dazu ist es erforderlich , die Datenwissenschaftler und ML-Ingenieure , die mit der Plattform interagieren , als Kunden zu behandeln und ein spezielles Produktsupportteam mit der Verwaltung des Funktionsrückstands der Lösung zu beauftragen. Plattform-Engineering-Produktteams müssen ihre Lösungen kontinuierlich verbessern, wenn sich die Anforderungen ändern und die Technologie weiterentwickelt.

Unternehmen sollten Ingenieure mit MLOps-Erfahrung einstellen, um Plattform-Engineering-Positionen angemessen zu besetzen . Laut einer Studie des Weltwirtschaftsforums wird KI bis 2025 voraussichtlich etwa 97 Millionen neue Arbeitsplätze schaffen. Zunehmend werden diese Möglichkeiten in ML-Plattform-Engineering-Rollen liegen.

Unternehmen, die den MLOps-Plattform- Engineering-Ansatz übernehmen , werden ihre betriebliche Effizienz sofort steigern und ihre KI-Initiativen zukunftssicher machen, indem sie sicherstellen, dass sich ihre ML-Ingenieure immer auf die hochwertige datenwissenschaftliche Arbeit konzentrieren können, für die sie eingestellt werden.

Dieser Artikel wurde zuerst auf Yunyunzhongsheng ( https://yylives.cc/ ) veröffentlicht, jeder ist herzlich willkommen.

RustDesk stellt inländische Dienste wegen grassierendem Betrug ein. Apple veröffentlicht M4-Chip. Taobao (taobao.com) startet die Arbeit zur Optimierung der Webversion neu. Oberstufenschüler erstellen ihre eigene Open-Source-Programmiersprache als Geschenk für das Erwachsenwerden – kritische Kommentare von Internetnutzern: Verlassen Sie sich auf die Verteidigung Yunfeng ist von Alibaba zurückgetreten und plant , in Zukunft Java 17 als Ziel für unabhängige Spieleprogrammierer . Es ist die am häufigsten verwendete Java LTS-Version mit einem Marktanteil von 70 % und Windows 11 gehen weiter zurück. Google unterstützt die Übernahme von Open-Source-Rabbit. Microsoft hat die offene Plattform geschlossen
{{o.name}}
{{m.name}}

Je suppose que tu aimes

Origine my.oschina.net/u/6919515/blog/11105751
conseillé
Classement