As empresas que adotarem a abordagem de engenharia da plataforma MLOps receberão um impulso imediato e muito necessário em sua eficiência operacional.
Traduzido de Optimize AI at Scale With Platform Engineering for MLOps , autor Kevin Cochrane.
Duas pesquisas recentes sobre IA sugerem que a proposta de valor da IA atingiu uma massa crítica. De acordo com a Pesquisa de Tecnologias Emergentes de 2023 da PwC , 73% dos entrevistados nos EUA disseram que suas empresas adotaram inteligência artificial em algumas áreas de seus negócios. Em uma pesquisa recente da Forbes Advisor , 64% dos entrevistados disseram que a IA melhorará o relacionamento com os clientes e aumentará a produtividade, e 60% esperam que a IA impulsione o crescimento das vendas.
No entanto, à medida que as empresas reorganizam as suas operações comerciais em torno da IA preditiva e generativa para obterem uma vantagem competitiva, necessitam de maximizar a eficiência das suas operações de aprendizagem automática ( MLOps ) para obterem um retorno positivo do investimento. Esta não é uma tarefa fácil nos dias de hoje, uma vez que a IA em grande escala significa que as empresas podem ter dezenas ou centenas de modelos de aprendizagem automática (MLM) em desenvolvimento, formação ou produção ao mesmo tempo.
Sem os recursos adequados de automação e autoatendimento, os fluxos de trabalho que suportam MLOps distribuídos em grande escala podem impedir que os engenheiros de aprendizado de máquina (ML) executem tarefas intermináveis de arquitetura e gerenciamento de componentes. Isso os impede de realizar trabalhos de alto valor no modelo ou nos aplicativos de IA que seu MLM suporta.
Adote uma abordagem de engenharia de plataforma
Assim como a engenharia de plataforma surgiu do movimento DevOps para simplificar os fluxos de trabalho de desenvolvimento de aplicativos, a engenharia de plataforma também deve simplificar os fluxos de trabalho de MLOps. Para atingir esse objetivo, primeiro você deve reconhecer as diferenças fundamentais entre DevOps e MLOps. Somente desta forma podem ser desenvolvidas soluções eficazes de engenharia de plataforma para engenheiros de ML. Para permitir a IA em escala, as empresas devem comprometer-se a desenvolver, implementar e manter soluções de engenharia de plataforma desenvolvidas especificamente para MLOps.
Dimensionando a IA em toda a empresa distribuída com modelos personalizáveis
Seja devido a requisitos de governação de dados ou a preocupações práticas sobre a movimentação de grandes quantidades de dados através de vastas distâncias geográficas, os MLOps em grande escala exigem que as empresas adotem uma abordagem spoke-and-hub. O desenvolvimento e o treinamento de modelos ocorrem centralmente, os modelos treinados são distribuídos para locais de borda para serem ajustados com base em dados locais, e os modelos ajustados são implantados perto de onde os usuários finais interagem com eles e com os aplicativos de IA que eles utilizam.
Veja quantas empresas estão implementando IA em grande escala:
- Estabeleça um centro de excelência dentro da empresa onde o desenvolvimento e o treinamento de MLM possam ser centralizados.
- Aproveite modelos de código aberto em repositórios públicos para que sua organização não precise começar do zero ao desenvolver cada novo modelo.
- Concentre-se no desenvolvimento de modelos menores e mais especializados que resolvam casos de uso de negócios específicos.
- Treine modelos em dados proprietários da empresa e mova os modelos treinados para um registro privado centralizado, tornando-os acessíveis em toda a empresa.
- Aproveite uma poderosa arquitetura de borda híbrida e/ou multinuvem baseada em nuvem que permite uma forte integração de operações de CPU e GPU para fornecer inferência de IA nas áreas geográficas onde sua organização opera.
- Ajustar modelos de ponta com base em dados locais para levar em conta fatores regionais e culturais, mantendo ao mesmo tempo a governança de dados e os requisitos de privacidade.
Otimize MLOps com soluções de engenharia de plataforma desenvolvidas para MLOps
As soluções de engenharia de plataforma projetadas para MLOps em larga escala devem atender a todos os seguintes requisitos:
- Otimização da infraestrutura : simplifique a forma como os cientistas de dados e engenheiros de ML implantam componentes de infraestrutura otimizados para cargas de trabalho de ML.
- Gerenciamento e implantação de modelos : crie um registro privado eficiente baseado em Kubernetes para modelos de treinamento, tornando-os disponíveis e acessíveis em toda a empresa.
- Governança e privacidade de dados : Forneça medidas de armazenamento e segurança de dados baseadas na borda para manter a governança e a privacidade dos dados ao treinar modelos usando dados corporativos proprietários e ajustar modelos na borda com base em dados regionais.
- Observabilidade do modelo em todos os estágios : integre ferramentas de monitoramento e observabilidade em soluções de engenharia de plataforma para que os engenheiros de ML possam construir observabilidade em todos os estágios do MLOps para garantir práticas responsáveis de IA.
- Tarefas automatizadas e autoatendimento : automatize a criação, o teste e a implantação de código por meio de pipelines de CI/CD e use ferramentas de infraestrutura como código (IaC) para configuração e gerenciamento de infraestrutura.
Prepare sua empresa para o futuro com MLOps e prepare suas soluções de engenharia de plataforma para o futuro
A economia da inovação em torno do ecossistema de IA introduz novos componentes todos os dias para melhorar a pilha de IA. Se desenvolvidas adequadamente, suas soluções de engenharia de plataforma de ML poderão aproveitar o poder das novas tecnologias à medida que forem disponibilizadas. Para conseguir isso, sua solução de engenharia de plataforma de ML deve ser gerenciada como um produto e não como um projeto.
Isso requer tratar os cientistas de dados e engenheiros de ML que interagem com a plataforma como clientes e atribuir uma equipe de suporte ao produto dedicada para gerenciar o backlog de recursos da solução. As equipes de produtos de engenharia de plataforma devem melhorar continuamente as soluções à medida que os requisitos mudam e a tecnologia evolui.
As empresas devem contratar engenheiros com experiência em MLOps para preencher adequadamente os cargos de engenharia de plataforma . De acordo com uma pesquisa do Fórum Econômico Mundial , espera-se que a IA crie aproximadamente 97 milhões de novos empregos até 2025. Cada vez mais, essas oportunidades estarão em funções de engenharia de plataforma de ML.
As empresas que adotam a abordagem de engenharia da plataforma MLOps fornecerão um impulso imediato muito necessário à sua eficiência operacional e prepararão suas iniciativas de IA para o futuro, garantindo que seus engenheiros de ML possam sempre se concentrar no trabalho de ciência de dados de alto valor para o qual foram contratados.
RustDesk suspende serviços domésticos devido a fraude desenfreada Apple lança chip M4 Taobao (taobao.com) reinicia trabalho de otimização de versão web Alunos do ensino médio criam sua própria linguagem de programação de código aberto como um presente de maioridade - Comentários críticos dos internautas: Confiando no defesa Yunfeng renunciou ao Alibaba e planeja produzir no futuro O destino para programadores de jogos independentes Visual Studio Code 1.89 lança Java 17. É a versão Java LTS mais comumente usada, com uma participação de mercado de 70. %, e o Windows 11 continua a diminuir. Open Source Daily | Google apoia Hongmeng para assumir o controle do Rabbit R1;Este artigo foi publicado pela primeira vez em Yunyunzhongsheng ( https://yylives.cc/ ), todos são bem-vindos para visitar.