Baidu Hou Zhenyu: 대형 모델이 클라우드 컴퓨팅의 혁신과 변화를 주도합니다.

351379573dffa087d2e6ea4efc499f9e.gif

9월 5일, 2023년 바이두 클라우드 인텔리전스 컨퍼런스가 베이징에서 열렸습니다. 기업이 대형 모델을 더 빠르게 사용하고 효과적으로 활용할 수 있도록 Baidu Intelligent Cloud는 컨퍼런스에서 Baidu Intelligent Cloud Qianfan 대형 모델 플랫폼의 새로운 업그레이드, 디지털 정부, 금융, 산업 및 교통의 재구성이라는 4가지 주요 계획을 발표했습니다. Wenxin 대형 모델 기반 4대 산업 솔루션 서비스 마케팅, 사무실 효율성 개선, 생산 최적화 등 3대 주요 영역을 포괄하는 일반 시나리오용 AI 기본 애플리케이션 11개 출시 파트너에게 자금, 컴퓨팅을 제공하기 위한 대형 모델에 대한 새로운 생태학적 정책 출시 파워, 기술, 마케팅 등 전방위적으로 강력한 지원을 제공합니다.

회의에서 Baidu Group의 Hou Zhenyu 부사장은 "대형 모델이 클라우드 컴퓨팅 혁신과 변화를 주도한다"라는 기조연설에서 "대형 모델은 클라우드 컴퓨팅의 혁신을 주도하고 클라우드 컴퓨팅의 산업 구조를 재편할 것"이라고 말했다. AI 기술의 반복은 기반 IT 인프라의 재구축을 동시에 추진하는 동시에 상위 애플리케이션 개발 모델에도 변화를 가져옵니다."

f40329379ede10e536161e7e43f61e7c.jpeg

허우젠위(Hou Zhenyu) 바이두그룹 부사장

다음은 연설 전문이다.

친애하는 손님 및 친구 여러분, 좋은 아침입니다.

방금 Shen Dou 박사는 대형 모델이 가져온 기술 혁명을 완전히 공유하고 Baidu 지능형 클라우드 Qianfan 대형 모델 플랫폼 2.0을 출시했으며 수천 가지 산업 분야에서 대형 모델을 성공적으로 구현한 사례를 소개했습니다. 우리가 돌입하는 빅모델, 모델시대에도 기대감이 가득하다.

다음으로 공유하고 싶은 것은 클라우드 컴퓨팅 자체로 돌아가서 대형 모델이 클라우드 컴퓨팅에 가져올 혼란과 변화를 공유하는 것입니다. 우리는 대형 모델이 클라우드 컴퓨팅 혁신을 주도하고 클라우드 컴퓨팅 산업 환경을 재편할 것이라고 믿습니다.

d801f7bc1fea298c518cd2ae35ef056a.jpeg

대형 모델의 개발은 이전의 AI 기술 반복과 다르며, 기본 IT 인프라의 재구성을 주도하고 상위 애플리케이션 개발 모델의 변화를 가져옵니다.

지난 몇 년간의 기술 발전 상황을 살펴보겠습니다.

2012년부터 딥러닝은 점차 인공지능의 주류 알고리즘이 되었습니다. 모바일 애플리케이션에서는 딥러닝이 빛을 발하며, 알고리즘 모델 역량은 많은 모바일 인터넷 기업의 핵심 경쟁력이 되었습니다. 그러나 딥 러닝은 애플리케이션 강화에만 초점을 맞출 뿐 애플리케이션 개발 패러다임을 크게 바꾸지는 않습니다.

클래식 클라우드 컴퓨팅이 탄생한 이후 컴퓨팅 네트워크 스토리지의 가상화는 컴퓨팅 파워를 기본 서비스로 만들었고, 클라우드 컴퓨팅으로 인해 디지털 인프라의 지형이 바뀌었습니다. 모바일 애플리케이션은 클라우드에 보다 친화적인 클라우드 네이티브 아키텍처 개념을 사용하여 설계되어 모바일 애플리케이션 개발의 반복 효율성을 크게 향상시키고 모바일 애플리케이션 시장의 번영에 어느 정도 기여합니다.

우리는 모바일 애플리케이션, 딥 러닝, 클라우드 컴퓨팅의 세 가지 시대가 겹치고 모바일 애플리케이션 시장의 번영도 딥 러닝과 클라우드 컴퓨팅의 발전으로 이익을 얻고 있음을 발견했습니다. 세 개의 평행선 . 대형 모델로 열린 AI 네이티브 시대에 이 세 개의 평행선은 마침내 교차점을 열었습니다.

>>애플리케이션 계층에서는 대형 모델의 고유한 이해, 생성, 논리 및 메모리 기능이 AI 네이티브 애플리케이션 형태로 현장에 구현됩니다.

>>동시에 대형 모델은 범용 서비스, 즉 MaaS가 되어 AI 구현의 문턱을 크게 낮추고 진정한 AI 포용성을 실현할 것입니다.

>>인프라로서 클라우드 컴퓨팅은 대규모 모델 개발과 AI 기반 애플리케이션을 중심으로 AI 기반 클라우드로 발전하여 클라우드 컴퓨팅의 산업 구조를 재편할 것입니다.

0aff1aa182f7bfc4ae8f408828d4e5c2.jpeg

생성적 AI는 새로운 R&D 패러다임을 탄생시킬 것입니다. 이는 AI 네이티브 애플리케이션을 구현하려면 새로운 아키텍처 지침이 필요하고, AI 모델 기능의 R&D 및 추론에는 새로운 서비스 보유자가 필요하며, 인프라도 새로운 AI를 개발한다는 사실이 반영됩니다. - 중심 컴퓨팅 아키텍처.

하나씩 소개하자면 다음과 같습니다.

첫째, 새로운 아키텍처입니다. AI 기반 애플리케이션은 '빅 모델'을 지향하고 빅 모델을 핵심으로 설계되었으며, 빅 모델의 새로운 기능을 최대한 활용하기 위해 애플리케이션에 대한 새로운 아키텍처 요구 사항이 제시됩니다.

우리는 AI 기반 애플리케이션을 구축하려면 다음과 같은 몇 가지 핵심 기술 구성 요소가 필요하다고 생각합니다.

>>첫 번째는 모델 기능인 모델로 API 호출 형태로 서비스를 제공합니다. 여기에 있는 모델에는 기본 모델뿐만 아니라 고객이 직접 미세 조정한 모델도 포함됩니다.

>> 그 다음에는 사용자가 모델에서 더 나은 답변을 얻을 수 있도록 도와주는 프롬프트가 있습니다.

>> 정적 및 동적 오케스트레이션을 구현하는 체인 및 에이전트도 있으며 대형 모델의 고유한 기능을 사용하여 체인 호출을 실현합니다.

이는 더 잘 사용할 수 있는 모델 기능이며, 대규모 언어 모델이 가져온 변화입니다. 대규모 모델의 이러한 기능으로 인해 발생하는 변화에 따라 애플리케이션은 자연스럽게 데이터 흐름과 비즈니스 흐름을 재구성해야 합니다.

둘째, 새로운 서비스입니다. 모델 역량은 MaaS의 새로운 기본 서비스가 될 것이며, MaaS는 풍부함, 사용 용이성, AI 지향 네이티브성이라는 세 가지 특성을 갖추어야 합니다. 이를 위해서는 다음이 필요합니다.

>>우선, 대형 모델 플랫폼은 고객이 선택할 수 있는 풍부한 대형 모델을 제공해야 합니다. 우리는 애플리케이션이 "일반과 전문의 결합"이어야 한다고 믿기 때문에 미래에는 하나의 모델로 모든 문제를 해결할 수는 없으며 다양한 고객 시나리오의 요구를 충족하려면 모델의 조합이 필요합니다.

>>둘째, 대규모 모델 플랫폼을 간단하고 쉽게 사용하려면 데이터 수집 및 라벨링부터 모델 개발 및 교육 평가, 모델 온라인 추론 및 최적화에 이르기까지 전체 수명주기를 포괄하는 전체 도구 체인 세트가 필요합니다.

>>마지막으로 데이터가 AI 모델에 매우 중요하다는 사실은 모두가 알고 있으며, 플랫폼은 고객이 고객 모델 반복을 더 효과적으로 지원하기 위해 자체 데이터 폐쇄 루프 기능을 구축하도록 지원해야 합니다.

셋째: 새로운 계산. 대형 모델에는 대량의 데이터에 대한 고밀도 계산이 필요하며, 이는 컴퓨팅 아키텍처에 새로운 요구 사항을 가져옵니다.

컴퓨팅 워크로드가 이기종 컴퓨팅으로의 마이그레이션을 가속화하고 규모가 점점 커지고 있음을 알 수 있습니다. 마이크로초 수준의 상호 연결은 컴퓨팅 성능의 대규모 확장을 위한 핵심 기능이 되었습니다. 이 모든 것은 소프트웨어와 하드웨어를 통합하는 방법을 사용하여 전체 아키텍처 수준에서 해결해야 합니다.

다음으로, AI 네이티브 애플리케이션의 새로운 아키텍처, 새로운 모델 서비스 및 새로운 AI 지향 컴퓨팅 인프라를 추가로 소개하겠습니다.

272379c08a44af1d044a3875a94a345d.jpeg

AI는 현장에서 구현되어야 하며, 이는 애플리케이션에 의해 수행됩니다. AI 네이티브 애플리케이션이 어떻게 설계되고 어떤 서비스 구성 요소가 포함되어 있는지에 대해 모두가 매우 관심을 갖고 있다고 생각합니다.

여기서는 일반적인 비즈니스 통화 흐름이 어떤 것인지 공유하겠습니다. 대형 모델 적용 프로세스는 사용자의 요청으로 시작되며 시스템은 먼저 사용자의 의도를 분해하고 정렬하며 그 결과로 생성된 여러 하위 작업은 일반적으로 도메인 지식 강화, 검색 강화 등을 통해 구현됩니다. 대규모 언어 모델, 마지막으로 보안 모듈의 감사를 거쳐 사용자에게 반환되며, 인프라는 작업 조정 및 디버깅, 시스템 로그 모니터링 등을 지원합니다.

간단히 요약하면 AI 네이티브 애플리케이션 개발에는 세 가지 주요 기능이 필요합니다: 첫째, 효율적인 애플리케이션 개발 환경 , Baidu는 로우 코드 도구, 풍부한 수직 애플리케이션 템플릿 및 시각적 디버깅 도구를 제공합니다. 둘째, 풍부한 도메인 향상 지원 , Baidu는 다음과 같은 서비스를 제공합니다. 자체 개발한 벡터 데이터베이스, 데이터 레이크, 검색 기능 강화 등 세 번째는 완전한 콘텐츠 보안 보장으로 , 출력 콘텐츠의 보안을 보장하기 위한 다양한 수단을 제공합니다.

위의 기능을 기반으로 고객은 AI 네이티브 애플리케이션을 쉽게 구축할 수 있습니다.

b8d161f5245ed9b0cbd610669ed17b5f.jpeg

방금 Shen 박사의 공유에서 모든 사람들은 Baidu 스마트 클라우드 Qianfan 대규모 모델 플랫폼 2.0의 뛰어난 기능을 확인하여 기업이 대규모 모델 응용 프로그램의 격차를 해소할 수 있도록 지원합니다.Qianfan 대규모 모델 플랫폼은 다음과 같이 구축되었습니다. 새로운 AI 기반 기술 스택. 데이터의 각 계층, Model, Prompt, Chain, Agent에서 풍부한 기능과 구성요소를 제공하여 대규모 모델의 적용을 더욱 편리하게 만듭니다.

Baidu Smart Cloud Qianfan 대규모 모델 플랫폼의 특징은 세 가지 측면으로 요약할 수 있습니다.

>>하나 는 Baidu가 자체 개발한 Wenxin 대형 모델뿐만 아니라 여러 타사 대형 모델을 포함하여 사용하기 쉬운 여러 대형 모델을 제공하는 것입니다 . 동시에 이러한 모델의 경우 빠르고 편리한 훈련 모델을 지원하기 위해 재훈련 및 미세 조정과 같은 시각적 도구를 제공합니다.

>>두 번째는 풍부한 생태 도구를 제공하고 전체 Baidu 스마트 클라우드 서비스와 협력하여 대형 모델 적용을 준비하는 것입니다.

>>세 번째는 풍부한 데이터 세트를 사전 설정 하고 반복 업데이트 모델에 대한 애플리케이션 데이터 피드백을 지원하여 데이터 활성 추진 비즈니스 반복을 실현하는 것입니다.

Baidu Smart Cloud Qianfan 대형 모델 플랫폼은 대형 모델의 개발 및 서비스에 대한 전체 수명 주기 지원을 제공합니다.

bc42ca16de5e3b3c5f59734301837097.jpeg

인프라 계층에서 Baidu는 Baige 이기종 컴퓨팅 플랫폼을 개발했습니다. Baige 플랫폼은 안정적이고 신뢰성이 높은 시스템, 고성능 훈련 및 추론 서비스, 고속 네트워크 기반 데이터 교환 기능 등 대형 모델과 AI 기반 애플리케이션을 제공합니다.

>>높은 신뢰성 측면에서 대규모 병렬 훈련의 안정성은 고객이 우려하는 핵심 인프라 기능 중 하나입니다. Baige는 강력한 내결함성 기능을 갖추고 있어 2단계 오류 인식 및 분 단위 자동 자동화를 달성할 수 있습니다. 내결함성 월간 카드 교육이 중단되지 않아 고객의 대규모 모델 교육 요구 사항을 완전히 충족합니다.

>>고성능 측면에서 Baidu는 수년간 AI 인프라를 축적한 후 Baige는 공개 모델 라이브러리의 훈련 성능이 30% 이상 향상되고 추론 처리량이 10배 증가했습니다.

>>고속 네트워크 측면에서 우리는 자체 개발한 고속 네트워크를 보유하고 있어 통신 지연을 줄이고 통신 처리량을 높여 컴퓨팅 파워 규모 확장의 기반을 마련합니다.

c85ba42a623092429207080159647797.jpeg

AI 네이티브 시대의 역사적 기회에 직면하여 Baidu Smart Cloud는 다양한 제품을 만들었습니다. 여기서는 Baidu AI 네이티브 클라우드의 제품 파노라마를 보여줍니다. 제가 공유한 콘텐츠는 그 중 극히 일부에 불과하다는 것을 알 수 있습니다. 더 많은 제품 공유는 오후에 '지능형 컴퓨팅 및 대형 모델 기술' 하위 포럼에서 진행될 예정입니다. 누구나 때때로 우리의 하위 포럼에 오실 수 있습니다.

af36cee169e598646c06c60f01a290da.jpeg

AI의 보편적 혜택을 실현하는 것이 우리의 신념이며, 모든 사람과 모든 조직이 AI 기술의 편리함을 누릴 수 있도록 하고, 디지털 격차를 해소하며, 공정성과 진보를 실현하고, 지능을 실현하고, 기술을 활용하여 AI를 실현하기 위해 최선을 다해 왔습니다. 복잡한 작업에 더 쉽게 접근할 수 있고 세상이 더 단순해졌습니다. 모두 감사합니다!

80aaa39c57458eb94e9e622a08c2b5ba.png

b82a03c2742885e0eb33468baeb31d7c.png

f7312e5eca6a59ebaccfb8eaae5b2c9c.png

b9cc7f4b6f68768218ced120f86f84f6.png

1f83383850e9d640d83a1f6692e0b446.png

컨퍼런스의 세부 내용을 검토하려면 "원문 읽기"를 클릭하세요.

추천

출처blog.csdn.net/weixin_48493350/article/details/132750364