로컬 환경에서 Llama 3 대규모 모델 실행: 타당성 및 실무 가이드

라마3.png

소개:

라마(Llama)는 메타(구 페이스북)의 인공지능 연구팀이 개발하고 오픈소스로 공개한 대형 언어 모델(LLM)로, 상업용으로 공개되어 인공지능 전 분야에 지대한 영향을 미쳤습니다. Meta는 이전에 출시된 4096개의 컨텍스트를 지원하는 Llama 2 모델에 이어 8B(80억 매개변수) 모델과 70B(700억 매개변수) 모델을 포함하여 더 나은 성능을 갖춘 Meta Llama 3 시리즈 언어 모델을 추가로 출시했습니다. Llama 3 70B의 성능은 Gemini 1.5 Pro 와 비슷 하며 모든 면에서 Claude Big Cup을 능가하는 반면, 400B+ 모델은 Claude Extra Large Cup 및 신형 GPT-4 Turbo 와 경쟁 할 것으로 예상됩니다.

다양한 테스트 벤치마크에서 Llama 3 시리즈 모델은 실용성 및 안전성 평가 측면에서 시중의 다른 인기 비공개 소스 모델과 비교할 수 있으며 일부 측면에서는 이를 능가하는 우수한 성능을 입증했습니다. Meta Llama 3 시리즈의 출시는 대규모 언어 모델 분야에서 경쟁적 위치를 공고히 할 뿐만 아니라 연구자, 개발자 및 기업에 언어 이해 및 생성 기술의 추가 개발을 촉진할 수 있는 강력한 도구를 제공합니다.

프로젝트 주소:

https://github.com/meta-llama/llama3

라마2와 라마3의 차이점

라마3앤3diff.webp

라마3과 GPT4의 차이점

색인 전화 3 GPT-4
모델 크기 70B、400B+ 100B、175B、500B
매개변수 유형 변신 로봇 변신 로봇
훈련 목표 마스크된 언어 모델링、Perplexity 마스크된 언어 모델링、Perplexity
훈련 데이터 서적、웹텍스트 서적、웹텍스트
성능 SOTA(질문과 답변, 텍스트 요약, 기계 번역 등) SOTA(질문과 답변, 텍스트 요약, 기계 번역 등)
오픈 소스 아니요

라마 3의 하이라이트

  • 모두에게 개방: Meta는 Llama 3의 경량 버전을 오픈 소스로 제공하여 최첨단 AI 기술에 접근할 수 있도록 합니다. AI 기술에 관심이 있는 개발자, 연구자, 친구라면 누구나 자유롭게 탐색하고 만들고 실험할 수 있습니다. Llama 3는 연구원과 개발자를 위해 사용하기 쉬운 API를 제공합니다.

  • 대형 모델 규모: Llama 3 400B+ 모델의 매개변수 규모가 4,000억에 도달했는데, 이는 대형 언어 모델입니다.

  • 곧 다양한 애플리케이션에 통합될 예정입니다. Llama 3에는 현재 Meta AI가 탑재되어 있으며 Meta AI 경험 주소는 https://www.meta.ai/입니다 .

llama3-사전 훈련됨.png

라마3-8b-70b.webp

llam3-15T-tokens.png

Windows에서 Ollama 사용, Llama3 모델 실행

설치 프로그램을 다운로드하려면 https://ollama.com/download/windows 페이지를 방문하세요 .OllamaSetup.exe

설치 후 컴퓨터 구성에 따라 설치할 해당 모델 매개변수를 선택하십시오(7B를 실행하려면 최소 8GB 메모리가 필요하고 13B를 실행하려면 최소 16GB 메모리가 필요함).

여기서 실행 중인 것은 Llama3:8b입니다. 중국어에는 여전히 문제가 있는 것을 볼 수 있습니다.

올라마3.png

모델 매개변수 크기 다운로드
전화 3 8B 4.7GB ollama run llama3
전화 3 70B 40GB ollama run llama3:70b
미스트랄 7B 4.1GB ollama run mistral
돌고래 피 2.7B 1.6GB ollama run dolphin-phi
파이-2 2.7B 1.7GB ollama run phi
신경 채팅 7B 4.1GB ollama run neural-chat
찌르레기 7B 4.1GB ollama run starling-lm
코드 라마 7B 3.8GB ollama run codellama
라마 2 무수정 7B 3.8GB ollama run llama2-uncensored
2 13B에 전화 13B 7.3GB ollama run llama2:13b
2 70B에 전화 70B 39GB ollama run llama2:70b
오르카 미니 3B 1.9GB ollama run orca-mini
용암 7B 4.5GB ollama run llava
아체 2B 1.4GB ollama run gemma:2b
아체 7B 4.8GB ollama run gemma:7b
태양광 10.7B 6.1GB ollama run solar

Hugging Face 사용

방문: https://huggingface.co/chat/ 및 전환Models

복제 사용

8B 모델: https://replicate.com/meta/meta-llama-3-8b

70B 모델: https://replicate.com/meta/meta-llama-3-70b

이 글은 Heng Xiaopai 글을 재인쇄한 글 이며, 저작권은 원저자에게 있습니다. 이 기사를 다시 인쇄하려면 원문을 방문하는 것이 좋습니다.

Linus는 커널 개발자가 탭을 공백으로 대체하는 것을 막기 위해 문제를 직접 해결했습니다. 그의 아버지는 코드를 작성할 수 있는 몇 안 되는 리더 중 한 명이고, 둘째 아들은 오픈 소스 기술 부서의 책임자이며, 막내 아들은 핵심입니다. Huawei: 일반적으로 사용되는 모바일 애플리케이션 5,000개를 변환하는 데 1년이 걸렸습니다. Hongmeng으로의 포괄적인 마이그레이션 Java는 타사 취약점에 가장 취약한 언어입니다. Hongmeng의 아버지인 Wang Chenglu: 오픈 소스 Hongmeng은 유일한 아키텍처 혁신입니다. 중국 기초 소프트웨어 분야의 마화텅(Ma Huateng)과 저우홍이(Zhou Hongyi)가 악수를 하며 "원한을 풀다" 전 마이크로소프트 개발자: 윈도우 11 성능은 "터무니없을 정도로 나쁘다" 라오샹지가 오픈소스인 것은 코드는 아니지만 그 이유는 다음과 같다. Google이 대규모 구조 조정을 발표 했습니다 .
{{o.이름}}
{{이름}}

추천

출처my.oschina.net/u/6851747/blog/11054408