누구나 GitHub에 별표를 표시할 수 있습니다.
분산형 풀링크 인과 학습 시스템 OpenASCE: https://github.com/Open-All-Scale-Causal-Engine/OpenASCE
대규모 모델 기반 지식 그래프 OpenSPG: https://github.com/OpenSPG/openspg
대규모 그래프 학습 시스템 OpenAGL: https://github.com/TuGraph-family/TuGraph-AntGraphLearning
이번 호의 인기 주제:
애플, 최신 AI 칩 탑재한 신형 아이패드 프로 출시
강력한 MoE 언어 모델 DeepSeek-V2는 공식적으로 오픈 소스이며 100만 개의 토큰을 보유하고 있으며 성능은 GPT-4-turbo에 가깝습니다.
OpenAI SearchGPT가 다음 주에 출시될 예정
LSTM 작성자, Transformer를 대체할 새로운 LLM 아키텍처 출시
이제 Copilot Chat을 GitHub 모바일에서 완전히 사용할 수 있습니다.
...
01. 애플, 최신 AI 칩 탑재한 신형 아이패드 프로 출시
애플이 최신 버전의 아이패드 프로와 아이패드 에어 태블릿, 그리고 새로운 애플 펜슬 프로를 출시했습니다. 새로운 iPad Pro의 핵심은 기존 iPad Pro 모델보다 4배 더 강력한 Apple의 새로운 맞춤형 M4 프로세서입니다.
M4는 Apple 칩의 또 다른 도약입니다. 2세대 3nm 공정을 기반으로 하며 더 나은 에너지 효율성을 갖추고 있으며 화면에 더 나은 정확성, 색상 및 밝기를 제공할 수 있습니다.
M4 칩을 탑재한 새로운 뉴럴 엔진은 AI 역량에 거의 맞춤 제작됐으며, 이전 세대 M3 대비 컴퓨팅 파워가 10~15% 향상됐다. 신경망 엔진은 얼굴 잠금 해제, 이미지 처리 등 머신러닝 부분을 주로 담당하는데, M4 칩이 탑재된 제품은 이러한 애플리케이션에서 실행 효율성을 크게 향상시킬 것이다.
더 알아보기:
https://www.cnn.com/2024/05/07/tech/apple-unveils-new-ipad-lineup/index.html
02. 강력한 MoE 언어 모델인 DeepSeek-V2는 공식 오픈 소스로 100만 개의 토큰을 보유하고 있으며 성능은 GPT-4-turbo에 가깝습니다.
DeepSeek은 강력한 MoE(혼합 전문가) 언어 모델 DeepSeek-V2를 오픈 소스로 제공했습니다. DeepSeek-V2는 학습 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배 늘리는 동시에 더 강력한 성능을 달성합니다. DeepSeek-V2의 모델 성능은 매우 인상적입니다. AlignBench 벤치마크에서 GPT-4를 능가하고 GPT-4-turbo에 가깝습니다. 이는 LLaMA3-70B와 비슷하며 MT-Bench에서는 Mixtral 8x22B보다 좋습니다. 수학, 코드 및 추론에서 .
가격 측면에서 DeepSeek-V2 API의 가격은 다음과 같습니다. 백만 토큰당 입력은 US$0.14(약 RMB 1)이고 출력은 US$0.28(약 RMB 2, 32K 컨텍스트)입니다. GPT-4-Turbo 가격과 비교하면, 가격은 후자의 거의 1%에 불과합니다.
더 알아보기:
https://stanforddaily.com/2024/04/25/openai-ceo-sam-altman-talks-ai-development-and-society/
03. OpenAI SearchGPT가 다음주에 출시될 수도 있습니다
OpenAI는 내부적으로 "Sonic"으로 알려진 검색 엔진 "SearchGPT"를 출시할 예정이며, 이미지 검색, 날씨, 계산기, 시간대 및 기타 위젯과 후속 질문 메시지도 제공할 예정입니다. 이는 웹 개발자 Tibor Blaho의 유출된 스크린샷과 정보를 기반으로 합니다.
"SearchGPT"는 ChatGPT와 유사한 채팅 창에 결과를 표시하고 웹페이지를 최대 300자로 요약합니다. Blaho에 따르면 SearchGPT에서 사용하는 언어 모델은 GPT-4 Lite, GPT-4 또는 GPT-3.5입니다.
더 알아보기:
https://the-decoder.com/openais-searchgpt-might-be-shown-next-monday-together-with-gpt-4-lite/
04. LSTM 작성자가 Transformer를 대체할 새로운 LLM 아키텍처 출시
LSTM의 창시자인 Sepp Hochreiter는 새로운 LLM 아키텍처인 xLSTM을 출시했습니다. xLSTM 아키텍처는 기존 LSTM을 기반으로 하며 메모리 하이브리드와 새로운 메모리 구조를 갖춘 지수 게이팅을 도입합니다. 이는 Transformers 및 State Space Models와 같은 최첨단 방법에 비해 언어 모델링에서 잘 수행됩니다. 더 큰 xLSTM 모델은 현재 Transformer 기술을 사용하여 구축된 대규모 언어 모델에 대한 심각한 경쟁자가 될 것입니다. 또한 xLSTM은 강화 학습, 시계열 예측, 물리적 시스템 모델링을 비롯한 다양한 딥 러닝 영역에 영향을 미칠 수 있는 잠재력을 가지고 있습니다.
더 알아보기:
**05.**이제 GitHub 모바일에서 Copilot Chat을 완전히 사용할 수 있습니다.
GitHub는 코딩 관련 질문과 코드 생성을 위한 AI 채팅 인터페이스인 Copilot Chat을 이제 모바일 앱에서 일반적으로 사용할 수 있다고 화요일에 발표했습니다. GitHub의 새로 승진한 제품 담당 수석 부사장인 Mario Rodriguez는 모바일 앱이 매우 인기가 높으며 스타 저장소 및 일부 GitHub의 소셜 기능과 같은 작업을 수행할 수 있다고 말했습니다. 또한 개발자들은 모바일 채팅 기능을 사용하여 특정 저장소에 대해 질문하고 있습니다. 문제.
더 알아보기:
https://techcrunch.com/2024/05/07/copilot-chat-in-githubs-mobile-app-is-now-general-available/
기사 추천
[메이데이 특별 추천] AI 다큐멘터리 10편, 휴일 관람 목록에 추가하세요!
어텐션 메커니즘부터 RLHF까지, 대형 모델 기술을 시작하기 위해 꼭 읽어야 할 목록
침해가 있는 경우 당사에 연락하여 삭제를 요청하시기 바랍니다.
우리를 따르라
OpenSPG:
공식 홈페이지: https://spg.openkg.cn
Github: https://github.com/OpenSPG/openspg
OpenASCE:
官网:https://openasce.openfinai.org/
GitHub:[https://github.com/Open-All-Scale-Causal-Engine/OpenASCE ]