Tout le monde est invité à nous mettre en vedette sur GitHub :
Système d'apprentissage causal distribué à lien complet OpenASCE : https://github.com/Open-All-Scale-Causal-Engine/OpenASCE
Grand graphe de connaissances basé sur un modèle OpenSPG : https://github.com/OpenSPG/openspg
Système d'apprentissage de graphes à grande échelle OpenAGL : https://github.com/TuGraph-family/TuGraph-AntGraphLearning
Sujets brûlants dans ce numéro :
Apple lance le nouvel iPad Pro, équipé de la dernière puce AI
Le puissant modèle de langage MoE DeepSeek-V2 est officiellement open source, avec 1 million de jetons, et ses performances sont proches de GPT-4-turbo
OpenAI SearchGPT pourrait être lancé la semaine prochaine
L'auteur du LSTM publie une nouvelle architecture LLM destinée à remplacer Transformer
Copilot Chat est désormais entièrement disponible sur GitHub mobile
...
01. Apple lance le nouvel iPad Pro, équipé de la dernière puce AI
Apple a lancé les dernières versions de ses tablettes iPad Pro et iPad Air, ainsi qu'un nouvel Apple Pencil Pro. Au cœur du nouvel iPad Pro se trouve le nouveau processeur M4 personnalisé d'Apple, quatre fois plus puissant que les modèles iPad Pro existants.
M4 est un autre pas en avant pour les puces Apple. Il est construit sur le processus 3 nm de deuxième génération et a une meilleure efficacité énergétique. Il dispose également d'un nouveau moteur d'affichage qui peut apporter une meilleure précision, couleur et luminosité à l'écran.
Le nouveau moteur neuronal équipé de la puce M4 est presque taillé sur mesure pour les capacités d'IA, et sa puissance de calcul est augmentée de 10 à 15 % par rapport à la génération précédente M3. Le moteur de réseau neuronal est principalement responsable de la partie apprentissage automatique, comme le déverrouillage du visage, le traitement d'image, etc., et les produits équipés de puces M4 amélioreront considérablement l'efficacité d'exécution dans ces applications.
Apprendre encore plus:
https://www.cnn.com/2024/05/07/tech/apple-unveils-new-ipad-lineup/index.html
02. Le puissant modèle de langage MoE DeepSeek-V2 est officiellement open source, avec 1 million de jetons, et ses performances sont proches de GPT-4-turbo
DeepSeek a open source un puissant modèle de langage expert mixte (MoE) DeepSeek-V2. DeepSeek-V2 atteint des performances plus élevées tout en économisant 42,5 % des coûts de formation, en réduisant le cache KV de 93,3 % et en augmentant le débit de génération maximal de 5,76 fois. Les performances du modèle DeepSeek-V2 sont très impressionnantes : elles dépassent GPT-4 sur le benchmark AlignBench et sont proches de GPT-4-turbo, elles sont comparables à LLaMA3-70B et meilleures que Mixtral 8x22B dans MT-Bench ; en mathématiques, code et raisonnement .
En termes de prix, le prix de l'API DeepSeek-V2 est le suivant : l'entrée par million de jetons est de 0,14 USD (environ 1 RMB) et la sortie est de 0,28 USD (environ 2 RMB, contexte de 32 000 ). Par rapport au prix GPT-4-Turbo, le prix ne représente que près d'un pour cent de ce dernier.
Apprendre encore plus:
https://stanforddaily.com/2024/04/25/openai-ceo-sam-altman-talks-ai-development-and-society/
03. OpenAI SearchGPT pourrait être lancé la semaine prochaine
OpenAI est sur le point de lancer le moteur de recherche « SearchGPT », connu en interne sous le nom de « Sonic ». En plus de la recherche de texte, il fournira également la recherche d'images, la météo, la calculatrice, le fuseau horaire et d'autres widgets et invites à poser des questions de suivi. Ceci est basé sur des captures d’écran divulguées et des informations du développeur Web Tibor Blaho.
"SearchGPT" affichera les résultats dans une fenêtre de discussion similaire à ChatGPT et résumera la page Web en 300 caractères maximum. Selon Blaho, le modèle linguistique utilisé par SearchGPT est GPT-4 Lite, GPT-4 ou GPT-3.5.
Apprendre encore plus:
https://the-decoder.com/openais-searchgpt-might-be-shown-next-monday-together-with-gpt-4-lite/
04. L'auteur de LSTM sort une nouvelle architecture LLM destinée à remplacer Transformer
Sepp Hochreiter, l'inventeur du LSTM, a publié une nouvelle architecture LLM : xLSTM L'architecture xLSTM est basée sur le LSTM traditionnel et introduit un déclenchement exponentiel avec une mémoire hybride et une nouvelle structure de mémoire. Il fonctionne bien dans la modélisation du langage par rapport aux méthodes de pointe telles que les transformateurs et les modèles spatiaux d'état. Les modèles xLSTM plus grands deviendront de sérieux concurrents aux grands modèles de langage actuellement construits à l'aide de la technologie Transformer. De plus, xLSTM a le potentiel d’avoir un impact sur divers autres domaines d’apprentissage profond, notamment l’apprentissage par renforcement, la prédiction de séries chronologiques et la modélisation de systèmes physiques.
Apprendre encore plus:
**05.**Copilot Chat est désormais entièrement disponible sur GitHub mobile
GitHub a annoncé mardi que Copilot Chat, son interface de chat IA permettant de poser des questions liées au codage et à la génération de code, est désormais généralement disponible sur son application mobile. Mario Rodriguez, vice-président senior des produits de GitHub, nouvellement promu, a déclaré que l'application mobile est très populaire et peut effectuer des tâches telles que les dépôts vedettes et certaines des fonctionnalités sociales de GitHub. Les développeurs utilisent également la fonction de chat mobile pour poser des questions sur des dépôts spécifiques sur. le départ. Le problème.
Apprendre encore plus:
https://techcrunch.com/2024/05/07/copilot-chat-in-githubs-mobile-app-is-now-generally-available/
Recommandations d'articles
En cas d'infraction, veuillez nous contacter pour suppression.
Suivez-nous
OpenSPG :
Site officiel : https://spg.openkg.cn
Github : https://github.com/OpenSPG/openspg
OpenASCE :
https://openasce.openfinai.org/ GitHub
: [https://github.com/Open-All-Scale-Causal-Engine/OpenASCE ]