AI Daily | El nuevo iPad Pro de Apple está equipado con un chip AI, DeepSeek-V2 es de código abierto y un millón de tokens cuestan solo 1 yuan...

Todos son bienvenidos a destacarnos en GitHub:

Sistema distribuido de aprendizaje causal de enlace completo OpenASCE: https://github.com/Open-All-Scale-Causal-Engine/OpenASCE

Gran gráfico de conocimiento basado en modelos OpenSPG: https://github.com/OpenSPG/openspg

Sistema de aprendizaje de gráficos a gran escala OpenAGL: https://github.com/TuGraph-family/TuGraph-AntGraphLearning

Temas candentes en este número:

Apple lanza el nuevo iPad Pro, equipado con el último chip de IA

El potente modelo de lenguaje MoE DeepSeek-V2 es oficialmente de código abierto, con 1 millón de tokens y su rendimiento se acerca al GPT-4-turbo.

OpenAI SearchGPT puede lanzarse la próxima semana

El autor de LSTM lanza una nueva arquitectura LLM destinada a reemplazar a Transformer

Copilot Chat ahora está completamente disponible en GitHub móvil

...

01. Apple lanza nuevo iPad Pro, equipado con el último chip AI

Apple ha lanzado las últimas versiones de sus tablets iPad Pro y iPad Air, así como un nuevo Apple Pencil Pro. En el corazón del nuevo iPad Pro se encuentra el nuevo procesador M4 personalizado de Apple, que es cuatro veces más potente que los modelos de iPad Pro existentes.

M4 es otro avance para los chips de Apple. Está construido sobre el proceso de 3 nm de segunda generación y tiene una mejor eficiencia energética. También tiene un nuevo motor de visualización que puede brindar mayor precisión, color y brillo a la pantalla.

El nuevo motor neuronal equipado con el chip M4 está casi hecho a medida para las capacidades de IA y su potencia informática aumenta entre un 10% y un 15% en comparación con la generación anterior del M3. El motor de red neuronal es el principal responsable de la parte de aprendizaje automático, como el desbloqueo facial, el procesamiento de imágenes, etc., y los productos equipados con chips M4 mejorarán en gran medida la eficiencia de ejecución en estas aplicaciones.

Aprende más:

https://www.cnn.com/2024/05/07/tech/apple-unveils-new-ipad-lineup/index.html

02. El potente modelo de lenguaje MoE DeepSeek-V2 es oficialmente de código abierto, con 1 millón de tokens y su rendimiento se acerca al GPT-4-turbo.

DeepSeek ha abierto un potente modelo de lenguaje experto mixto (MoE), DeepSeek-V2. DeepSeek-V2 logra un rendimiento más sólido al tiempo que ahorra un 42,5 % de los costos de capacitación, reduce el caché KV en un 93,3 % y aumenta el rendimiento máximo de generación en 5,76 veces. El rendimiento del modelo DeepSeek-V2 es muy impresionante: supera al GPT-4 en el benchmark AlignBench y está cerca del GPT-4-turbo, es comparable al LLaMA3-70B y mejor que el Mixtral 8x22B en MT-Bench; en matemáticas, código y razonamiento.

En términos de precio, el precio de la API DeepSeek-V2 es el siguiente: la entrada por millón de tokens es de 0,14 dólares estadounidenses (aproximadamente 1 RMB) y la producción es de 0,28 dólares estadounidenses (aproximadamente 2 RMB, contexto de 32.000). el precio es sólo casi el uno por ciento de este último.

Aprende más:

https://stanforddaily.com/2024/04/25/openai-ceo-sam-altman-talks-ai-development-and-society/

03. OpenAI SearchGPT puede lanzarse la próxima semana

OpenAI está a punto de lanzar el motor de búsqueda "SearchGPT", conocido internamente como "Sonic". Además de la búsqueda de texto, también proporcionará búsqueda de imágenes, clima, calculadora, zona horaria y otros widgets e indicaciones para preguntas de seguimiento. Esto se basa en capturas de pantalla filtradas e información del desarrollador web Tibor Blaho.

"SearchGPT" mostrará los resultados en una ventana de chat similar a ChatGPT y resumirá la página web en hasta 300 caracteres. Según Blaho, el modelo de lenguaje utilizado por SearchGPT es GPT-4 Lite, GPT-4 o GPT-3.5.

Aprende más:

https://the-decoder.com/openais-searchgpt-might-be-shown-next-monday-together-with-gpt-4-lite/

04. El autor de LSTM lanza una nueva arquitectura LLM destinada a reemplazar a Transformer

Sepp Hochreiter, el inventor de LSTM, lanzó una nueva arquitectura LLM: xLSTM. La arquitectura xLSTM se basa en el LSTM tradicional e introduce puerta exponencial con memoria híbrida y una nueva estructura de memoria. Funciona bien en el modelado de lenguajes en comparación con métodos de última generación como Transformers y State Space Models. Los modelos xLSTM más grandes se convertirán en serios competidores de los modelos de lenguaje grandes actualmente creados con tecnología Transformer. Además, xLSTM tiene el potencial de impactar otras áreas de aprendizaje profundo, incluido el aprendizaje por refuerzo, la predicción de series temporales y el modelado de sistemas físicos.

Aprende más:

https://analyticsindiamag.com/the-inventor-of-lstm-unveils-new-architecture-for-llms-to-replace-transformers/

**05.**Copilot Chat ahora está completamente disponible en GitHub móvil

GitHub anunció el martes que Copilot Chat, su interfaz de chat de IA para hacer preguntas relacionadas con la codificación y generar código, ahora está disponible de forma generalizada en su aplicación móvil. Mario Rodríguez, vicepresidente senior de producto recién ascendido de GitHub, dijo que la aplicación móvil es muy popular y puede realizar tareas como repositorios estrella y algunas de las funciones sociales de GitHub también están utilizando la función de chat móvil para hacer preguntas sobre repositorios específicos. el ir. El problema.

Aprende más:

https://techcrunch.com/2024/05/07/copilot-chat-in-githubs-mobile-app-is-now-generally-available/

Recomendaciones de artículos

[Recomendación especial para el Primero de Mayo] Diez documentales de IA seleccionados, ¡agréguelos a su lista de visualización navideña!

Desde el mecanismo de atención hasta RLHF, una lista de lectura obligada para comenzar con la tecnología de modelos grandes

¡El salario anual puede llegar al millón! ¿Quieres ingresar a la industria de la IA pero no sabes programar? Un artículo revela 9 posiciones principales de la IA que se pueden gestionar incluso sin conocimientos de programación

Si hay alguna infracción, comuníquese con nosotros para eliminarla.

Síganos

OpenSPG:
sitio web oficial: https://spg.openkg.cn
Github: https://github.com/OpenSPG/openspg

OpenASCE:
官网: https://openasce.openfinai.org/
GitHub: [https://github.com/Open-All-Scale-Causal-Engine/OpenASCE ]

RustDesk suspende los servicios nacionales debido a un fraude desenfrenado Apple lanza el chip M4 Taobao (taobao.com) reinicia el trabajo de optimización de la versión web Los estudiantes de secundaria crean su propio lenguaje de programación de código abierto como regalo de mayoría de edad - Comentarios críticos de los internautas: Confiando en Defense Yunfeng renunció a Alibaba y planea producir en el futuro el destino para programadores de juegos independientes Visual Studio Code 1.89 lanza Java 17. Es la versión Java LTS más utilizada y tiene una participación de mercado de 70. % y Windows 11 continúa disminuyendo. Open Source Daily | Google apoya a Hongmeng para que se haga cargo; Rabbit R1 de código abierto respalda la ansiedad y las ambiciones de Microsoft Haier Electric;
{{o.nombre}}
{{m.nombre}}

Supongo que te gusta

Origin my.oschina.net/u/7032067/blog/11105591
Recomendado
Clasificación