Jeder ist herzlich willkommen, uns auf GitHub zu markieren:
Verteiltes Volllink-Kausallernsystem OpenASCE: https://github.com/Open-All-Scale-Causal-Engine/OpenASCE
Großer modellgesteuerter Wissensgraph OpenSPG: https://github.com/OpenSPG/openspg
Groß angelegtes Graphenlernsystem OpenAGL: https://github.com/TuGraph-family/TuGraph-AntGraphLearning
Aktuelle Themen in dieser Ausgabe:
Apple bringt neues iPad Pro auf den Markt, ausgestattet mit dem neuesten KI-Chip
Das leistungsstarke MoE-Sprachmodell DeepSeek-V2 ist offiziell Open Source mit 1 Million Token und seine Leistung liegt nahe an GPT-4-turbo
OpenAI SearchGPT wird möglicherweise nächste Woche gestartet
Der LSTM-Autor veröffentlicht eine neue LLM-Architektur, die Transformer ersetzen soll
Copilot Chat ist jetzt vollständig auf GitHub Mobile verfügbar
...
01. Apple bringt neues iPad Pro auf den Markt, ausgestattet mit dem neuesten KI-Chip
Apple hat die neuesten Versionen seiner iPad Pro- und iPad Air-Tablets sowie einen neuen Apple Pencil Pro auf den Markt gebracht. Das Herzstück des neuen iPad Pro ist Apples neuer maßgeschneiderter M4-Prozessor, der viermal leistungsstärker ist als bestehende iPad Pro-Modelle.
M4 ist ein weiterer Fortschritt für Apples Chips. Er basiert auf dem 3-nm-Prozess und verfügt über eine bessere Energieeffizienz. Er verfügt außerdem über eine neue Anzeige-Engine, die eine bessere Genauigkeit, Farbe und Helligkeit auf den Bildschirm bringen kann.
Die neue neuronale Engine, die mit dem M4-Chip ausgestattet ist, ist nahezu maßgeschneidert für KI-Fähigkeiten und ihre Rechenleistung ist im Vergleich zur Vorgängergeneration M3 um 10 bis 15 % gesteigert. Die neuronale Netzwerk-Engine ist hauptsächlich für den Teil des maschinellen Lernens verantwortlich, z. B. Gesichtsentsperrung, Bildverarbeitung usw., und mit M4-Chips ausgestattete Produkte werden die Ausführungseffizienz in diesen Anwendungen erheblich verbessern.
Erfahren Sie mehr:
https://www.cnn.com/2024/05/07/tech/apple-unveils-new-ipad-lineup/index.html
02. Das leistungsstarke MoE-Sprachmodell DeepSeek-V2 ist offiziell Open Source mit 1 Million Token und seine Leistung liegt nahe an GPT-4-Turbo
DeepSeek hat ein leistungsstarkes Mixed-Expert-Sprachmodell (MoE) DeepSeek-V2 als Open-Source-Lösung bereitgestellt. DeepSeek-V2 erreicht eine höhere Leistung und spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz um das 5,76-fache. Die Modellleistung von DeepSeek-V2 ist sehr beeindruckend: Sie übertrifft GPT-4 im AlignBench-Benchmark und liegt nahe an GPT-4-Turbo. Sie ist vergleichbar mit LLaMA3-70B und besser als Mixtral 8x22B im MT-Bench in Mathematik, Code und Argumentation.
Bezüglich des Preises ist die DeepSeek-V2-API wie folgt bepreist: Der Input pro Million Token beträgt 0,14 US-Dollar (ca. 1 RMB) und der Output beträgt 0,28 US-Dollar (ca. 2 RMB, 32.000 Kontext). Der Preis beträgt nur knapp ein Prozent davon.
Erfahren Sie mehr:
https://stanforddaily.com/2024/04/25/openai-ceo-sam-altman-talks-ai-development-and-society/
03. OpenAI SearchGPT wird möglicherweise nächste Woche gestartet
OpenAI ist dabei, die Suchmaschine „SearchGPT“ zu starten, die intern als „Sonic“ bekannt ist. Neben der Textsuche werden auch Bildersuche, Wetter, Taschenrechner, Zeitzone und andere Widgets sowie Eingabeaufforderungen für Folgefragen bereitgestellt. Dies basiert auf durchgesickerten Screenshots und Informationen des Webentwicklers Tibor Blaho.
„SearchGPT“ zeigt die Ergebnisse in einem Chat-Fenster ähnlich wie ChatGPT an und fasst die Webseite in bis zu 300 Zeichen zusammen. Laut Blaho ist das von SearchGPT verwendete Sprachmodell GPT-4 Lite, GPT-4 oder GPT-3.5.
Erfahren Sie mehr:
https://the-decoder.com/openais-searchgpt-might-be-shown-next-monday-together-with-gpt-4-lite/
04. Der Autor von LSTM veröffentlicht eine neue LLM-Architektur, die Transformer ersetzen soll
Sepp Hochreiter, der Erfinder von LSTM, hat eine neue LLM-Architektur veröffentlicht: xLSTM. Die xLSTM-Architektur basiert auf dem traditionellen LSTM und führt exponentielles Gating mit Speicherhybrid und einer neuen Speicherstruktur ein. Im Vergleich zu modernsten Methoden wie Transformern und Zustandsraummodellen schneidet es bei der Sprachmodellierung gut ab. Größere xLSTM-Modelle werden zu ernsthaften Konkurrenten der großen Sprachmodelle, die derzeit mit Transformer-Technologie erstellt werden. Darüber hinaus hat xLSTM das Potenzial, verschiedene andere Deep-Learning-Bereiche zu beeinflussen, darunter Reinforcement Learning, Zeitreihenvorhersage und physikalische Systemmodellierung.
Erfahren Sie mehr:
**05.**Copilot Chat ist jetzt vollständig auf GitHub Mobile verfügbar
GitHub gab am Dienstag bekannt, dass Copilot Chat, seine KI-Chat-Schnittstelle zum Stellen von codierungsbezogenen Fragen und zur Codegenerierung, jetzt allgemein in seiner mobilen App verfügbar ist. Mario Rodriguez, GitHubs neu beförderter Senior Vice President of Product, sagte, dass die mobile App sehr beliebt sei und Aufgaben wie Star-Repos und einige der sozialen Funktionen von GitHub ausführen könne. Entwickler nutzen auch die mobile Chat-Funktion, um Fragen zu bestimmten Repos zu stellen das Los. Das Problem.
Erfahren Sie mehr:
https://techcrunch.com/2024/05/07/copilot-chat-in-githubs-mobile-app-is-now-generally-available/
Artikelempfehlungen
Sollte ein Verstoß vorliegen, kontaktieren Sie uns bitte zur Löschung.
Folgen Sie uns
OpenSPG:
Offizielle Website: https://spg.openkg.cn
Github: https://github.com/OpenSPG/openspg
OpenASCE:
Quelle: https://openasce.openfinai.org/
GitHub: [https://github.com/Open-All-Scale-Causal-Engine/OpenASCE ]