Jeder hat ein chatGPT, es wird bald realisiert, wir freuen uns darauf

Am 30. November 2022 veröffentlichte OpenAI ein Dialogmodell namens ChatGPT, das im globalen Bereich der künstlichen Intelligenz für Furore sorgte. Obwohl ChatGPT in allen Aspekten erstaunliche Ergebnisse gezeigt hat, haben die hohen Schulungskosten und die erforderlichen Schulungsdaten Schichten von Hindernissen für diejenigen geschaffen, die in das Feld einsteigen möchten. Zum Beispiel erfordert das Training von ChatGPT ein speziell von Microsoft gebautes KI-Rechensystem, und der gesamte Rechenleistungsverbrauch beträgt etwa 3640 PF-Tage. In der Argumentationsphase benötigt ChatGPT mehr als 30.000 NVIDIA-A100-GPU-Chips.In diesem Fall betragen die anfänglichen Investitionskosten etwa 800 Millionen US-Dollar, und allein die tägliche Stromrechnung beträgt 50.000 US-Dollar. Sogar Tech-Giganten wie Microsoft waren aufgrund mangelnder Rechenleistung gezwungen, einige andere Projekte auf Eis zu legen. Daher wird es für die meisten Menschen schwieriger, in das Feld einzudringen.

Aufgrund der hohen Kosten für das Training von Grund auf ist die API-basierte Black-Box-Kapselung keine perfekte Lösung, und die Leute begannen, nach einem besseren Weg zu suchen, um an der allgemeinen Forschung zur künstlichen Intelligenz teilzunehmen. Daher ist das Open-Source-Projekt LMFlow ins Leben gerufen worden. Verglichen mit dem Training von Grund auf oder der API-basierten Kapselung muss LMFlow nur Finetune als Einstiegspunkt verwenden. Diese Methode ermöglicht es Menschen, schnell einen miniaturisierten Chatbot zu erhalten, indem sie das vorhandene groß angelegte Sprachmodell feinabstimmen. Der Vorteil dieser Methode besteht darin, dass sie die Schulungskosten reduziert und gleichzeitig sicherstellt, dass die Leistung nicht zu stark beeinträchtigt wird, wodurch mehr Menschen in den Bereich der allgemeinen künstlichen Intelligenz einsteigen können.

Neben LMFlow gibt es andere ähnliche leichtgewichtige ChatGPT-Modelle, die Open Source sind, wie Alpaca-, Alpaca-Lora- und Luotuo-Modelle, die auf der Meta-Open-Source-LLaMA-Modellreihe basieren. Die Open Source dieser Modelle senkt die Schwelle für Forschung und Anwendung und reduziert auch die Kosten für Schulung und Argumentation. Das bedeutet, dass in Zukunft jeder ein superschlaues, miniaturisiertes ChatGPT auf seinem Computer ausführen kann.

Obwohl es zwischen diesen Modellen und ChatGPT einige Leistungslücken geben kann, sind diese miniaturisierten Modelle in vielen Anwendungsszenarien ausreichend. Darüber hinaus können auch diese Modelle weiter optimiert und aufgerüstet werden und ihre Leistungsfähigkeit wird sich in Zukunft weiter verbessern. Daher können wir davon ausgehen, dass in Zukunft mehr Menschen in den Bereich der allgemeinen künstlichen Intelligenz einsteigen und fortschrittlichere und praktischere miniaturisierte ChatGPT-Modelle entwickeln werden. Dann haben wir einen superschlauen KI-Assistenten auf dem Handy jedes Arbeiters!

chatGPT-Erfahrung

Wechat-Konto DrCharley .

Guess you like

Origin blog.csdn.net/robot_learner/article/details/129923472