Heute früh hat OpenAI die Schnittstelle zwischen ChαtGPTT und Whisper offiziell freigegeben, und Entwickler können jetzt die neueste Textgenerierung und Speech-to-Text-Funktionen über die API nutzen. Laut OpenAI wurden die Kosten von ChαtGPT durch eine Reihe von Optimierungen auf Systemebene seit Dezember letzten Jahres um 90 % gesenkt; jetzt nutzt OpenAI diese eingesparten Kosten zum Nutzen der Entwickler. Entwickler können jetzt große Whisper v2-Modelle über die API verwenden, was zu einer höheren Geschwindigkeit und Kosteneffizienz führt. Das ChαtGPT-Modell wird kontinuierlich aktualisiert und verbessert, und es werden dedizierte Kapazitäten für eine tiefere Steuerung des Modells bereitgestellt.
Artikelverzeichnis
ChatGPT-Schnittstelle
Modell
Der Name des von OpenAI veröffentlichten ChαtGPT-Modells lautet gpt-3.5-turbo
, das gleiche Modell, das im ChαtGPT-Produkt verwendet wird. text-davinci-003
Der Preis beträgt 0,002 $/1000 Token, was zehnmal billiger ist als zuvor . gpt-3.5-turbo
Express-Erfahrung in Chat-Szenarien, und viele Nicht-Chat-Szenarioanwendungen können ebenfalls gut funktionieren, und Entwickler können mit minimalen Anpassungen vom Modell zum Modell text-davinci-003
wechseln gpt-3.5-turbo
.
OpenAI wird das ChαtGPT-Modell weiter verbessern, sodass gpt-3.5-turbo
das Modell kontinuierlich aktualisiert wird (es wird im April auf die neueste stabile Version aktualisiert), und OpenAI empfiehlt Ihnen auch, gpt-3.5-turbo
das Modell zu verwenden. Um den Anforderungen der Entwickler nach bestimmten Modellversionen gerecht zu werden, stellt OpenAI auch bestimmte Snapshot-Versionen bereit. Die derzeit verfügbare spezifische Snapshot-Version gpt-3.5-turbo-0301
wird in den nächsten drei Monaten nicht aktualisiert und ist bis zum 1. Juni 2023 gültig.
Modellname | beschreiben | maximale Anfrage | Trainingsdaten |
---|---|---|---|
gpt-3.5-turbo | Das leistungsstärkste GPT-3.5-Modell und speziell für Chat-Szenarien optimiert, zu nur 1/10 text-davinci-003 der . Es wird iterativ aktualisiert. |
4.096 Token | Stand Juni 2021 |
gpt-3.5-turbo-0301 | gpt-3.5-turbo Die Snapshot-Version vom 1. März 2023 von . Dieses Modell wird innerhalb der nächsten 3 Monate nicht aktualisiert und die Gültigkeitsdauer endet am 1. Juni 2023. |
4.096 Token | Stand Oktober 2019 |
Schnittstelle
Aufgrund gpt-3.5-turbo
des Szenendesigns zum Chatten hat eine kleine Änderung im Interfacedesign stattgefunden. In der GPT-3-Schnittstelle werden Fragen prompt
über Felder übergeben, gpt-3.5-turbo
es gibt keine prompt
Felder, sondern messages
ein Array. Das Folgende ist ein typisches Beispiel für einen Schnittstellenaufruf:
import openai
completion = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "system", "content": "你是一个聪明的助理"},
{
"role": "user", "content": "哪支球队赢得了2018世界杯?"},
{
"role": "assistant", "content": "法国国家男子足球队获得2018年俄罗斯世界杯。"},
{
"role": "user", "content": "决赛对手是谁?"}
]
)
print(completion)
Im obigen Beispielcode kapseln wir mehrere Gesprächsrunden in messages
einem Array, und jede Nachricht hat role
eine Summe content
. role
Der optionale Wert von system
, user
, ist der assistant
Nachrichteninhalt content
.
Typischerweise besteht das Format der Konversation system
zuerst aus Nachrichten, gefolgt von abwechselnden user
Nachrichten und assistant
Nachrichten.
system
Nachrichten helfen, das Verhalten des Modells einzustellen. Im obigen Beispiel wird dem Modell gesagt: „Sie sind ein intelligenter Assistent“, das Modell spielt die Rolle eines Assistenten, und die Ausgabe ist so prägnant und klar wie ein Assistent.
user
Nachrichten helfen, das Modell zu führen. Dies kann entweder eine Benutzerfrage (normalerweise die letzte) oder eine Entwicklerdirektiveneinstellung oder kontextbezogene Eingabeaufforderung sein.
assistant
Nachrichten helfen, Kontext zu speichern. Es kann entweder die vorherige Ausgabe des Modells sein oder vom Entwickler geschrieben werden, um ein Beispiel für das gewünschte Verhalten zu geben.
Da das Modell keine Erinnerung an frühere Anfragen hat, müssen alle relevanten Informationen im Dialog bereitgestellt werden. Daher kann das Einbeziehen historischer Sitzungen dem Modell helfen, das Problem besser zu verstehen. Wenn es im obigen Beispiel keine Zwischennachricht user
und assistant
Neuigkeiten gibt, ist es für das Modell schwierig, eine richtige Antwort zu geben, wenn es alleine gefragt wird "Wer ist der Gegner im Finale?"
gpt-3.5-turbo
Das Format der zurückgegebenen Daten hat sich ebenfalls geringfügig geändert. Die Ausgabe der GPT-3-Schnittstelle ist in text
Felder gekapselt, und gpt-3.5-turbo
die Ausgabe der GPT-3-Schnittstelle ist in message
Felder gekapselt und besteht ebenfalls aus role
und content
. Wir können completion['choices'][0]['message']['content']
die Ausgabe einfach per erhalten.
Empfohlene Vorgehensweise
Da gpt-3.5-turbo
die Leistung text-davinci-003
ähnlich der des ist, der Preis aber text-davinci-003
1/10 beträgt, wird es für die meisten Anwendungsfälle offiziell empfohlen gpt-3.5-turbo
.
Für Entwickler gibt es nur sehr wenige Stellen, die geändert werden müssen, sie müssen nur das Format prompt
ändern .messages
"prompt": "哪支球队赢得了2018世界杯?"
Ändern:
messages: [
{
"role": "system", "content": "你是一个聪明的助理"},
{
"role": "user", "content": "哪支球队赢得了2018世界杯?"}
]
oder einfacher stattdessen:
messages: [
{
"role": "user", "content": "哪支球队赢得了2018世界杯?"}
]
⚠Hinweis: gpt-3.5-turbo und gpt-3.5-turbo-0301 unterstützen keine Feinabstimmung.
Flüsterschnittstelle
Whisper ist ein Speech-to-Text-Modell, das im September 2022 von OpenAI als Open Source bereitgestellt wurde. Nach seiner Einführung erhielt es großes Lob von der Entwickler-Community. Jetzt können wir das Whisper v2-Modell über die API zu einem Preis von 0,006 $/Minute aufrufen. Ein hochgradig optimierter Service-Stack stellt sicher, dass Whisper im Vergleich zu anderen Diensten eine schnellere Leistung bietet.
Whisper API bietet transcribe
und translate
Schnittstellen , unterstützt mehrere Audioformate (m4a, mp3, mp4, mpeg, mpga, wav, webm).
transkribieren
import openai
audio_file= open("/path/to/file/audio.mp3", "rb")
transcript = openai.Audio.transcribe("whisper-1", audio_file)
übersetzen
import openai
audio_file= open("/path/to/file/audio.mp3", "rb")
transcript = openai.Audio.translate("whisper-1", audio_file)
Whisper unterstützt derzeit Afrikaans, Arabisch, Armenisch, Aserbaidschanisch, Weißrussisch, Bosnisch, Bulgarisch, Katalanisch, Chinesisch, Kroatisch, Tschechisch, Dänisch, Niederländisch , Englisch, Estnisch, Finnisch, Französisch, Galizisch, Deutsch, Griechisch, Hebräisch, Hindi, Ungarisch, Isländisch , Indonesisch, Italienisch, Japanisch, Kannada, Kasachisch, Koreanisch, Lettisch-Litauisch, Mazedonisch, Malaiisch, Marathi, Maori, Nepali, Norwegisch, Persisch, Polnisch, Portugiesisch, Rumänisch, Russisch, Serbisch, Slowakisch, Slowenisch, Spanisch Suaheli, Schwedisch, Tagalog , Tamil, Thai, Türkisch, Ukrainisch, Urdu, Vietnamesisch und Walisisch.
Chinesisch unterstützen! Chinesisch unterstützen! Chinesisch unterstützen!