Wir führen Verbesserungen an der Feinabstimmungs-API ein und erweitern unser Programm für benutzerdefinierte Modelle

Wir führen Verbesserungen an der Feinabstimmungs-API ein und erweitern unser Programm für benutzerdefinierte Modelle

Einführung von Verbesserungen an der Feinabstimmungs-API und Erweiterung unseres benutzerdefinierten Modellprogramms PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Unterstützte Feinabstimmung

Beim DevDay letzten November haben wir angekündigt ein benutzerdefiniertes Modellprogramm, das in Zusammenarbeit mit einer engagierten Gruppe von OpenAI-Forschern darauf ausgelegt ist, Modelle für eine bestimmte Domäne zu trainieren und zu optimieren. Seitdem haben wir Dutzende Kunden getroffen, um ihre individuellen Modellanforderungen zu ermitteln und unser Programm weiterentwickelt, um die Leistung weiter zu maximieren.

Heute kündigen wir offiziell unser Angebot zur unterstützten Feinabstimmung als Teil des Custom Model-Programms an. Bei der unterstützten Feinabstimmung handelt es sich um eine Zusammenarbeit mit unseren technischen Teams, um Techniken zu nutzen, die über die Feinabstimmungs-API hinausgehen, wie etwa zusätzliche Hyperparameter und verschiedene Methoden zur Parametereffizienten Feinabstimmung (PEFT) in größerem Maßstab. Es ist besonders hilfreich für Organisationen, die Unterstützung beim Einrichten effizienter Trainingsdatenpipelines, Bewertungssysteme sowie maßgeschneiderter Parameter und Methoden benötigen, um die Modellleistung für ihren Anwendungsfall oder ihre Aufgabe zu maximieren.

Zum Beispiel, SK Telecom, ein Telekommunikationsbetreiber, der über 30 Millionen Abonnenten in Südkorea bedient, wollte ein Modell anpassen, um ein Experte im Telekommunikationsbereich zu werden, wobei der Schwerpunkt zunächst auf dem Kundenservice lag. Sie arbeiteten mit OpenAI zusammen, um GPT-4 zu optimieren und seine Leistung bei Telekommunikationsgesprächen in koreanischer Sprache zu verbessern. Im Laufe mehrerer Wochen führten SKT und OpenAI zu einer deutlichen Leistungsverbesserung bei Kundendienstaufgaben im Telekommunikationsbereich – eine Steigerung der Gesprächszusammenfassungsqualität um 35 %, eine Steigerung der Absichtserkennungsgenauigkeit um 33 % und eine Steigerung der Zufriedenheitswerte von 3.6 auf 4.5 (aus von 5) beim Vergleich des fein abgestimmten Modells mit GPT-4. 

Individuell trainiertes Modell

In einigen Fällen müssen Unternehmen ein speziell entwickeltes Modell von Grund auf trainieren, das ihr Geschäft, ihre Branche oder ihren Bereich versteht. Vollständig individuell trainierte Modelle vermitteln neues Wissen aus einem bestimmten Bereich, indem sie wichtige Schritte des Modelltrainingsprozesses mithilfe neuartiger Techniken während des Trainings und nach dem Training modifizieren. Organisationen, die mit einem vollständig individuell trainierten Modell Erfolg haben, verfügen häufig über große Mengen proprietärer Daten – Millionen von Beispielen oder Milliarden von Token –, die sie verwenden möchten, um dem Modell neues Wissen oder komplexe, einzigartige Verhaltensweisen für hochspezifische Anwendungsfälle beizubringen. 

Zum Beispiel, Harvey, ein KI-natives Rechtstool für Anwälte, in Zusammenarbeit mit OpenAI Erstellen Sie ein individuell trainiertes großes Sprachmodell für die Rechtsprechung. Obwohl die Grundlagenmodelle gut argumentieren konnten, mangelte es ihnen an umfassenden Kenntnissen über die Geschichte juristischer Fälle und anderen Kenntnissen, die für die juristische Arbeit erforderlich sind. Nachdem er Prompt Engineering, RAG und Feinabstimmung getestet hatte, arbeitete Harvey mit unserem Team zusammen, um dem Modell die erforderliche Kontexttiefe hinzuzufügen – das Äquivalent von Daten im Wert von 10 Milliarden Token. Unser Team hat jeden Schritt des Modellschulungsprozesses modifiziert, von der domänenspezifischen Mitte der Schulung bis zur Anpassung der Prozesse nach der Schulung und der Einbeziehung des Feedbacks von Expertenanwälten. Das resultierende Modell erzielte eine Steigerung der sachlichen Antworten um 83 %, und Anwälte bevorzugten die Ergebnisse des angepassten Modells in 97 % der Fälle gegenüber GPT-4.

Zeitstempel:

Mehr von OpenAI