Im Zeitalter von Big Data und KI suchen Unternehmen ständig nach Möglichkeiten, diese Technologien zu nutzen, um sich einen Wettbewerbsvorteil zu verschaffen. Einer der derzeit angesagtesten Bereiche der KI ist die generative KI, und das aus gutem Grund. Generative KI bietet leistungsstarke Lösungen, die die Grenzen des Möglichen in Bezug auf Kreativität und Innovation erweitern. Das Herzstück dieser hochmodernen Lösungen ist ein Grundlagenmodell (FM), ein hochentwickeltes Modell für maschinelles Lernen, das auf riesigen Datenmengen vorab trainiert wird. Viele dieser Basismodelle haben eine bemerkenswerte Fähigkeit bewiesen, menschenähnlichen Text zu verstehen und zu generieren, was sie zu einem wertvollen Werkzeug für eine Vielzahl von Anwendungen macht, von der Inhaltserstellung bis zur Automatisierung des Kundensupports.
Allerdings sind diese Modelle nicht ohne Herausforderungen. Sie sind außergewöhnlich groß und erfordern für das Training große Datenmengen und Rechenressourcen. Darüber hinaus kann die Optimierung des Trainingsprozesses und die Kalibrierung der Parameter ein komplexer und iterativer Prozess sein, der Fachwissen und sorgfältiges Experimentieren erfordert. Dies kann für viele Organisationen, die ihre eigenen Grundlagenmodelle aufbauen möchten, ein Hindernis darstellen. Um diese Herausforderung zu meistern, erwägen viele Kunden eine Feinabstimmung bestehender Fundamentmodelle. Dies ist eine beliebte Technik, um einen kleinen Teil der Modellparameter für bestimmte Anwendungen anzupassen und gleichzeitig das bereits im Modell codierte Wissen zu bewahren. Es ermöglicht Unternehmen, die Leistungsfähigkeit dieser Modelle zu nutzen und gleichzeitig die für die Anpassung an eine bestimmte Domäne oder Aufgabe erforderlichen Ressourcen zu reduzieren.
Es gibt zwei Hauptansätze zur Feinabstimmung von Fundamentmodellen: die traditionelle Feinabstimmung und die Parameter-effiziente Feinabstimmung. Bei der herkömmlichen Feinabstimmung werden alle Parameter des vorab trainierten Modells für eine bestimmte nachgelagerte Aufgabe aktualisiert. Andererseits umfasst die Parameter-effiziente Feinabstimmung eine Vielzahl von Techniken, die eine individuelle Anpassung eines Modells ermöglichen, ohne alle ursprünglichen Modellparameter zu aktualisieren. Eine solche Technik heißt Low-Rank Adaptation (LoRA). Dabei geht es darum, dem vorab trainierten Modell kleine, aufgabenspezifische Module hinzuzufügen und diese zu trainieren, während die restlichen Parameter unverändert bleiben, wie in der folgenden Abbildung dargestellt.
Quelle: Generative KI auf AWS (O'Reilly, 2023)
LoRA hat in letzter Zeit aus mehreren Gründen an Popularität gewonnen. Es bietet schnelleres Training, geringeren Speicherbedarf und die Möglichkeit, vorab trainierte Modelle für mehrere nachgelagerte Aufgaben wiederzuverwenden. Noch wichtiger ist, dass das Basismodell und der Adapter jederzeit getrennt aufbewahrt und kombiniert werden können, was die Aufbewahrung, Verteilung und Weitergabe fein abgestimmter Versionen erleichtert. Dies stellt jedoch eine neue Herausforderung dar: Wie man diese neuen Arten fein abgestimmter Modelle richtig verwaltet. Sollten Sie Basismodell und Adapter kombinieren oder getrennt aufbewahren? In diesem Beitrag gehen wir durch Best Practices für die Verwaltung fein abgestimmter LoRA-Modelle Amazon Sage Maker um diese aufkommende Frage zu beantworten.
Arbeiten mit FMs in der SageMaker Model Registry
In diesem Beitrag gehen wir ein End-to-End-Beispiel für die Feinabstimmung des Llama2 Large Language Model (LLM) mithilfe der QLoRA-Methode durch. QLoRA kombiniert die Vorteile der Parameter-effizienten Feinabstimmung mit der 4-Bit/8-Bit-Quantisierung, um die für die Feinabstimmung eines FM auf eine bestimmte Aufgabe oder einen bestimmten Anwendungsfall erforderlichen Ressourcen weiter zu reduzieren. Dazu verwenden wir das vorab trainierte Llama7-Modell mit 2 Milliarden Parametern und optimieren es anhand des Datensatzes databricks-dolly-15k. LLMs wie Llama2 verfügen über Milliarden von Parametern und werden anhand umfangreicher Textdatensätze vorab trainiert. Durch die Feinabstimmung wird ein LLM mithilfe eines kleineren Datensatzes an eine nachgelagerte Aufgabe angepasst. Allerdings ist die Feinabstimmung großer Modelle rechenintensiv. Aus diesem Grund werden wir die QLoRA-Methode zur Quantisierung der Gewichte während der Feinabstimmung verwenden, um diesen Rechenaufwand zu reduzieren.
In unseren Beispielen finden Sie zwei Notizbücher (llm-finetune-combined-with-registry.ipynb
und llm-finetune-separate-with-registry.ipynb
). Jedes funktioniert auf unterschiedliche Weise, um mit LoRA fein abgestimmte Modelle umzugehen, wie im folgenden Diagramm dargestellt:
- Zuerst laden wir mit SageMaker Studio Notebooks das vorab trainierte Llama2-Modell mit 7 Milliarden Parametern herunter. LLMs wie Llama2 haben bei der Feinabstimmung auf domänenspezifische Daten eine hochmoderne Leistung bei NLP-Aufgaben (Natural Language Processing) gezeigt.
- Als Nächstes optimieren wir Llama2 für den Datensatz „databricks-dolly-15k“ mithilfe der QLoRA-Methode. QLoRA reduziert den Rechenaufwand für die Feinabstimmung durch Quantisierung der Modellgewichte.
- Während der Feinabstimmung integrieren wir SageMaker Experiments Plus mit der Transformers-API, um Metriken wie Gradient, Verlust usw. automatisch zu protokollieren.
- Anschließend versionieren wir das fein abgestimmte Llama2-Modell in der SageMaker Model Registry mithilfe von zwei Ansätzen:
- Speichern des vollständigen Modells
- Bewahren Sie Adapter und Basismodell getrennt auf.
- Schließlich hosten wir die fein abgestimmten Llama2-Modelle mithilfe der Deep Java Library (DJL), die auf einem SageMaker-Echtzeit-Endpunkt bereitgestellt werden.
In den folgenden Abschnitten gehen wir tiefer auf jeden dieser Schritte ein, um die Flexibilität von SageMaker für verschiedene LLM-Workflows zu demonstrieren und wie diese Funktionen dazu beitragen können, den Betrieb Ihrer Modelle zu verbessern.
Voraussetzungen:
Erfüllen Sie die folgenden Voraussetzungen, um mit dem Experimentieren mit dem Code zu beginnen.
- Erstellen Sie SageMaker Studio-Domäne: Amazon SageMaker Studio, insbesondere Studio Notebooks, wird verwendet, um die Feinabstimmungsaufgabe für Llama2 zu starten und dann Modelle darin zu registrieren und anzuzeigen SageMaker-Modellregistrierung. SageMaker-Experimente wird auch zum Anzeigen und Vergleichen von Llama2-Feinabstimmungsauftragsprotokollen (Trainingsverlust/Testverlust usw.) verwendet.
- Erstellen Sie einen Amazon Simple Storage Service (S3)-Bucket: Zugriff auf einen S3-Bucket zum Speichern von Trainingsartefakten und Modellgewichten ist erforderlich. Anweisungen finden Sie unter Einen Eimer erstellen. Der für diesen Beitrag verwendete Beispielcode verwendet den Standard-S3-Bucket von SageMaker, Sie können ihn jedoch anpassen, um jeden relevanten S3-Bucket zu verwenden.
- Richten Sie Modellsammlungen ein (IAM-Berechtigungen): Aktualisieren Sie Ihre SageMaker-Ausführungsrolle mit den unten aufgeführten Berechtigungen für Ressourcengruppen Entwicklerhandbuch für Model Registry Collections um die Model Registry-Gruppierung mithilfe von Model Collections zu implementieren.
- Akzeptieren Sie die Allgemeinen Geschäftsbedingungen für Llama2: Sie müssen die Endbenutzer-Lizenzvereinbarung und die Richtlinien zur akzeptablen Nutzung für die Verwendung des Llama2-Grundlagenmodells akzeptieren.
Die Beispiele finden Sie im GitHub-Repository. Die Notebook-Dateien werden mit Studio-Notebooks getestet, die auf dem GPU-optimierten Kernel PyTorch 2.0.0 Python 3.10 und dem Instanztyp ml.g4dn.xlarge ausgeführt werden.
Experimente plus Callback-Integration
Amazon SageMaker-Experimente ermöglicht Ihnen das Organisieren, Verfolgen, Vergleichen und Auswerten von Experimenten und Modellversionen des maschinellen Lernens (ML) aus jeder integrierten Entwicklungsumgebung (IDE), einschließlich lokaler Jupyter-Notebooks, mithilfe des SageMaker Python SDK oder boto3. Es bietet die Flexibilität, Ihre Modellmetriken, Parameter, Dateien, Artefakte und Plotdiagramme aus den verschiedenen Metriken zu protokollieren, verschiedene Metadaten zu erfassen, diese zu durchsuchen und die Modellreproduzierbarkeit zu unterstützen. Datenwissenschaftler können die Leistung und Hyperparameter zur Modellbewertung mithilfe visueller Diagramme und Tabellen schnell vergleichen. Sie können SageMaker Experiments auch verwenden, um die erstellten Diagramme herunterzuladen und die Modellbewertung mit ihren Stakeholdern zu teilen.
Das Training von LLMs kann ein langsamer, teurer und iterativer Prozess sein. Für einen Benutzer ist es sehr wichtig, LLM-Experimente im großen Maßstab zu verfolgen, um ein inkonsistentes Modelloptimierungserlebnis zu verhindern. HuggingFace Transformer-APIs Ermöglichen Sie Benutzern, Metriken während Trainingsaufgaben zu verfolgen Rückrufe. Rückrufe sind „schreibgeschützte“ Codeteile, die das Verhalten der Trainingsschleife im PyTorch-Trainer anpassen können. Sie können den Status der Trainingsschleife für Fortschrittsberichte überprüfen und sich über benutzerdefinierte Logik (die als Teil enthalten ist) bei TensorBoard oder SageMaker Experiments Plus anmelden dieser Codebasis).
Sie können den im Code-Repository dieses Beitrags enthaltenen Rückrufcode von SageMaker Experiments importieren, wie im folgenden Codeblock gezeigt:
Dieser Rückruf protokolliert im Rahmen des Trainingslaufs automatisch die folgenden Informationen in SageMaker Experiments:
- Trainingsparameter und Hyperparameter
- Verlust des Modelltrainings und der Validierung bei Schritt, Epoche und Finale
- Modelleingabe- und -ausgabeartefakte (Trainingsdatensatz, Validierungsdatensatz, Modellausgabeort, Trainingsdebugger und mehr)
Die folgende Grafik zeigt Beispiele für Diagramme, die Sie mithilfe dieser Informationen anzeigen können.
Dies ermöglicht Ihnen den einfachen Vergleich mehrerer Läufe mithilfe der Analysefunktion von SageMaker Experiments. Sie können die Experimentläufe auswählen, die Sie vergleichen möchten, und diese füllen automatisch die Vergleichsdiagramme aus.
Registrieren Sie fein abgestimmte Modelle in Model Registry Collections
Modellregistrierungssammlungen ist ein Merkmal von SageMaker-Modellregistrierung Dadurch können Sie registrierte, miteinander in Beziehung stehende Modelle gruppieren und in Hierarchien organisieren, um die Auffindbarkeit von Modellen im großen Maßstab zu verbessern. Wir werden Model Registry Collections verwenden, um den Überblick über das Basismodell und fein abgestimmte Varianten zu behalten.
Methode zur vollständigen Modellkopie
Die erste Methode kombiniert das Basismodell und den LoRA-Adapter und speichert das vollständig fein abgestimmte Modell. Der folgende Code veranschaulicht den Modellzusammenführungsprozess und speichert das kombinierte Modell mit model.save_pretrained()
.
Die Kombination des LoRA-Adapters und des Basismodells zu einem einzigen Modellartefakt nach der Feinabstimmung hat Vor- und Nachteile. Das kombinierte Modell ist eigenständig und kann unabhängig verwaltet und bereitgestellt werden, ohne dass das ursprüngliche Basismodell erforderlich ist. Das Modell kann als eigene Entität mit einem Versionsnamen verfolgt werden, der das Basismodell und die Feinabstimmungsdaten widerspiegelt. Wir können eine Nomenklatur übernehmen, indem wir die verwenden base_model_name
+ fein abgestimmt dataset_name
die Modellgruppen zu organisieren. Optional könnten Modellsammlungen die ursprünglichen und fein abgestimmten Modelle verknüpfen, dies ist jedoch möglicherweise nicht erforderlich, da das kombinierte Modell unabhängig ist. Der folgende Codeausschnitt zeigt Ihnen, wie Sie das fein abgestimmte Modell registrieren.
Sie können den Trainingsschätzer verwenden, um das Modell in Model Registry zu registrieren.
Aus Model Registry können Sie das Modellpaket abrufen und dieses Modell direkt bereitstellen.
Dieser Ansatz weist jedoch Nachteile auf. Die Kombination der Modelle führt zu Speicherineffizienz und Redundanz, da das Basismodell in jeder fein abgestimmten Version dupliziert wird. Mit zunehmender Modellgröße und der Anzahl fein abgestimmter Modelle erhöht sich der Speicherbedarf exponentiell. Am Beispiel des llama2 7b-Modells ist das Basismodell etwa 13 GB und das fein abgestimmte Modell 13.6 GB groß. 96 % des Modells müssen nach jeder Feinabstimmung dupliziert werden. Darüber hinaus wird die Verteilung und gemeinsame Nutzung sehr großer Modelldateien auch schwieriger und stellt betriebliche Herausforderungen dar, da die Dateiübertragungs- und Verwaltungskosten mit zunehmender Modellgröße und Feinabstimmungsaufgaben steigen.
Separate Adapter- und Basismethode
Die zweite Methode konzentriert sich auf die Trennung von Basisgewichten und Adaptergewichten, indem sie als separate Modellkomponenten gespeichert und zur Laufzeit nacheinander geladen werden.
Das Einsparen von Basis- und Adaptergewichten hat, ähnlich wie bei der Methode „Vollständige Modellkopie“, Vor- und Nachteile. Ein Vorteil besteht darin, dass dadurch Speicherplatz gespart werden kann. Die Basisgewichte, die den größten Bestandteil eines fein abgestimmten Modells darstellen, werden nur einmal gespeichert und können mit anderen Adaptergewichten, die für andere Aufgaben abgestimmt sind, wiederverwendet werden. Die Basisgewichte von Llama2-7B betragen beispielsweise etwa 13 GB, aber jede Feinabstimmungsaufgabe muss nur etwa 0.6 GB an Adaptergewichten speichern, was einer Platzersparnis von 95 % entspricht. Ein weiterer Vorteil besteht darin, dass Basisgewichte mithilfe einer Modellregistrierung nur für Basisgewichte getrennt von Adaptergewichten verwaltet werden können. Dies kann für SageMaker-Domänen nützlich sein, die im reinen VPC-Modus ohne Internet-Gateway ausgeführt werden, da auf die Basisgewichtungen zugegriffen werden kann, ohne über das Internet gehen zu müssen.
Erstellen Sie eine Modellpaketgruppe für Basisgewichte
Erstellen Sie eine Modellpaketgruppe für QLoRA-Gewichte
Der folgende Code zeigt, wie man QLoRA-Gewichte mit dem Datensatz-/Aufgabentyp markiert, fein abgestimmte Delta-Gewichte in einer separaten Modellregistrierung registriert und die Delta-Gewichte separat verfolgt.
Der folgende Ausschnitt zeigt eine Ansicht aus der Modellregistrierung, in der die Modelle in Basisgewichte und fein abgestimmte Gewichtungen aufgeteilt sind.
Die Verwaltung von Modellen, Datensätzen und Aufgaben für hyperpersonalisierte LLMs kann schnell überwältigend werden. SageMaker-Modellregistrierungssammlungen kann Ihnen dabei helfen, verwandte Modelle zu gruppieren und in einer Hierarchie zu organisieren, um die Auffindbarkeit von Modellen zu verbessern. Dies erleichtert die Verfolgung der Beziehungen zwischen Basisgewichtungen, Adaptergewichtungen und Feinabstimmungsaufgabendatensätzen. Sie können auch komplexe Beziehungen und Verknüpfungen zwischen Modellen erstellen.
Erstellen Sie eine neue Sammlung und fügen Sie die Gewichte Ihres Basismodells zu dieser Sammlung hinzu
Verknüpfen Sie alle Ihre fein abgestimmten LoRA-Adapter-Delta-Gewichte mit dieser Sammlung nach Aufgabe und/oder Datensatz
Dies führt zu einer Sammlungshierarchie, die nach Modell/Aufgabentyp und dem zur Feinabstimmung des Basismodells verwendeten Datensatz verknüpft ist.
Diese Methode der Trennung von Basis- und Adaptermodell hat einige Nachteile. Ein Nachteil ist die Komplexität bei der Bereitstellung des Modells. Da es zwei separate Modellartefakte gibt, sind zusätzliche Schritte erforderlich, um das Modell neu zu packen, anstatt es direkt aus Model Registry bereitzustellen. Laden Sie im folgenden Codebeispiel zunächst die neueste Version des Basismodells herunter und verpacken Sie sie neu.
Laden Sie dann die neuesten, fein abgestimmten LoRA-Adaptergewichte herunter und verpacken Sie sie neu.
Da Sie zum Hosten des Modells DJL verwenden, das Deepspeed bereitstellt, sollte Ihr Inferenzverzeichnis wie folgt aussehen.
Packen Sie abschließend den benutzerdefinierten Inferenzcode, das Basismodell und den LoRA-Adapter zur Bereitstellung in eine einzige .tar.gz-Datei.
Aufräumen
Bereinigen Sie Ihre Ressourcen, indem Sie den Anweisungen im Bereinigungsabschnitt des Notebooks folgen. Beziehen auf Amazon SageMaker Preise Einzelheiten zu den Kosten der Inferenzinstanzen finden Sie hier.
Zusammenfassung
Dieser Beitrag führte Sie durch Best Practices für die Verwaltung von LoRA-fein abgestimmten Modellen auf Amazon SageMaker. Wir haben zwei Hauptmethoden behandelt: die Kombination der Basis- und Adaptergewichte in einem eigenständigen Modell und die Trennung der Basis- und Adaptergewichte. Beide Ansätze haben Nachteile, aber die Trennung der Gewichtungen trägt zur Optimierung der Speicherung bei und ermöglicht erweiterte Modellverwaltungstechniken wie SageMaker Model Registry Collections. Dadurch können Sie Hierarchien und Beziehungen zwischen Modellen aufbauen, um die Organisation und Auffindbarkeit zu verbessern. Wir empfehlen Ihnen, den Beispielcode auszuprobieren GitHub-Repository selbst mit diesen Methoden zu experimentieren. Da die generative KI schnell voranschreitet, hilft Ihnen die Befolgung der Best Practices für das Modellmanagement dabei, Experimente zu verfolgen, das richtige Modell für Ihre Aufgabe zu finden und spezialisierte LLMs im großen Maßstab effizient zu verwalten.
Bibliographie
Über die Autoren
James Wu ist Senior AI/ML Specialist Solution Architect bei AWS. Unterstützung von Kunden bei der Entwicklung und Erstellung von KI/ML-Lösungen. Die Arbeit von James deckt ein breites Spektrum von ML-Anwendungsfällen ab, wobei sein Hauptinteresse auf Computer Vision, Deep Learning und der Skalierung von ML im gesamten Unternehmen liegt. Bevor er zu AWS kam, war James über 10 Jahre lang Architekt, Entwickler und Technologieführer, davon 6 Jahre im Ingenieurwesen und 4 Jahre in der Marketing- und Werbebranche.
Pranav Murthy ist ein AI/ML Specialist Solutions Architect bei AWS. Er konzentriert sich darauf, Kunden beim Erstellen, Trainieren, Bereitstellen und Migrieren von Workloads für maschinelles Lernen (ML) zu SageMaker zu unterstützen. Zuvor arbeitete er in der Halbleiterindustrie und entwickelte große Modelle für Computer Vision (CV) und Natural Language Processing (NLP), um Halbleiterprozesse zu verbessern. In seiner Freizeit spielt er gerne Schach und reist.
Mecit Gungor ist ein AI/ML-Spezialist für Lösungsarchitekten bei AWS, der Kunden beim Entwerfen und Erstellen von KI/ML-Lösungen im großen Maßstab unterstützt. Er deckt ein breites Spektrum an KI/ML-Anwendungsfällen für Telekommunikationskunden ab und konzentriert sich derzeit auf generative KI, LLMs sowie Schulungs- und Inferenzoptimierung. In seiner Freizeit trifft man ihn oft beim Wandern in der Wildnis oder beim Brettspielen mit seinen Freunden an.
Shelbee Eigenbrode ist Principal AI and Machine Learning Specialist Solutions Architect bei Amazon Web Services (AWS). Sie ist seit 24 Jahren in der Technologiebranche tätig und hat verschiedene Branchen, Technologien und Rollen abgedeckt. Sie konzentriert sich derzeit darauf, ihren DevOps- und ML-Hintergrund in die Domäne von MLOps zu integrieren, um Kunden bei der Bereitstellung und Verwaltung von ML-Workloads in großem Maßstab zu unterstützen. Mit über 35 erteilten Patenten in verschiedenen Technologiebereichen hat sie eine Leidenschaft für kontinuierliche Innovation und die Nutzung von Daten zur Steigerung der Geschäftsergebnisse. Shelbee ist Mitgestalter und Ausbilder der Spezialisierung „Practical Data Science“ auf Coursera. Sie ist außerdem Co-Direktorin von Women In Big Data (WiBD), Kapitel Denver. In ihrer Freizeit verbringt sie gerne Zeit mit ihrer Familie, Freunden und überaktiven Hunden.
- SEO-gestützte Content- und PR-Distribution. Holen Sie sich noch heute Verstärkung.
- PlatoData.Network Vertikale generative KI. Motiviere dich selbst. Hier zugreifen.
- PlatoAiStream. Web3-Intelligenz. Wissen verstärkt. Hier zugreifen.
- PlatoESG. Kohlenstoff, CleanTech, Energie, Umwelt, Solar, Abfallwirtschaft. Hier zugreifen.
- PlatoHealth. Informationen zu Biotechnologie und klinischen Studien. Hier zugreifen.
- Quelle: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :hast
- :Ist
- :nicht
- :Wo
- $UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- Fähigkeit
- Über Uns
- Akzeptieren
- akzeptabel
- Zugang
- Zugriff
- über
- Anpassung
- passt sich an
- hinzufügen
- Hinzufügen
- Zusätzliche
- zusätzlich
- Adresse
- adoptieren
- advanced
- Vorteil
- Vorteilen
- Marketings
- Nach der
- Zustimmung
- AI
- KI richtig
- AI / ML
- Alle
- erlauben
- erlaubt
- bereits
- ebenfalls
- Amazon
- Amazon Sage Maker
- Amazon SageMaker-Studio
- Amazon einfacher Speicherdienst (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- Beträge
- an
- analysieren
- und
- Ein anderer
- jedem
- Bienen
- Anwendungen
- Ansatz
- Ansätze
- genehmigt
- ca.
- SIND
- Bereiche
- AS
- Partnerschaftsräte
- At
- Im Prinzip so, wie Sie es von Google Maps kennen.
- Automation
- verfügbar
- AWS
- Zurück
- Hintergrund
- Barrieren
- Base
- BE
- weil
- werden
- wird
- war
- Verhalten
- Vorteile
- BESTE
- Best Practices
- zwischen
- Big
- Big Data
- Milliarde
- Milliarden
- Blockieren
- Tafel
- Brettspiele
- beide
- Grenzen
- bauen
- Geschäft
- aber
- by
- Rückrufe
- namens
- CAN
- capability
- Erfassung
- vorsichtig
- Häuser
- Fälle
- challenges
- Herausforderungen
- Kapitel
- Charts
- Schach
- Klasse
- klar
- Code
- Codebasis
- Sammlung
- Produktauswahl
- kombinieren
- kombiniert
- vereint
- Vereinigung
- Unternehmen
- vergleichen
- Vergleich
- wettbewerbsfähig
- Komplex
- Komplexität
- Komponente
- Komponenten
- Berechnung
- rechnerisch
- Computer
- Computer Vision
- Bedingungen
- Berücksichtigung
- Inhalt
- Inhaltserstellung
- ständig
- kontinuierlich
- Kernbereich
- Kosten
- könnte
- bedeckt
- Covers
- erstellen
- erstellt
- Schaffung
- Kreativität
- Zur Zeit
- Original
- Kunde
- Kundensupport
- Kunden
- Anpassung
- anpassen
- innovativ, auf dem neuesten Stand
- technische Daten
- Datenwissenschaft
- Datensätze
- tief
- tiefe Lernen
- tiefer
- Standard
- des Restaurants
- Übergeben
- Delta
- zeigen
- Denver
- einsetzen
- Einsatz
- Bereitstellen
- Einsatz
- Design
- Details
- Entwickler:in / Unternehmen
- Entwicklung
- Entwicklung
- anders
- schwer
- Direkt
- Display
- verteilen
- verteilen
- tauchen
- Domain
- Domains
- herunterladen
- Nachteile
- Antrieb
- im
- jeder
- einfacher
- leicht
- Edge
- effizient
- effizient
- sonst
- aufstrebenden
- ermöglicht
- ermutigen
- End-to-End
- Endpunkt
- Entwicklung
- Unternehmen
- Einheit
- Arbeitsumfeld
- Epoche
- Era
- etc
- bewerten
- Auswertung
- Beispiel
- Beispiele
- außergewöhnlich
- Ausführung
- vorhandenen
- teuer
- ERFAHRUNGEN
- Experiment
- Experimente
- Expertise
- exponentiell
- Gesicht
- Scheitern
- Familie
- beschleunigt
- Merkmal
- Eigenschaften
- Reichen Sie das
- Mappen
- Finden Sie
- Ende
- Vorname
- fixiert
- Flexibilität
- konzentriert
- Fokussierung
- Folgende
- Aussichten für
- gefunden
- Foundation
- Frei
- Freunde
- für
- voller
- Funktion
- weiter
- Zukunft
- Gewinnen
- gewonnen
- Games
- Tor
- Erzeugung
- generativ
- Generative KI
- Go
- gehen
- gut
- GPU
- erteilt
- Graph
- Graphen
- Gruppe an
- Gruppen
- Pflege
- Griff
- Haben
- mit
- he
- Hilfe
- Unternehmen
- hilft
- hier (auf dänisch)
- Hierarchie
- hoch
- seine
- Gastgeber
- heißesten
- Ultraschall
- Hilfe
- aber
- HTML
- HTTPS
- Umarmendes Gesicht
- zeigt
- Image
- implementieren
- Implementierung
- importieren
- wichtig
- wichtig
- Importe
- zu unterstützen,
- in
- inklusive
- Dazu gehören
- Einschließlich
- Erhöhung
- Steigert
- zunehmend
- unabhängig
- unabhängig
- Branchen
- Energiegewinnung
- Ineffizienz
- bläst auf
- Information
- Innovation
- Varianten des Eingangssignals:
- Instanz
- beantragen müssen
- Anleitung
- integrieren
- integriert
- Interesse
- Internet
- in
- Stellt vor
- IT
- SEINE
- Jakob
- Javac
- Job
- Jobs
- Beitritt
- jpg
- Behalten
- Aufbewahrung
- Wesentliche
- Kick
- Wissen
- Sprache
- grosse
- höchste
- neueste
- Führer
- umwandeln
- lernen
- Lasst uns
- Niveau
- Bibliothek
- Lizenz
- liegt
- Gefällt mir
- Gleichen
- LINK
- verknüpft
- Gelistet
- LLM
- Belastung
- Laden
- aus einer regionalen
- Standorte
- Log
- Protokollierung
- Logik
- aussehen
- aussehen wie
- suchen
- Verlust
- Maschine
- Maschinelles Lernen
- Main
- MACHT
- Making
- verwalten
- verwaltet
- Management
- flächendeckende Gesundheitsprogramme
- viele
- Marketing
- Marketing, Werbung und Technologien
- massiv
- Kann..
- Memory
- Merge
- Verschmelzung
- Metadaten
- Methode
- Methoden
- Metrik
- migriert
- ML
- MLOps
- Model
- Modell
- für
- Module
- mehr
- mehrere
- Name
- Natürliche
- Verarbeitung natürlicher Sprache
- notwendig,
- Need
- benötigen
- Bedürfnisse
- Neu
- Nlp
- Notizbuch
- jetzt an
- Anzahl
- of
- WOW!
- Angebote
- vorgenommen,
- on
- einmal
- EINEM
- einzige
- Betriebs-
- Einkauf & Prozesse
- Optimierung
- Optimieren
- optimiert
- Optimierung
- or
- Organisation
- Organisationen
- Original
- Andere
- UNSERE
- Ergebnisse
- Möglichkeiten für das Ausgangssignal:
- übrig
- Überwinden
- überwältigend
- besitzen
- Paket
- Parameter
- Parameter
- Teil
- Leidenschaft & KREATIVITÄT
- Patente
- Weg
- Prozent
- Leistung
- Berechtigungen
- Stücke
- Plato
- Datenintelligenz von Plato
- PlatoData
- spielend
- erfahren
- Datenschutzrichtlinien
- Beliebt
- Popularität
- Teil
- möglich
- Post
- Werkzeuge
- größte treibende
- Praktisch
- Praktiken
- Voraussetzungen
- Geschenke
- Erhaltung
- verhindern
- vorher
- primär
- Principal
- Vor
- Prozessdefinierung
- anpassen
- Verarbeitung
- Fortschritt
- richtig
- immobilien
- bietet
- Push
- Python
- Pytorch
- Frage
- schnell
- Angebot
- schnell
- Echtzeit
- Grund
- Gründe
- kürzlich
- Veteran
- Reduziert
- reduziert
- Reduzierung
- siehe
- reflektieren
- Registrieren
- eingetragen
- Registratur
- bezogene
- Beziehungen
- relevant
- bemerkenswert
- Reporting
- Quelle
- erfordern
- falls angefordert
- Voraussetzungen:
- Downloads
- REST
- Folge
- Wiederverwendung
- Recht
- Rollen
- Rollen
- Führen Sie
- Laufen
- läuft
- Laufzeit
- sagemaker
- Speichern
- Gerettet
- Einsparung
- Ersparnisse
- Skalieren
- Skalierung
- Wissenschaft
- Wissenschaftler
- Sdk
- Suche
- Zweite
- Abschnitt
- Abschnitte
- auf der Suche nach
- Halbleiter
- Senior
- getrennte
- Trennung
- Lösungen
- Dienst
- mehrere
- Teilen
- ,,teilen"
- sie
- sollte
- gezeigt
- Konzerte
- ähnlich
- Einfacher
- da
- Single
- Größe
- langsam
- klein
- kleinere
- Schnipsel
- Lösung
- Lösungen
- einige
- Quelle
- Raumfahrt
- überspannend
- Spezialist
- spezialisiert
- spezifisch
- speziell
- verbringen
- gespalten
- Stakeholder
- Anfang
- Bundesstaat
- State-of-the-art
- Status
- Schritt
- Shritte
- Immer noch
- Lagerung
- speichern
- gelagert
- Studio Adressen
- so
- Support
- TAG
- Einnahme
- Aufgabe
- und Aufgaben
- Technik
- Techniken
- Technologies
- Technologie
- Telekommunikations
- AGB
- getestet
- Text
- zur Verbesserung der Gesundheitsgerechtigkeit
- Das
- ihr
- Sie
- dann
- Dort.
- Diese
- vom Nutzer definierten
- fehlen uns die Worte.
- Durch
- Zeit
- zu
- gemeinsam
- Werkzeug
- Fackel
- verfolgen sind
- traditionell
- Training
- Ausbildung
- privaten Transfer
- Transformator
- Transformer
- Reise
- was immer dies auch sein sollte.
- versuchen
- Melodie
- abgestimmt
- Abstimmung
- XNUMX
- tippe
- Typen
- für
- Verständnis
- Aktualisierung
- Aktualisierung
- hochgeladen
- URL
- -
- Anwendungsfall
- benutzt
- Mitglied
- Nutzer
- Verwendung von
- Bestätigung
- wertvoll
- Wert
- Vielfalt
- verschiedene
- riesig
- Version
- Versionen
- sehr
- Anzeigen
- Seh-
- visuell
- Spaziergang
- ging
- wollen
- wurde
- Weg..
- Wege
- we
- Netz
- Web-Services
- wann
- welche
- während
- warum
- breit
- Große Auswahl
- werden wir
- mit
- .
- ohne
- Damen
- Arbeiten
- gearbeitet
- Workflows
- Werk
- Jahr
- Du
- Ihr
- sich selbst
- Zephyrnet