In het tijdperk van big data en AI zoeken bedrijven voortdurend naar manieren om deze technologieën te gebruiken om een concurrentievoordeel te behalen. Een van de populairste gebieden op het gebied van AI op dit moment is generatieve AI, en met goede reden. Generatieve AI biedt krachtige oplossingen die de grenzen verleggen van wat mogelijk is op het gebied van creativiteit en innovatie. De kern van deze baanbrekende oplossingen ligt in een Foundation Model (FM), een zeer geavanceerd machine learning-model dat vooraf is getraind op grote hoeveelheden data. Veel van deze basismodellen hebben opmerkelijke capaciteiten getoond bij het begrijpen en genereren van mensachtige tekst, waardoor ze een waardevol hulpmiddel zijn voor een verscheidenheid aan toepassingen, van het creëren van inhoud tot automatisering van klantenondersteuning.
Deze modellen zijn echter niet zonder uitdagingen. Ze zijn uitzonderlijk groot en vereisen grote hoeveelheden gegevens en computerbronnen om te trainen. Bovendien kan het optimaliseren van het trainingsproces en het kalibreren van de parameters een complex en iteratief proces zijn, dat expertise en zorgvuldig experimenteren vereist. Dit kunnen barrières zijn voor veel organisaties die hun eigen basismodellen willen bouwen. Om deze uitdaging het hoofd te bieden, overwegen veel klanten om bestaande funderingsmodellen te verfijnen. Dit is een populaire techniek om een klein deel van de modelparameters aan te passen voor specifieke toepassingen, terwijl de kennis die al in het model is gecodeerd behouden blijft. Het stelt organisaties in staat de kracht van deze modellen te gebruiken en tegelijkertijd de middelen te verminderen die nodig zijn om zich aan te passen aan een specifiek domein of een specifieke taak.
Er zijn twee primaire benaderingen voor het verfijnen van funderingsmodellen: traditionele fijnafstelling en parameter-efficiënte fijnafstelling. Traditionele verfijning omvat het bijwerken van alle parameters van het vooraf getrainde model voor een specifieke stroomafwaartse taak. Aan de andere kant omvat parameter-efficiënte fijnafstemming een verscheidenheid aan technieken die het mogelijk maken een model aan te passen zonder alle oorspronkelijke modelparameters bij te werken. Eén van die technieken heet Low-rank Adaptation (LoRA). Het gaat om het toevoegen van kleine, taakspecifieke modules aan het vooraf getrainde model en het trainen ervan, terwijl de rest van de parameters vast blijft, zoals weergegeven in de volgende afbeelding.
Bron: Generatieve AI op AWS (O'Reilly, 2023)
LoRA is de laatste tijd om verschillende redenen populair geworden. Het biedt snellere training, verminderde geheugenvereisten en de mogelijkheid om vooraf getrainde modellen opnieuw te gebruiken voor meerdere downstream-taken. Belangrijker nog is dat het basismodel en de adapter op elk moment afzonderlijk kunnen worden opgeslagen en gecombineerd, waardoor het gemakkelijker wordt om verfijnde versies op te slaan, te distribueren en te delen. Dit introduceert echter een nieuwe uitdaging: hoe je deze nieuwe soorten verfijnde modellen op de juiste manier kunt beheren. Moet je het basismodel en de adapter combineren of gescheiden houden? In dit bericht bespreken we best practices voor het beheren van LoRA-afgestemde modellen Amazon Sage Maker om deze opkomende vraag te beantwoorden.
Werken met FM's in het SageMaker Model Registry
In dit bericht doorlopen we een end-to-end voorbeeld van het verfijnen van het Llama2 grote taalmodel (LLM) met behulp van de QLoRA-methode. QLoRA combineert de voordelen van parameterefficiënte fijnafstemming met 4-bit/8-bit kwantisering om de middelen die nodig zijn om een FM nauwkeurig af te stemmen op een specifieke taak of gebruiksscenario verder te verminderen. Hiervoor zullen we het vooraf getrainde Llama7-model met 2 miljard parameters gebruiken en dit verfijnen op de databricks-dolly-15k dataset. LLM's zoals Llama2 hebben miljarden parameters en zijn vooraf getraind op enorme tekstdatasets. Bij fijnafstemming wordt een LLM aangepast aan een stroomafwaartse taak met behulp van een kleinere dataset. Het verfijnen van grote modellen is echter rekentechnisch duur. Daarom zullen we de QLoRA-methode gebruiken om de gewichten te kwantificeren tijdens het afstemmen om deze rekenkosten te verlagen.
In onze voorbeelden vindt u twee notitieboekjes (llm-finetune-combined-with-registry.ipynb
en llm-finetune-separate-with-registry.ipynb
). Elk werkt op een andere manier om met LoRA-afgestemde modellen om te gaan, zoals geïllustreerd in het volgende diagram:
- Eerst downloaden we het vooraf getrainde Llama2-model met 7 miljard parameters met behulp van SageMaker Studio Notebooks. LLM's, zoals Llama2, hebben state-of-the-art prestaties laten zien op het gebied van natuurlijke taalverwerking (NLP)-taken wanneer ze zijn afgestemd op domeinspecifieke gegevens.
- Vervolgens verfijnen we Llama2 op de databricks-dolly-15k dataset met behulp van de QLoRA-methode. QLoRA vermindert de rekenkosten van fijnafstemming door modelgewichten te kwantificeren.
- Tijdens het afstemmen integreren we SageMaker Experiments Plus met de Transformers API om automatisch statistieken zoals gradiënt, verlies, enz. te loggen.
- Vervolgens maken we een versie van het verfijnde Llama2-model in SageMaker Model Registry met behulp van twee benaderingen:
- Het volledige model opslaan
- Adapter en basismodel apart opbergen.
- Ten slotte hosten we de verfijnde Llama2-modellen met behulp van Deep Java Library (DJL) Serving op een SageMaker Real-time eindpunt.
In de volgende secties gaan we dieper in op elk van deze stappen, om de flexibiliteit van SageMaker voor verschillende LLM-workflows te demonstreren en hoe deze functies de werking van uw modellen kunnen helpen verbeteren.
Voorwaarden
Voltooi de volgende vereisten om te beginnen met experimenteren met de code.
- Maak een SageMaker Studio-domein: Amazon SageMaker Studio, met name Studio Notebooks, wordt gebruikt om de Llama2-verfijningstaak te starten en vervolgens modellen binnenin te registreren en te bekijken SageMaker-modelregister. SageMaker-experimenten wordt ook gebruikt om de taaklogboeken van Llama2 te bekijken en te vergelijken (trainingsverlies/testverlies/enz.).
- Maak een Amazon Simple Storage Service (S3)-bucket: Toegang tot een S3-bucket om trainingsartefacten en modelgewichten op te slaan is vereist. Voor instructies, zie Een bucket maken. De voorbeeldcode die voor dit bericht wordt gebruikt, gebruikt de standaard S3-bucket van SageMaker, maar u kunt deze aanpassen om elke relevante S3-bucket te gebruiken.
- Modelcollecties instellen (IAM-machtigingen): Werk uw SageMaker-uitvoeringsrol bij met machtigingen voor resourcegroepen zoals vermeld onder Handleiding voor ontwikkelaars van modelregistercollecties om modelregistergroepering te implementeren met behulp van modelcollecties.
- Accepteer de Algemene Voorwaarden voor Llama2: U moet de licentieovereenkomst voor eindgebruikers en het acceptabele gebruiksbeleid accepteren voor het gebruik van het Llama2-basismodel.
De voorbeelden zijn beschikbaar in de GitHub-repository. De notebookbestanden worden getest met Studio-notebooks die draaien op PyTorch 2.0.0 Python 3.10 GPU-geoptimaliseerde kernel en ml.g4dn.xlarge-instantietype.
Experimenten plus callback-integratie
Amazon SageMaker-experimenten Hiermee kunt u machine learning (ML)-experimenten en modelversies organiseren, volgen, vergelijken en evalueren vanuit elke geïntegreerde ontwikkelomgeving (IDE), inclusief lokale Jupyter Notebooks, met behulp van de SageMaker Python SDK of boto3. Het biedt de flexibiliteit om uw modelstatistieken, parameters, bestanden, artefacten en diagrammen van de verschillende statistieken te loggen, verschillende metagegevens vast te leggen, deze te doorzoeken en de reproduceerbaarheid van modellen te ondersteunen. Datawetenschappers kunnen snel de prestaties en hyperparameters vergelijken voor modelevaluatie via visuele grafieken en tabellen. Ze kunnen ook SageMaker Experiments gebruiken om de gemaakte grafieken te downloaden en de modelevaluatie met hun belanghebbenden te delen.
Het trainen van LLM's kan een langzaam, duur en iteratief proces zijn. Het is erg belangrijk voor een gebruiker om LLM-experimenten op schaal bij te houden om een inconsistente modelafstemmingservaring te voorkomen. HuggingFace Transformer-API's stellen gebruikers in staat statistieken tijdens trainingstaken bij te houden Terugbelverzoeken. Callbacks zijn ‘alleen-lezen’ stukjes code die het gedrag van de trainingslus in de PyTorch Trainer kunnen aanpassen en die de status van de trainingslus kunnen inspecteren voor voortgangsrapportage, inloggen op TensorBoard of SageMaker Experiments Plus via aangepaste logica (die is opgenomen als onderdeel van deze codebase).
U kunt de callback-code van SageMaker Experiments importeren die is opgenomen in de coderepository van dit bericht, zoals weergegeven in het volgende codeblok:
Deze callback logt automatisch de volgende informatie in SageMaker Experiments als onderdeel van de trainingsrun:
- Trainingsparameters en hyperparameters
- Modeltraining en validatieverlies bij stap, tijdperk en finale
- Modelinvoer- en uitvoerartefacten (trainingsgegevensset, validatiegegevensset, modeluitvoerlocatie, trainingsdebugger en meer)
De volgende grafiek toont voorbeelden van de diagrammen die u kunt weergeven met behulp van die informatie.
Hierdoor kunt u eenvoudig meerdere runs vergelijken met behulp van de analysefunctie van SageMaker Experiments. U kunt de experimentuitvoeringen selecteren die u wilt vergelijken, en deze zullen automatisch vergelijkingsgrafieken vullen.
Registreer verfijnde modellen in modelregistercollecties
Modelregistercollecties is een kenmerk van SageMaker-modelregister waarmee u geregistreerde modellen die aan elkaar gerelateerd zijn, kunt groeperen en in hiërarchieën kunt ordenen om de vindbaarheid van modellen op schaal te verbeteren. We zullen Model Registry Collections gebruiken om het basismodel en verfijnde varianten bij te houden.
Volledige modelkopiemethode
De eerste methode combineert het basismodel en de LoRA-adapter en slaat het volledig verfijnde model op. De volgende code illustreert het samenvoegingsproces van modellen en slaat het gecombineerde model op met behulp van model.save_pretrained()
.
Het combineren van de LoRA-adapter en het basismodel tot één modelartefact na fijnafstemming heeft voor- en nadelen. Het gecombineerde model staat op zichzelf en kan onafhankelijk worden beheerd en geïmplementeerd zonder dat het originele basismodel nodig is. Het model kan worden gevolgd als zijn eigen entiteit met een versienaam die het basismodel en de verfijnde gegevens weerspiegelt. We kunnen een nomenclatuur aannemen met behulp van de base_model_name
+ verfijnd dataset_name
om de modelgroepen te organiseren. Optioneel kunnen modelcollecties de originele en verfijnde modellen associëren, maar dit is misschien niet nodig omdat het gecombineerde model onafhankelijk is. Het volgende codefragment laat zien hoe u het verfijnde model registreert.
U kunt de trainingsschatter gebruiken om het model in het Modelregister te registreren.
Vanuit Model Registry kunt u het modelpakket ophalen en dat model rechtstreeks implementeren.
Er kleven echter nadelen aan deze aanpak. Het combineren van de modellen leidt tot inefficiëntie en redundantie van de opslag, omdat het basismodel in elke verfijnde versie wordt gedupliceerd. Naarmate de modelgrootte en het aantal verfijnde modellen toenemen, verhoogt dit de opslagbehoeften exponentieel. Als we het lama2 7b-model als voorbeeld nemen, is het basismodel ongeveer 13 GB en het verfijnde model 13.6 GB. Na elke fijnafstelling moet 96% van het model worden gedupliceerd. Bovendien wordt het distribueren en delen van zeer grote modelbestanden ook moeilijker en brengt dit operationele uitdagingen met zich mee, omdat de kosten voor bestandsoverdracht en beheer toenemen naarmate de modelgrootte toeneemt en taken nauwkeuriger worden afgestemd.
Aparte adapter- en basismethode
De tweede methode richt zich op het scheiden van basisgewichten en adaptergewichten door ze op te slaan als afzonderlijke modelcomponenten en ze tijdens runtime opeenvolgend te laden.
Het besparen van basis- en adaptergewichten heeft voor- en nadelen, vergelijkbaar met de Full Model Copy-methode. Een voordeel is dat het opslagruimte kan besparen. De basisgewichten, die het grootste onderdeel vormen van een verfijnd model, worden slechts één keer opgeslagen en kunnen opnieuw worden gebruikt met andere adaptergewichten die zijn afgestemd op verschillende taken. Het basisgewicht van Llama2-7B bedraagt bijvoorbeeld ongeveer 13 GB, maar voor elke fijnafstellingstaak hoeft slechts ongeveer 0.6 GB aan adaptergewichten te worden opgeslagen, wat een ruimtebesparing van 95% betekent. Een ander voordeel is dat basisgewichten afzonderlijk van adaptergewichten kunnen worden beheerd met behulp van een modelregister met alleen basisgewichten. Dit kan handig zijn voor SageMaker-domeinen die alleen in VPC-modus draaien zonder een internetgateway, omdat de basisgewichten toegankelijk zijn zonder dat u via internet hoeft te gaan.
Maak een modelpakketgroep voor basisgewichten
Maak een modelpakketgroep voor QLoRA-gewichten
De volgende code laat zien hoe u QLoRA-gewichten kunt taggen met het gegevensset-/taaktype en hoe u nauwkeurig afgestemde deltagewichten kunt registreren in een afzonderlijk modelregister en hoe u de deltagewichten afzonderlijk kunt volgen.
Het volgende fragment toont een weergave van het Modelregister waarin de modellen zijn opgesplitst in basisgewichten en verfijnde gewichten.
Het beheren van modellen, datasets en taken voor hypergepersonaliseerde LLM's kan snel overweldigend worden. SageMaker-modelregistercollecties kan u helpen bij het groeperen van gerelateerde modellen en het organiseren ervan in een hiërarchie om de vindbaarheid van modellen te verbeteren. Dit maakt het eenvoudiger om de relaties tussen basisgewichten, adaptergewichten en taakgegevenssets te verfijnen. U kunt ook complexe relaties en koppelingen tussen modellen maken.
Maak een nieuwe collectie en voeg uw basismodelgewichten toe aan deze collectie
Koppel al uw Fine-Tuned LoRA Adapter Delta Weights aan deze collectie per taak en/of dataset
Dit zal resulteren in een verzamelingshiërarchie die is gekoppeld per model/taaktype en de dataset die wordt gebruikt om het basismodel te verfijnen.
Deze methode om de basis- en adaptermodellen te scheiden heeft enkele nadelen. Een nadeel is de complexiteit bij de implementatie van het model. Omdat er twee afzonderlijke modelartefacten zijn, hebt u extra stappen nodig om het model opnieuw te verpakken in plaats van rechtstreeks vanuit Model Registry te implementeren. In het volgende codevoorbeeld downloadt en verpakt u eerst de nieuwste versie van het basismodel.
Download en verpak vervolgens de nieuwste, nauwkeurig afgestemde LoRA-adaptergewichten.
Omdat u DJL met deepspeed gaat gebruiken om het model te hosten, zou uw inferentiemap er als volgt uit moeten zien.
Verpak ten slotte de aangepaste gevolgtrekkingscode, het basismodel en de LoRA-adapter in één enkel .tar.gz-bestand voor implementatie.
Opruimen
Ruim uw bronnen op door de instructies in het opruimgedeelte van het notitieblok te volgen. Verwijzen naar Amazon SageMaker-prijzen voor meer informatie over de kosten van de gevolgtrekkingsinstanties.
Conclusie
In dit bericht heb je de best practices besproken voor het beheren van LoRA-afgestemde modellen op Amazon SageMaker. We hebben twee hoofdmethoden besproken: het combineren van de basis- en adaptergewichten in één op zichzelf staand model, en het scheiden van de basis- en adaptergewichten. Beide benaderingen hebben nadelen, maar het scheiden van gewichten helpt de opslag te optimaliseren en maakt geavanceerde technieken voor modelbeheer mogelijk, zoals SageMaker Model Registry Collections. Hierdoor kunt u hiërarchieën en relaties tussen modellen opbouwen om de organisatie en vindbaarheid te verbeteren. We raden u aan de voorbeeldcode uit te proberen GitHub-repository om zelf met deze methoden te experimenteren. Naarmate generatieve AI snel vordert, zal het volgen van best practices voor modelbeheer u helpen experimenten bij te houden, het juiste model voor uw taak te vinden en gespecialiseerde LLM's efficiënt op schaal te beheren.
Referenties
Over de auteurs
James Wu is Senior AI/ML Specialist Solution Architect bij AWS. klanten helpen bij het ontwerpen en bouwen van AI/ML-oplossingen. James' werk omvat een breed scala aan ML-gebruikscasussen, met een primaire interesse in computervisie, deep learning en het opschalen van ML in de hele onderneming. Voordat hij bij AWS kwam, was James meer dan 10 jaar architect, ontwikkelaar en technologieleider, waarvan 6 jaar in engineering en 4 jaar in marketing- en reclamesectoren.
Pranav Murthy is een AI/ML Specialist Solutions Architect bij AWS. Hij richt zich op het helpen van klanten bij het bouwen, trainen, implementeren en migreren van machine learning (ML)-workloads naar SageMaker. Hij werkte eerder in de halfgeleiderindustrie en ontwikkelde grote computer vision (CV) en natuurlijke taalverwerkingsmodellen (NLP) om halfgeleiderprocessen te verbeteren. In zijn vrije tijd houdt hij van schaken en reizen.
Mecit Gungor is een AI/ML Specialist Solution Architect bij AWS die klanten helpt bij het ontwerpen en bouwen van AI/ML-oplossingen op schaal. Hij bestrijkt een breed scala aan AI/ML-gebruiksscenario's voor telecommunicatieklanten en richt zich momenteel op generatieve AI, LLM's en training en gevolgtrekkingsoptimalisatie. Hij is vaak te vinden tijdens het wandelen in de wildernis of het spelen van bordspellen met zijn vrienden in zijn vrije tijd.
Shelbee Eigenbrode is een Principal AI en Machine Learning Specialist Solutions Architect bij Amazon Web Services (AWS). Ze is al 24 jaar actief in de technologie, verspreid over meerdere sectoren, technologieën en functies. Ze concentreert zich momenteel op het combineren van haar DevOps- en ML-achtergrond in het domein van MLOps om klanten te helpen ML-workloads op grote schaal te leveren en te beheren. Met meer dan 35 verleende patenten in verschillende technologiedomeinen, heeft ze een passie voor continue innovatie en het gebruik van data om bedrijfsresultaten te stimuleren. Shelbee is co-creator en docent van de specialisatie Praktische Data Science op Coursera. Ze is ook co-directeur van Women In Big Data (WiBD), afdeling Denver. In haar vrije tijd brengt ze graag tijd door met haar familie, vrienden en overactieve honden.
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- Plato Gezondheid. Intelligentie op het gebied van biotech en klinische proeven. Toegang hier.
- Bron: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- : heeft
- :is
- :niet
- :waar
- $UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- vermogen
- Over
- ACCEPTEREN
- aanvaardbaar
- toegang
- geraadpleegde
- over
- aanpassing
- aanpast
- toevoegen
- toe te voegen
- Extra
- Daarnaast
- adres
- adopteren
- vergevorderd
- Voordeel
- voordelen
- ADVERTISING
- Na
- Overeenkomst
- AI
- AI klopt
- AI / ML
- Alles
- toelaten
- toestaat
- al
- ook
- Amazone
- Amazon Sage Maker
- Amazon SageMaker Studio
- Amazon eenvoudige opslagservice (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- hoeveelheden
- an
- analyseren
- en
- Nog een
- elke
- api
- toepassingen
- nadering
- benaderingen
- goedgekeurd
- ongeveer
- ZIJN
- gebieden
- AS
- Associëren
- At
- webmaster.
- Automatisering
- Beschikbaar
- AWS
- terug
- achtergrond
- barrières
- baseren
- BE
- omdat
- worden
- wordt
- geweest
- gedrag
- betekent
- BEST
- 'best practices'
- tussen
- Groot
- Big data
- Miljard
- miljarden
- Blok
- boord
- Gezelschapsspelletjes
- zowel
- grenzen
- bouw
- bedrijfsdeskundigen
- maar
- by
- terugbelverzoeken
- Dit betekent dat we onszelf en onze geliefden praktisch vergiftigen.
- CAN
- bekwaamheid
- vangen
- voorzichtig
- geval
- gevallen
- uitdagen
- uitdagingen
- Hoofdstuk
- Grafieken
- Schaakspel
- klasse
- duidelijk
- code
- Codebasis
- Collectie
- collecties
- combineren
- gecombineerde
- combines
- combineren
- Bedrijven
- vergelijken
- vergelijking
- concurrerend
- complex
- ingewikkeldheid
- bestanddeel
- componenten
- berekening
- computationeel
- computer
- Computer visie
- voorwaarden
- aangezien
- content
- content creatie
- permanent
- doorlopend
- Kern
- Kosten
- kon
- bedekt
- Covers
- en je merk te creëren
- aangemaakt
- het aanmaken
- creativiteit
- Op dit moment
- gewoonte
- klant
- Klantenservice
- Klanten
- maatwerk
- aan te passen
- op het randje
- gegevens
- data science
- datasets
- deep
- diepgaand leren
- diepere
- Standaard
- del
- leveren
- Delta
- tonen
- Denver
- implementeren
- ingezet
- het inzetten
- inzet
- Design
- gegevens
- Ontwikkelaar
- het ontwikkelen van
- Ontwikkeling
- anders
- moeilijk
- direct
- Display
- verdelen
- verspreiden van
- duiken
- domein
- domeinen
- Download
- nadelen
- rit
- gedurende
- elk
- gemakkelijker
- gemakkelijk
- rand
- doeltreffend
- efficiënt
- anders
- opkomende
- maakt
- aanmoedigen
- eind tot eind
- Endpoint
- Engineering
- Enterprise
- entiteit
- Milieu
- tijdperk
- Tijdperk
- etc
- schatten
- evaluatie
- voorbeeld
- voorbeelden
- buitengewoon
- uitvoering
- bestaand
- duur
- ervaring
- experiment
- experimenten
- expertise
- exponentieel
- Gezicht
- Storing
- familie
- sneller
- Kenmerk
- Voordelen
- Dien in
- Bestanden
- VIND DE PLEK DIE PERFECT VOOR JOU IS
- einde
- Voornaam*
- vast
- Flexibiliteit
- richt
- gericht
- volgend
- Voor
- gevonden
- Foundation
- Gratis
- vrienden
- oppompen van
- vol
- functie
- verder
- toekomst
- Krijgen
- opgedaan
- Spellen
- poort
- het genereren van
- generatief
- generatieve AI
- Go
- gaan
- goed
- GPU
- verleend
- diagram
- grafieken
- Groep
- Groep
- hand
- handvat
- Hebben
- met
- he
- hulp
- het helpen van
- helpt
- haar
- hiërarchie
- zeer
- zijn
- gastheer
- heetste
- Hoe
- How To
- Echter
- HTML
- HTTPS
- KnuffelenGezicht
- illustreert
- beeld
- uitvoeren
- uitvoering
- importeren
- belangrijk
- belangrijker
- invoer
- verbeteren
- in
- inclusief
- omvat
- Inclusief
- Laat uw omzet
- Verhoogt
- meer
- onafhankelijk
- onafhankelijk
- industrieën
- -industrie
- ondoeltreffendheid
- blaast op
- informatie
- Innovatie
- invoer
- instantie
- verkrijgen in plaats daarvan
- instructies
- integreren
- geïntegreerde
- belang
- Internet
- in
- Introduceert
- IT
- HAAR
- james
- Java
- Jobomschrijving:
- Vacatures
- aansluiting
- jpg
- Houden
- houden
- sleutel
- schop
- kennis
- taal
- Groot
- grootste
- laatste
- leider
- Leads
- leren
- Laten we
- Niveau
- Bibliotheek
- Vergunning
- ligt
- als
- sympathieën
- LINK
- gekoppeld
- opgesomd
- LLM
- laden
- het laden
- lokaal
- plaats
- inloggen
- logging
- logica
- Kijk
- ziet eruit als
- op zoek
- uit
- machine
- machine learning
- Hoofd
- MERKEN
- maken
- beheer
- beheerd
- management
- beheren
- veel
- Marketing
- Marketing reclame
- massief
- Mei..
- Geheugen
- gaan
- samen te voegen
- Metadata
- methode
- methoden
- Metriek
- trekken
- ML
- MLops
- Mode
- model
- modellen
- Modules
- meer
- meervoudig
- naam
- Naturel
- Natural Language Processing
- noodzakelijk
- Noodzaak
- nodig
- behoeften
- New
- nlp
- notitieboekje
- nu
- aantal
- of
- korting
- Aanbod
- vaak
- on
- eens
- EEN
- Slechts
- operationele
- Operations
- optimalisatie
- Optimaliseer
- geoptimaliseerde
- optimaliseren
- or
- organisatie
- organisaties
- origineel
- Overige
- onze
- resultaten
- uitgang
- over
- Overwinnen
- overweldigend
- het te bezitten.
- pakket
- parameter
- parameters
- deel
- passie
- Octrooien
- pad
- procent
- prestatie
- permissies
- stukken
- Plato
- Plato gegevensintelligentie
- PlatoData
- spelen
- plus
- beleidsmaatregelen
- Populair
- populariteit
- deel
- mogelijk
- Post
- energie
- krachtige
- PRAKTISCH
- praktijken
- vereisten
- cadeautjes
- het behoud van
- voorkomen
- die eerder
- primair
- Principal
- Voorafgaand
- processen
- verwerking
- Voortgang
- naar behoren
- vastgoed
- biedt
- Duwen
- Python
- pytorch
- vraag
- snel
- reeks
- snel
- real-time
- reden
- redenen
- onlangs
- verminderen
- Gereduceerd
- vermindert
- vermindering
- verwijzen
- reflecterende
- registreren
- geregistreerd
- register
- verwant
- Relaties
- relevante
- opmerkelijk
- Rapportage
- bewaarplaats
- vereisen
- nodig
- Voorwaarden
- Resources
- REST
- resultaat
- hergebruiken
- rechts
- Rol
- rollen
- lopen
- lopend
- loopt
- runtime
- sagemaker
- Bespaar
- gered
- besparing
- Bespaar geld
- Scale
- scaling
- Wetenschap
- wetenschappers
- sdk
- Ontdek
- Tweede
- sectie
- secties
- op zoek naar
- halfgeleider
- senior
- apart
- scheiden
- service
- Diensten
- serveer-
- verscheidene
- Delen
- delen
- ze
- moet
- getoond
- Shows
- gelijk
- Eenvoudig
- sinds
- single
- Maat
- traag
- Klein
- kleinere
- snipper
- oplossing
- Oplossingen
- sommige
- bron
- Tussenruimte
- overspannen
- specialist
- gespecialiseerde
- specifiek
- specifiek
- besteden
- spleet
- stakeholders
- begin
- Land
- state-of-the-art
- Status
- Stap voor
- Stappen
- Still
- mediaopslag
- shop
- opgeslagen
- studio
- dergelijk
- ondersteuning
- TAG
- het nemen
- Taak
- taken
- techniek
- technieken
- Technologies
- Technologie
- telecommunicatieverbinding
- termen
- getest
- tekst
- dat
- De
- hun
- Ze
- harte
- Er.
- Deze
- ze
- dit
- Door
- niet de tijd of
- naar
- samen
- tools
- fakkel
- spoor
- traditioneel
- Trainen
- Trainingen
- overdracht
- transformator
- transformers
- Reizend
- waar
- proberen
- toon
- tuned
- stemming
- twee
- type dan:
- types
- voor
- begrip
- bijwerken
- bijwerken
- geüpload
- URL
- .
- use case
- gebruikt
- Gebruiker
- gebruikers
- gebruik
- bevestiging
- waardevol
- waarde
- variëteit
- divers
- groot
- versie
- versies
- zeer
- via
- Bekijk
- visie
- visuele
- lopen
- wandelde
- willen
- was
- Manier..
- manieren
- we
- web
- webservices
- wanneer
- welke
- en
- Waarom
- breed
- Grote range
- wil
- Met
- binnen
- zonder
- Dames
- Mijn werk
- werkte
- workflows
- Bedrijven
- jaar
- You
- Your
- jezelf
- zephyrnet