NVIDIA NIM microdiensten nu integreren met Amazon Sage Maker, waardoor u toonaangevende grote taalmodellen (LLM's) kunt implementeren en de modelprestaties en kosten kunt optimaliseren. U kunt state-of-the-art LLM's binnen enkele minuten in plaats van dagen implementeren met behulp van technologieën zoals NVIDIA TensorRT, NVIDIA TensorRT-LLM en NVIDIA Triton Inference-server op versnelde NVIDIA-instanties gehost door SageMaker.
NIM, onderdeel van de NVIDIA AI Enterprise softwareplatform vermeld op AWS-marktplaats, is een reeks inferentie-microservices die de kracht van de modernste LLM's naar uw toepassingen brengen en natuurlijke taalverwerking (NLP) en begripsmogelijkheden bieden, of u nu chatbots ontwikkelt, documenten samenvat of andere NLP-implementaties implementeert. aangedreven toepassingen. U kunt vooraf gebouwde NVIDIA-containers gebruiken om populaire LLM's te hosten die zijn geoptimaliseerd voor specifieke NVIDIA GPU's voor snelle implementatie, of u kunt NIM-tools gebruiken om uw eigen containers te maken.
In dit bericht geven we een introductie op hoog niveau over NIM en laten we zien hoe u het kunt gebruiken met SageMaker.
Een inleiding tot NVIDIA NIM
NIM biedt geoptimaliseerde en vooraf gegenereerde motoren voor een verscheidenheid aan populaire modellen voor gevolgtrekking. Deze microservices ondersteunen een verscheidenheid aan LLM's, zoals Llama 2 (7B, 13B en 70B), Mistral-7B-Instruct, Mixtral-8x7B, NVIDIA Nemotron-3 22B Persona en Code Llama 70B, kant-en-klaar met behulp van pre- ingebouwde NVIDIA TensorRT-motoren die zijn afgestemd op specifieke NVIDIA GPU's voor maximale prestaties en gebruik. Deze modellen zijn samengesteld met de optimale hyperparameters voor modelhostingprestaties, zodat applicaties gemakkelijk kunnen worden geïmplementeerd.
Als uw model niet in de reeks samengestelde modellen van NVIDIA staat, biedt NIM essentiële hulpprogramma's zoals de Model Repo Generator, die het maken van een TensorRT-LLM-versnelde engine en een modelmap in NIM-formaat mogelijk maakt via een eenvoudig YAML-bestand. Bovendien biedt een geïntegreerde community-backend van vLLM ondersteuning voor geavanceerde modellen en opkomende functies die mogelijk niet naadloos zijn geïntegreerd in de voor TensorRT-LLM geoptimaliseerde stack.
Naast het creëren van geoptimaliseerde LLM's voor gevolgtrekking, biedt NIM geavanceerde hostingtechnologieën zoals geoptimaliseerde planningstechnieken zoals in-flight batching, waarmee het algemene tekstgeneratieproces voor een LLM kan worden opgesplitst in meerdere iteraties van het model. Bij in-flight batching verwijdert de NIM-runtime voltooide reeksen onmiddellijk uit de batch, in plaats van te wachten tot de hele batch is voltooid voordat doorgaat naar de volgende reeks verzoeken. De runtime begint vervolgens met het uitvoeren van nieuwe verzoeken terwijl andere verzoeken nog in behandeling zijn, waardoor uw rekeninstances en GPU's optimaal worden benut.
NIM implementeren op SageMaker
NIM kan worden geïntegreerd met SageMaker, waardoor u uw LLM's kunt hosten met prestatie- en kostenoptimalisatie terwijl u profiteert van de mogelijkheden van SageMaker. Wanneer u NIM op SageMaker gebruikt, kunt u gebruik maken van mogelijkheden zoals het uitschalen van het aantal instances om uw model te hosten, het uitvoeren van blauw/groene implementaties en het evalueren van workloads met behulp van schaduwtests, allemaal met de beste observatie- en monitoringmogelijkheden in zijn klasse. Amazon Cloud Watch.
Conclusie
Het gebruik van NIM om geoptimaliseerde LLM's te implementeren kan een goede optie zijn voor zowel prestaties als kosten. Het helpt ook om de implementatie van LLM's moeiteloos te maken. In de toekomst zal NIM ook aanpassingsmethoden voor Parameter-Efficient Fine-Tuning (PEFT) mogelijk maken, zoals LoRA en P-tuning. NIM is ook van plan om LLM-ondersteuning te krijgen door ondersteuning van Triton Inference Server, TensorRT-LLM en vLLM-backends.
We moedigen u aan meer te leren over NVIDIA-microservices en hoe u uw LLM's kunt implementeren met SageMaker en de voordelen uit te proberen die voor u beschikbaar zijn. NIM is beschikbaar als betaald aanbod als onderdeel van het NVIDIA AI Enterprise-softwareabonnement beschikbaar op AWS Marktplaats.
In de nabije toekomst zullen we een uitgebreide handleiding voor NIM op SageMaker plaatsen.
Over de auteurs
James Park is een oplossingsarchitect bij Amazon Web Services. Hij werkt samen met Amazon.com aan het ontwerpen, bouwen en implementeren van technologische oplossingen op AWS, en heeft een bijzondere interesse in AI en machine learning. In zijn vrije tijd gaat hij graag op zoek naar nieuwe culturen, nieuwe ervaringen en op de hoogte blijven van de nieuwste technologische trends. Je kunt hem vinden op LinkedIn.
Saurabh Trikande is Senior Product Manager voor Amazon SageMaker Inference. Hij heeft een passie voor het werken met klanten en wordt gemotiveerd door het doel om machine learning te democratiseren. Hij richt zich op kernuitdagingen met betrekking tot het inzetten van complexe ML-applicaties, multi-tenant ML-modellen, kostenoptimalisaties en het toegankelijker maken van de inzet van deep learning-modellen. In zijn vrije tijd houdt Saurabh van wandelen, leren over innovatieve technologieën, TechCrunch volgen en tijd doorbrengen met zijn gezin.
Qing Lan is een Software Development Engineer bij AWS. Hij heeft aan verschillende uitdagende producten in Amazon gewerkt, waaronder hoogwaardige ML-inferentieoplossingen en een hoogwaardig logsysteem. Het team van Qing lanceerde met succes het eerste miljard-parametermodel in Amazon Advertising met een zeer lage latentie vereist. Qing heeft diepgaande kennis over de optimalisatie van de infrastructuur en de versnelling van Deep Learning.
Nikhil Kulkarni is een softwareontwikkelaar met AWS Machine Learning, gericht op het performanter maken van machine learning-workloads in de cloud, en is mede-maker van AWS Deep Learning Containers voor training en gevolgtrekking. Hij heeft een passie voor gedistribueerde Deep Learning Systems. Buiten zijn werk leest hij graag boeken, speelt hij met gitaar en maakt hij pizza.
Harish Tummalacherla is Software Engineer bij het Deep Learning Performance-team bij SageMaker. Hij werkt aan prestatie-engineering voor het efficiënt bedienen van grote taalmodellen op SageMaker. In zijn vrije tijd houdt hij van hardlopen, fietsen en skiën.
Eliuth Triana Isaza is een Developer Relations Manager bij NVIDIA die Amazon's AI MLOps, DevOps, wetenschappers en technische experts van AWS in staat stelt de NVIDIA-computingstack onder de knie te krijgen voor het versnellen en optimaliseren van Genative AI Foundation-modellen, variërend van datacuratie, GPU-training, modelinferentie en productie-implementatie op AWS GPU-instanties . Daarnaast is Eliuth een gepassioneerd mountainbiker, skiër, tennis- en pokerspeler.
Jiahong Liu is Solution Architect in het Cloud Service Provider-team van NVIDIA. Hij helpt klanten bij het adopteren van machine learning en AI-oplossingen die gebruikmaken van NVIDIA Accelerated Computing om hun trainings- en inferentie-uitdagingen aan te pakken. In zijn vrije tijd houdt hij van origami, doe-het-zelfprojecten en basketbal.
Kshitiz Gupta is Solutions Architect bij NVIDIA. Hij vindt het leuk om cloudklanten te informeren over de GPU AI-technologieën die NVIDIA te bieden heeft en hen te helpen bij het versnellen van hun machine learning en deep learning-applicaties. Naast zijn werk houdt hij van hardlopen, wandelen en het spotten van dieren in het wild.
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- Plato Gezondheid. Intelligentie op het gebied van biotech en klinische proeven. Toegang hier.
- Bron: https://aws.amazon.com/blogs/machine-learning/optimize-price-performance-of-llm-inference-on-nvidia-gpus-using-the-amazon-sagemaker-integration-with-nvidia-nim-microservices/
- : heeft
- :is
- :niet
- $UP
- 100
- 121
- 7
- a
- Over
- versneld
- versnellen
- versnelling
- beschikbaar
- toevoeging
- adres
- De goedkeuring van
- vergevorderd
- ADVERTISING
- AI
- toelaten
- Het toestaan
- ook
- Amazone
- Amazon Sage Maker
- Amazon Web Services
- Amazon.com
- an
- en
- toepassingen
- ZIJN
- AS
- bijstaan
- helpt
- At
- Beschikbaar
- AWS
- AWS-machine learning
- backend
- backends
- Basketbal
- groeperen
- BE
- geweest
- vaardigheden
- begint
- profiteren
- betekent
- BEST
- Boeken
- zowel
- Box camera's
- Breken
- brengen
- bouw
- by
- CAN
- mogelijkheden
- uitdagingen
- uitdagend
- chatbots
- klanten
- Cloud
- code
- COM
- gemeenschap
- complex
- Berekenen
- computergebruik
- containers
- Kern
- Kosten
- en je merk te creëren
- Wij creëren
- het aanmaken
- culturen
- curated
- curation
- Klanten
- maatwerk
- op het randje
- gegevens
- Datum
- dagen
- deep
- diepgaand leren
- Democratiserend
- implementeren
- het inzetten
- inzet
- implementaties
- Design
- Ontwikkelaar
- het ontwikkelen van
- Ontwikkeling
- directory
- verdeeld
- diy
- documenten
- beneden
- gemak
- opleiden
- efficiënt
- zonder inspanning
- opkomende
- empowering
- aanmoedigen
- Motor
- ingenieur
- Engineering
- Motoren
- Enterprise
- bedrijfssoftware
- essentieel
- evalueren
- Ervaringen
- deskundigen
- vergemakkelijkt
- familie
- Voordelen
- Dien in
- VIND DE PLEK DIE PERFECT VOOR JOU IS
- afmaken
- Voornaam*
- vlucht
- richt
- gericht
- volgend
- Voor
- Foundation
- oppompen van
- Bovendien
- toekomst
- generatie
- generatief
- generatieve AI
- generator
- doel
- GPU
- GPU's
- groot
- gids
- Hebben
- he
- helpt
- Hoge
- high-level
- hem
- zijn
- gastheer
- gehost
- Hosting
- Hoe
- How To
- http
- HTTPS
- per direct
- uitvoering
- in
- diepgaande
- Inclusief
- toonaangevende
- Infrastructuur
- innovatieve
- innovatieve technologieën
- verkrijgen in plaats daarvan
- integreren
- geïntegreerde
- integreert
- integratie
- belang
- in
- Introductie
- IT
- iteraties
- jpeg
- jpg
- kennis
- taal
- Groot
- Wachttijd
- laatste
- gelanceerd
- LEARN
- leren
- Hefboomwerking
- als
- opgesomd
- Lama
- LLM
- logging
- Laag
- machine
- machine learning
- maken
- maken
- manager
- meester
- maximaal
- Mei..
- methoden
- microservices
- minuten
- ML
- MLops
- model
- modellen
- Grensverkeer
- meer
- gemotiveerde
- Berg
- bewegend
- meervoudig
- Naturel
- Natural Language Processing
- Nabij
- New
- volgende
- nlp
- nu
- aantal
- Nvidia
- of
- bieden
- het aanbieden van
- Aanbod
- on
- optimale
- optimalisatie
- optimalisaties
- Optimaliseer
- geoptimaliseerde
- optimaliseren
- Keuze
- or
- Overige
- uit
- buiten
- totaal
- het te bezitten.
- betaald
- deel
- bijzonder
- hartstochtelijk
- prestatie
- uitvoerend
- Pizza
- plannen
- platform
- Plato
- Plato gegevensintelligentie
- PlatoData
- speler
- spelen
- poker
- Populair
- Post
- energie
- verwerking
- Product
- product manager
- productie
- Producten
- projecten
- zorgen voor
- leverancier
- biedt
- het verstrekken van
- Quick
- liever
- lezing
- verwant
- betrekkingen
- verzoeken
- nodig
- lopend
- runtime
- sagemaker
- SageMaker Inferentie
- scaling
- scheduling
- wetenschappers
- naadloos
- op zoek naar
- senior
- server
- service
- Service Provider
- Diensten
- serveer-
- reeks
- verscheidene
- Shadow
- tonen
- Software
- software development
- Software Engineer
- oplossing
- Oplossingen
- overspannen
- specifiek
- Uitgaven
- stack
- state-of-the-art
- verblijven
- Still
- eenvoudig
- abonnement
- Met goed gevolg
- dergelijk
- ondersteuning
- Ondersteuning
- system
- Systems
- op maat gemaakt
- team
- TechCrunch
- Technisch
- technieken
- Technologies
- Technologie
- tennis
- tekst
- neem contact
- dat
- De
- De toekomst
- hun
- Ze
- harte
- Deze
- dit
- Door
- niet de tijd of
- naar
- tools
- Trainingen
- Trends
- Triton
- proberen
- begrip
- .
- gebruik
- utilities
- variëteit
- zeer
- Het wachten
- kijken
- we
- web
- webservices
- wanneer
- of
- welke
- en
- geheel
- wil
- Met
- Mijn werk
- werkzaam
- Bedrijven
- YAML
- You
- Your
- zephyrnet