La generazione da testo a immagine è un'attività in cui un modello di machine learning (ML) genera un'immagine da una descrizione testuale. L'obiettivo è generare un'immagine che corrisponda fedelmente alla descrizione, catturando i dettagli e le sfumature del testo. Questo compito è impegnativo perché richiede che il modello comprenda la semantica e la sintassi del testo e generi immagini fotorealistiche. Esistono molte applicazioni pratiche della generazione di testo in immagine nella fotografia AI, nella concept art, nell'architettura degli edifici, nella moda, nei videogiochi, nella progettazione grafica e molto altro.
Diffusione stabile è un modello di testo in immagine che ti consente di creare immagini di alta qualità in pochi secondi. Quando l'obiettivo è l'interazione in tempo reale con questo tipo di modello, garantire un'esperienza utente fluida dipende dall'uso di hardware accelerato per l'inferenza, come GPU o AWS Inferenziale2, l'acceleratore di inferenza ML di Amazon. I costi elevati legati all'utilizzo delle GPU in genere richiedono l'ottimizzazione dell'utilizzo del calcolo sottostante, ancora di più quando è necessario distribuire architetture diverse o modelli personalizzati (perfezionati). Amazon Sage Maker endpoint multi-modello (MME) ti aiutano a risolvere questo problema aiutandoti a ridimensionare migliaia di modelli in un unico endpoint. Utilizzando un contenitore di servizio condiviso, puoi ospitare più modelli in modo conveniente e scalabile all'interno dello stesso endpoint e persino della stessa GPU.
In questo post imparerai le architetture del modello Stable Diffusion, i diversi tipi di modelli Stable Diffusion e le tecniche per migliorare la qualità dell'immagine. Ti mostriamo anche come implementare modelli Stable Diffusion a costi contenuti utilizzando SageMaker MME e NVIDIA Triton Inference Server.
Prompt: ritratto di un simpatico cane bernese, disegno di elke Vogelsang, 8k ultra realistico, di tendenza su artstation, 4k | Prompt: progetto di architettura del soggiorno, 8k ultra realistico, 4k, iperrealistico, focalizzato, dettagli estremi | Suggerimento: skyline di New York di notte, 8k, fotografia a campo lungo, motore irreale 5, cinema, capolavoro |
Architettura di diffusione stabile
Stable Diffusion è un modello open source da testo a immagine che puoi utilizzare per creare immagini di stili e contenuti diversi semplicemente fornendo un prompt di testo. Nel contesto della generazione da testo a immagine, un modello di diffusione è un modello generativo che puoi utilizzare per generare immagini di alta qualità da descrizioni testuali. I modelli di diffusione sono un tipo di modello generativo in grado di catturare le complesse dipendenze tra le modalità di input e output testo e immagini.
Il diagramma seguente mostra un'architettura di alto livello di un modello di diffusione stabile.
Si compone dei seguenti elementi chiave:
- Codificatore di testo – CLIP è un modello di codificatore di testo basato su trasformatori che prende il testo del prompt di input e lo converte in incorporamenti di token che rappresentano ogni parola nel testo. CLIP viene addestrato su un set di dati di immagini e relative didascalie, una combinazione di codificatore di immagini e codificatore di testo.
- U-Net – Un modello U-Net prende token embedding da CLIP insieme a una serie di input rumorosi e produce un output denoised. Ciò avviene attraverso una serie di passaggi iterativi, in cui ogni passaggio elabora un tensore latente di input e produce un nuovo tensore dello spazio latente che rappresenta meglio il testo di input.
- Encoder-decodificatore automatico – Questo modello crea le immagini finali. Prende l'output latente denoised finale dal modello U-Net e lo converte in immagini che rappresentano l'input di testo.
Tipi di modelli a diffusione stabile
In questo post, esploriamo i seguenti modelli di diffusione stabile pre-addestrati da Stability AI dall'hub del modello Hugging Face.
diffusione-stabile-2-1-base
Utilizzare questo modello per generare immagini basate su un prompt di testo. Questa è una versione base del modello su cui è stato addestrato LAION-5B. Il modello è stato addestrato su un sottoinsieme del set di dati su larga scala LAION-5B, e principalmente con didascalie in inglese. Noi usiamo StableDiffusionPipeline
dal diffusers
libreria per generare immagini da prompt di testo. Questo modello può creare immagini di dimensioni 512 x 512. Utilizza i seguenti parametri:
- pronto – Un prompt può essere una parola di testo, una frase, frasi o paragrafi.
- prompt_negativo – È inoltre possibile passare un prompt negativo per escludere elementi specificati dal processo di generazione dell'immagine e per migliorare la qualità delle immagini generate.
- guida_scala – Una scala di guida più alta produce un'immagine più strettamente correlata al prompt, a scapito della qualità dell'immagine. Se specificato, deve essere un float.
diffusione-stabile-2-profondità
Questo modello viene utilizzato per generare nuove immagini da quelle esistenti preservando la forma e la profondità degli oggetti nell'immagine originale. Questo stable-diffusion-2-depth model
è messo a punto da diffusione-stabile-2-base, un canale di input aggiuntivo per elaborare la previsione della profondità (relativa). Noi usiamo StableDiffusionDepth2ImgPipeline
dal diffusers
library per caricare la pipeline e generare immagini di profondità. Di seguito sono riportati i parametri aggiuntivi specifici del modello di profondità:
- Immagine – L'immagine iniziale per condizionare la generazione di nuove immagini.
- num_inferenza_passi (facoltativo) – Il numero di passaggi di riduzione del rumore. Più passaggi di denoising di solito portano a un'immagine di qualità superiore a scapito di un'inferenza più lenta. Questo parametro è modulato da
strength
. - forza (opzionale) – Concettualmente, questo indica quanto trasformare l'immagine di riferimento. Il valore deve essere compreso tra 0 e 1.
image
viene utilizzato come punto di partenza, aggiungendo più rumore maggiore è la forza. Il numero di fasi di riduzione del rumore dipende dalla quantità di rumore inizialmente aggiunta. Quandostrength
è 1, il rumore aggiunto sarà massimo e il processo di denoising verrà eseguito per l'intero numero di iterazioni specificato innum_inference_steps
. Un valore di 1, quindi, essenzialmente ignoraimage
. Per ulteriori dettagli, fare riferimento a quanto segue codice.
stabile-diffusione-2-inpittura
Puoi utilizzare questo modello per i casi d'uso di ripristino di immagini AI. Puoi anche usarlo per creare nuovi design e immagini dai prompt e argomenti aggiuntivi. Anche questo modello è derivato dal modello base e ha una strategia di generazione della maschera. Specifica la maschera dell'immagine originale per rappresentare i segmenti da modificare ei segmenti da lasciare invariati. Noi usiamo StableDiffusionUpscalePipeline
dal diffusers
libreria per applicare modifiche inpaint all'immagine originale. Il seguente parametro aggiuntivo è specifico del modello di profondità:
- input_maschera – Un'immagine in cui la parte oscurata rimane invariata durante la generazione dell'immagine e la parte bianca viene sostituita
stabile-diffusione-x4-upscaler
Anche questo modello è derivato dal modello base, addestrato ulteriormente sul sottoinsieme 10 M di LAION contenente immagini 2048 x 2048. Come suggerisce il nome, può essere utilizzato per eseguire l'upscaling di immagini a bassa risoluzione a risoluzioni più elevate
Panoramica dei casi d'uso
Per questo post, implementiamo un servizio di immagini AI con molteplici funzionalità, tra cui la generazione di nuove immagini dal testo, la modifica degli stili delle immagini esistenti, la rimozione di oggetti indesiderati dalle immagini e l'upscaling di immagini a bassa risoluzione a risoluzioni più elevate. Utilizzando diverse varianti dei modelli Stable Diffusion, puoi affrontare tutti questi casi d'uso all'interno di un singolo endpoint SageMaker. Ciò significa che dovrai ospitare un numero elevato di modelli in modo performante, scalabile ed economico. In questo post, mostriamo come implementare più modelli Stable Diffusion in modo economicamente vantaggioso utilizzando SageMaker MME e NVIDIA Triton Inference Server. Imparerai i dettagli di implementazione, le tecniche di ottimizzazione e le migliori pratiche per lavorare con i modelli di testo in immagine.
La tabella seguente riassume i modelli di diffusione stabile che distribuiamo a un MME SageMaker.
Nome del modello | Dimensione del modello in GB |
stabilityai/stable-diffusion-2-1-base |
2.5 |
stabilityai/stable-diffusion-2-depth |
2.7 |
stabilityai/stable-diffusion-2-inpainting |
2.5 |
stabilityai/stable-diffusion-x4-upscaler |
7 |
Panoramica della soluzione
I seguenti passaggi sono coinvolti nella distribuzione dei modelli Stable Diffusion alle MME SageMaker:
- Utilizzare l'hub Hugging Face per scaricare i modelli Stable Diffusion in una directory locale. Questo verrà scaricato
scheduler, text_encoder, tokenizer, unet, and vae
per ogni modello di diffusione stabile nella directory locale corrispondente. Noi usiamo ilrevision="fp16"
versione del modello. - Imposta il repository del modello NVIDIA Triton, le configurazioni del modello e la logica di servizio del modello
model.py
. Triton utilizza questi artefatti per fornire previsioni. - Crea un pacchetto dell'ambiente conda con dipendenze aggiuntive e il repository del modello di pacchetto da distribuire in SageMaker MME.
- Impacchetta gli artefatti del modello in un formato specifico di NVIDIA Triton e caricali
model.tar.gz
a Servizio di archiviazione semplice Amazon (Amazon S3). Il modello verrà utilizzato per generare immagini. - Configura un modello SageMaker, la configurazione dell'endpoint e distribuisci SageMaker MME.
- Esegui l'inferenza e invia le richieste all'endpoint SageMaker per generare immagini utilizzando il modello Stable Diffusion. Precisiamo il
TargetModel
variabile e richiamare diversi modelli di diffusione stabile per confrontare visivamente i risultati.
Abbiamo pubblicato il codice per implementare questa architettura di soluzione in Repository GitHub. Segui le istruzioni README per iniziare.
Servi i modelli con un back-end Python di NVIDIA Triton Inference Server
Utilizziamo un backend Triton Python per distribuire il modello di pipeline Stable Diffusion su un MME SageMaker. Il backend Python ti consente di servire modelli scritti in Python da Triton Inference Server. Per utilizzare il backend Python, devi creare un file Python model.py
che ha la seguente struttura: Ogni backend Python può implementare quattro funzioni principali nel file TritonPythonModel
classe:
Ogni backend Python può implementare quattro funzioni principali nel file TritonPythonModel
classe: auto_complete_config
, initialize
, execute
e finalize
.
initialize
viene chiamato quando il modello viene caricato. Implementazione initialize
è facoltativo. initialize
consente di eseguire tutte le inizializzazioni necessarie prima di eseguire l'inferenza. Nel initialize
function, creiamo una pipeline e carichiamo le pipeline usando from_pretrained
posti di blocco. Configuriamo gli scheduler dalla configurazione dello scheduler della pipeline pipe.scheduler.config
. Infine, specifichiamo xformers
ottimizzazioni per abilitare il xformer
parametro di efficienza della memoria enable_xformers_memory_efficient_attention
. Forniamo maggiori dettagli su xformers
più avanti in questo post. Puoi fare riferimento a model.py di ciascun modello per comprendere i diversi dettagli della pipeline. Questo file può essere trovato nel repository del modello.
Il execute
La funzione viene chiamata ogni volta che viene effettuata una richiesta di inferenza. Ogni modello Python deve implementare il execute
funzione. Nel execute
funzione, ti viene fornito un elenco di InferenceRequest
oggetti. Passiamo il prompt del testo di input alla pipeline per ottenere un'immagine dal modello. Le immagini vengono decodificate e l'immagine generata viene restituita da questa chiamata di funzione.
Otteniamo il tensore di input dal nome definito nella configurazione del modello config.pbtxt
file. Dalla richiesta di inferenza, otteniamo prompt
, negative_prompt
e gen_args
, e decodificarli. Passiamo tutti gli argomenti all'oggetto pipeline del modello. Codifica l'immagine per restituire le previsioni dell'immagine generate. Puoi fare riferimento al config.pbtxt
file di ciascun modello per comprendere i diversi dettagli della pipeline. Questo file può essere trovato nel repository del modello. Infine, avvolgiamo l'immagine generata InferenceResponse
e restituire la risposta.
Implementazione finalize
è facoltativo. Questa funzione consente di eseguire tutte le operazioni di pulizia necessarie prima che il modello venga scaricato da Triton Inference Server.
Quando si lavora con il back-end Python, è responsabilità dell'utente garantire che gli input vengano elaborati in modo batch e che le risposte vengano restituite di conseguenza. Per raggiungere questo obiettivo, ti consigliamo di seguire questi passaggi:
- Passa in rassegna tutte le richieste nel file
requests
oggetto per formare abatched_input
. - Eseguire l'inferenza sul
batched_input
. - Dividi i risultati in più
InferenceResponse
oggetti e concatenarli come risposte.
Fare riferimento a Documentazione back-end di Triton Python or Ospita modelli ML su Amazon SageMaker utilizzando Triton: backend Python per ulteriori dettagli.
Repository e configurazione del modello NVIDIA Triton
Il repository del modello contiene lo script di servizio del modello, gli artefatti del modello e gli artefatti del tokenizer, un ambiente conda in pacchetto (con le dipendenze necessarie per l'inferenza), il file di configurazione di Triton e lo script Python utilizzato per l'inferenza. Quest'ultimo è obbligatorio quando usi il backend Python e dovresti usare il file Python model.py
. Esploriamo il file di configurazione del modello inpaint Stable Diffusion e comprendiamo le diverse opzioni specificate:
La tabella seguente spiega i vari parametri e valori:
Le | Dettagli |
name |
Non è necessario includere la proprietà del nome della configurazione del modello. Nel caso in cui la configurazione non specifichi il nome del modello, si presume che sia identico al nome della directory del repository del modello in cui è memorizzato il modello. Tuttavia, se viene fornito un nome, deve corrispondere al nome della directory del repository del modello in cui è archiviato il modello. sd_inpaint è il nome della proprietà di configurazione. |
backend |
Questo specifica il framework Triton per servire le previsioni del modello. Questo parametro è obbligatorio. Specifichiamo python , perché utilizzeremo il backend Triton Python per ospitare i modelli Stable Diffusion. |
max_batch_size |
Indica la dimensione massima del batch supportata dal modello per il file tipi di dosaggio che può essere sfruttato da Tritone. |
input→ prompt |
Prompt di testo di tipo stringa. Specificare -1 per accettare la forma del tensore dinamico. |
input→ negative_prompt |
Prompt di testo negativo di tipo stringa. Specificare -1 per accettare la forma del tensore dinamico. |
input→ mask_image |
Immagine della maschera con codifica Base64 di tipo stringa. Specificare -1 per accettare la forma del tensore dinamico. |
input→ image |
Immagine codificata Base64 di tipo stringa. Specificare -1 per accettare la forma del tensore dinamico. |
input→ gen_args |
JSON ha codificato argomenti aggiuntivi di tipo stringa. Specificare -1 per accettare la forma del tensore dinamico. |
output→ generated_image |
Immagine generata di tipo stringa. Specificare -1 per accettare la forma del tensore dinamico. |
instance_group |
Puoi utilizzare questa impostazione per posizionare più istanze di esecuzione di un modello su ogni GPU o solo su determinate GPU. Specifichiamo KIND_GPU per fare copie del modello sulle GPU disponibili. |
parameters |
Impostiamo il percorso dell'ambiente conda su EXECUTION_ENV_PATH . |
Per i dettagli sul repository di modelli e le configurazioni di altri modelli Stable Diffusion, fare riferimento al codice nel file Repository GitHub. Ogni directory contiene artefatti per i modelli di diffusione stabile specifici.
Creare un pacchetto di un ambiente conda ed estendere il contenitore SageMaker Triton
Le immagini del contenitore SageMaker NVIDIA Triton non contengono librerie come transformer, accelerate, and diffusers
per implementare e servire modelli di diffusione stabile. Tuttavia, Triton ti consente di portare dipendenze aggiuntive utilizzando pacchetto conda. Iniziamo creando l'ambiente conda con le dipendenze necessarie delineate nel file environment.yml
file e creare un artefatto del modello tar sd_env.tar.gz
file contenente l'ambiente conda con le dipendenze installate al suo interno. Eseguire il seguente file YML per creare un file conda-pack
artefatto e copia l'artefatto nella directory locale da dove verrà caricato in Amazon S3. Tieni presente che caricheremo gli artefatti conda come uno dei modelli nell'MME e invocheremo questo modello per configurare l'ambiente conda nell'istanza ML che ospita SageMaker.
Carica gli artefatti del modello su Amazon S3
SageMaker prevede che il file .tar.gz contenente ogni repository di modelli Triton sia ospitato sull'endpoint multi-modello. Pertanto, creiamo un artefatto tar con contenuto dal repository del modello Triton. Possiamo utilizzare questo bucket S3 per ospitare migliaia di artefatti del modello e SageMaker MME utilizzerà i modelli da questa posizione per caricare e servire in modo dinamico un gran numero di modelli. Conserviamo tutti i modelli Stable Diffusion in questa posizione Amazon S3.
Distribuisci SageMaker MME
In questa sezione, esaminiamo i passaggi per distribuire SageMaker MME definendo le specifiche del contenitore, il modello SageMaker e le configurazioni degli endpoint.
Definisci il contenitore di servizio
Nella definizione del contenitore, definire il ModelDataUrl
per specificare la directory S3 che contiene tutti i modelli che SageMaker MME utilizzerà per caricare e fornire previsioni. Impostato Mode
a MultiModel
per indicare che SageMaker creerà l'endpoint con le specifiche del contenitore MME. Impostiamo il contenitore con un'immagine che supporti la distribuzione di MME con GPU. Vedere Algoritmi, framework e istanze supportati per ulteriori dettagli.
Vediamo tutti e tre gli artefatti del modello nel seguente Amazon S3 ModelDataUrl
posizione:
Creare un oggetto MME
Utilizziamo il client SageMaker Boto3 per creare il modello utilizzando il file crea_modello API. Passiamo la definizione del contenitore all'API di creazione del modello insieme a ModelName
ed ExecutionRoleArn
:
Definire le configurazioni per MME
Creare una configurazione MME utilizzando il file create_endpoint_config API Boto3. Specificare un'istanza di elaborazione GPU accelerata in InstanceType
(usiamo lo stesso tipo di istanza che stiamo utilizzando per ospitare il nostro notebook SageMaker). Ti consigliamo di configurare i tuoi endpoint con almeno due istanze con casi d'uso reali. Ciò consente a SageMaker di fornire un set di previsioni altamente disponibili su più zone di disponibilità per i modelli.
Crea un MME
Utilizza la configurazione dell'endpoint precedente per creare un nuovo endpoint SageMaker e attendi il completamento della distribuzione:
Lo stato cambierà in InService
quando la distribuzione ha esito positivo.
Genera immagini utilizzando diverse versioni dei modelli Stable Diffusion
Iniziamo richiamando il modello base con un prompt e ottenendo l'immagine generata. Passiamo gli input al modello base con prompt, negative_prompt, and gen_args
come dizionario. Impostiamo il tipo di dati e la forma di ciascun elemento di input nel dizionario e lo passiamo come input al modello.
Suggerimento: piscina a sfioro in cima a un grattacielo con vista su Central Park
Lavorando con questa immagine, possiamo modificarla con il versatile modello di profondità Stable Diffusion. Ad esempio, possiamo cambiare lo stile dell'immagine in un dipinto a olio o cambiare l'ambientazione da Central Park a Yellowstone National Park semplicemente passando l'immagine originale insieme a un prompt che descrive i cambiamenti che vorremmo vedere.
Invochiamo il modello di profondità specificando sd_depth.tar.gz
nel TargetModel
della invoke_endpoint
chiamata di funzione. Negli output, notate come viene preservato l'orientamento dell'immagine originale, ma per esempio, gli edifici di New York sono stati trasformati in formazioni rocciose della stessa forma.
Immagine originale | Pittura ad olio | Parco di Yellowstone |
Un altro modello utile è l'inpainting Stable Diffusion, che possiamo usare per rimuovere alcune parti dell'immagine. Diciamo che vuoi rimuovere l'albero nella seguente immagine di esempio. Possiamo farlo invocando il modello inpaint sd_inpaint.tar.gz.
Per rimuovere l'albero, dobbiamo passare a mask_image
, che indica quali aree dell'immagine devono essere mantenute e quali devono essere riempite. La porzione di pixel neri dell'immagine della maschera indica le aree che devono rimanere invariate, mentre i pixel bianchi indicano cosa deve essere sostituito.
Immagine originale | Immagine della maschera | Inpaint immagine |
Nel nostro esempio finale, ridimensioniamo l'immagine originale che è stata generata in precedenza dalla sua risoluzione 512 x 512 a 128 x 128. Quindi invochiamo il modello di upscaler Stable Diffusion per eseguire l'upscaling dell'immagine a 512 x 512. Usiamo lo stesso prompt per eseguire l'upscaling l'immagine come ciò che abbiamo usato per generare l'immagine iniziale. Sebbene non sia necessario, fornire un prompt che descriva l'immagine aiuta a guidare il processo di upscaling e dovrebbe portare a risultati migliori.
Immagine a bassa risoluzione | Immagine ingrandita |
Sebbene l'immagine ingrandita non sia dettagliata come l'originale, è un netto miglioramento rispetto a quella a bassa risoluzione.
Ottimizza per memoria e velocità
Il xformers
library è un modo per velocizzare la generazione delle immagini. Questa ottimizzazione è disponibile solo per le GPU NVIDIA. Accelera la generazione di immagini e riduce l'utilizzo della VRAM. Abbiamo usato il xformers
libreria per attenzione e velocità efficienti in termini di memoria. Quando il enable_xformers_memory_efficient_attention
l'opzione è abilitata, dovresti osservare un minore utilizzo della memoria della GPU e un potenziale aumento della velocità al momento dell'inferenza.
Ripulire
Segui le istruzioni nella sezione di pulizia del blocco appunti per eliminare la parte di questo blog di cui è stato eseguito il provisioning delle risorse per evitare addebiti non necessari. Fare riferimento Prezzi di Amazon SageMaker per i dettagli il costo delle istanze di inferenza.
Conclusione
In questo post, abbiamo discusso dei modelli Stable Diffusion e di come implementare diverse versioni dei modelli Stable Diffusion in modo conveniente utilizzando gli endpoint multi-modello SageMaker. Puoi utilizzare questo approccio per creare uno strumento di generazione e modifica delle immagini del creatore. Controlla gli esempi di codice nel file Repository GitHub per iniziare e facci sapere del fantastico strumento di intelligenza artificiale generativa che crei.
Informazioni sugli autori
Simone Zamarin è un architetto di soluzioni AI / ML il cui obiettivo principale è aiutare i clienti a estrarre valore dalle loro risorse di dati. Nel tempo libero, Simon ama passare il tempo con la famiglia, leggere fantascienza e lavorare a vari progetti di case fai da te.
Vikram Elango è Sr. AI/ML Specialist Solutions Architect presso AWS, con sede in Virginia, USA. Attualmente si occupa di intelligenza artificiale generativa, LLM, ingegneria rapida, ottimizzazione dell'inferenza di modelli di grandi dimensioni e scalabilità del machine learning tra le aziende. Vikram aiuta i clienti del settore finanziario e assicurativo con design e architettura a creare e distribuire applicazioni ML su larga scala. Nel tempo libero ama viaggiare, fare escursioni, cucinare e fare campeggio con la sua famiglia.
João Moura è AI/ML Specialist Solutions Architect presso AWS, con sede in Spagna. Aiuta i clienti con la formazione del modello di deep learning e l'ottimizzazione dell'inferenza e, più in generale, nella creazione di piattaforme ML su larga scala su AWS. È anche un sostenitore attivo dell'hardware specializzato in ML e delle soluzioni ML low-code.
Saurabh Trikande è un Senior Product Manager per Amazon SageMaker Inference. È appassionato di lavorare con i clienti ed è motivato dall'obiettivo di democratizzare l'apprendimento automatico. Si concentra sulle sfide principali relative all'implementazione di applicazioni ML complesse, modelli ML multi-tenant, ottimizzazioni dei costi e rendere più accessibile l'implementazione di modelli di deep learning. Nel tempo libero, Saurabh ama fare escursioni, conoscere tecnologie innovative, seguire TechCrunch e trascorrere del tempo con la sua famiglia.
- Distribuzione di contenuti basati su SEO e PR. Ricevi amplificazione oggi.
- PlatoAiStream. Intelligenza dei dati Web3. Conoscenza amplificata. Accedi qui.
- Coniare il futuro con Adryenn Ashley. Accedi qui.
- Acquista e vendi azioni in società PRE-IPO con PREIPO®. Accedi qui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/create-high-quality-images-with-stable-diffusion-models-and-deploy-them-cost-efficiently-with-amazon-sagemaker/
- :ha
- :È
- :non
- :Dove
- $ SU
- 1
- 10
- 100
- 11
- 12
- 15%
- 17
- 22
- 23
- 24
- 30
- 7
- 8
- 8k
- 9
- a
- WRI
- accelerare
- accelerata
- acceleratore
- Accetta
- accessibile
- di conseguenza
- Raggiungere
- operanti in
- attivo
- aggiunto
- l'aggiunta di
- aggiuntivo
- Inoltre
- indirizzo
- AI
- AI / ML
- Algoritmi
- Tutti
- consente
- lungo
- anche
- Amazon
- Amazon Sage Maker
- Amazon Web Services
- quantità
- an
- ed
- in qualsiasi
- api
- applicazioni
- APPLICA
- approccio
- architettura
- SONO
- argomenti
- Italia
- Arte
- AS
- Attività
- At
- attenzione
- disponibilità
- disponibile
- evitare
- AWS
- precedente
- BACKEND
- base
- basato
- BE
- perché
- stato
- prima
- essendo
- MIGLIORE
- best practice
- Meglio
- fra
- Nero
- Blog
- sfocatura
- stile di vita
- portare
- in linea di massima
- costruire
- Costruzione
- ma
- by
- chiamata
- detto
- Materiale
- funzionalità
- didascalie
- catturare
- Catturare
- Custodie
- casi
- centrale
- certo
- sfide
- impegnativo
- il cambiamento
- cambiato
- Modifiche
- cambiando
- canale
- oneri
- dai un'occhiata
- cinematico
- classe
- cliente
- strettamente
- codice
- combinazione
- confrontare
- complesso
- Calcolare
- informatica
- concetto
- concettualmente
- condizione
- Configurazione
- contenere
- Contenitore
- contiene
- contenuto
- contesto
- Froids
- Nucleo
- Corrispondente
- Costo
- costo effettivo
- Costi
- creare
- creato
- crea
- Creazione
- Creatore
- Attualmente
- Clienti
- dati
- deep
- apprendimento profondo
- definito
- definizione
- democratizzare
- dipende
- schierare
- schierato
- distribuzione
- deployment
- profondità
- derivato
- descrizione
- Design
- disegni
- dettaglio
- dettagliati
- dettagli
- diverso
- Emittente
- Dimensioni
- discusso
- fai da te
- do
- non
- Cane
- Dont
- scaricare
- durante
- dinamico
- dinamicamente
- ogni
- In precedenza
- efficiente
- elementi
- Potenzia
- enable
- abilitato
- endpoint
- motore
- 5 Engine
- Ingegneria
- Inglese
- accrescere
- garantire
- assicurando
- aziende
- Ambiente
- essenzialmente
- Anche
- Evento
- Ogni
- esempio
- esistente
- aspetta
- esperienza
- Spiega
- Exploited
- esplora
- estendere
- extra
- estratto
- estremo
- Faccia
- famiglia
- Moda
- Compila il
- pieno
- finale
- Infine
- finanziario
- finire
- galleggiante
- Focus
- concentrato
- si concentra
- seguire
- i seguenti
- Nel
- modulo
- formato
- essere trovato
- quattro
- Contesto
- quadri
- da
- pieno
- function
- funzioni
- Giochi
- generare
- generato
- genera
- la generazione di
- ELETTRICA
- generativo
- AI generativa
- ottenere
- ottenere
- GitHub
- dato
- scopo
- GPU
- GPU
- Grafico
- guida
- guida
- accade
- Hardware
- Avere
- he
- Aiuto
- aiutare
- aiuta
- Alta
- alto livello
- alta qualità
- superiore
- vivamente
- il suo
- host
- ospitato
- di hosting
- Casa
- Come
- Tutorial
- Tuttavia
- HTML
- http
- HTTPS
- Hub
- identico
- if
- Immagine
- immagini
- realizzare
- implementazione
- Implementazione
- miglioramento
- in
- includere
- Compreso
- indicare
- indica
- industria
- infinito
- inizialmente
- inizialmente
- creativi e originali
- tecnologie innovative
- ingresso
- Ingressi
- installato
- esempio
- istruzioni
- assicurazione
- interazione
- ai miglioramenti
- coinvolto
- IT
- iterazioni
- SUO
- jpg
- json
- Le
- Genere
- Sapere
- grandi
- larga scala
- superiore, se assunto singolarmente.
- dopo
- portare
- Leads
- IMPARARE
- apprendimento
- meno
- Lasciare
- lasciare
- Consente di
- biblioteche
- Biblioteca
- piace
- Lista
- vita
- caricare
- locale
- località
- logica
- Lunghi
- Basso
- inferiore
- macchina
- machine learning
- fatto
- Principale
- principalmente
- make
- Fare
- direttore
- obbligatorio
- modo
- molti
- segnato
- mask
- partita
- massimo
- si intende
- Memorie
- ML
- Moda
- modello
- modelli
- modificare
- Scopri di più
- motivato
- molti
- Endpoint multimodello
- multiplo
- devono obbligatoriamente:
- Nome
- il
- Parco Nazionale
- necessaria
- Bisogno
- di applicazione
- negativo.
- New
- New York
- notte
- Rumore
- taccuino
- Avviso..
- romanzo
- numero
- numpy
- Nvidia
- NYC
- oggetto
- oggetti
- osservare
- of
- Olio
- on
- ONE
- quelli
- esclusivamente
- open source
- ottimizzazione
- ottimizzazione
- Opzione
- Opzioni
- or
- i
- Altro
- nostro
- su
- delineato
- produzione
- ancora
- proprio
- pacchetto
- confezionati
- pittura
- parametro
- parametri
- Parco
- parte
- Ricambi
- passare
- Di passaggio
- appassionato
- sentiero
- Personalizzata
- fotografia
- fotorealistico
- conduttura
- pixel
- posto
- Piattaforme
- Platone
- Platone Data Intelligence
- PlatoneDati
- punto
- pool
- porzione
- ritratto
- Post
- potenziale
- Pratico
- pratiche
- predizione
- Previsioni
- Problema
- processi
- Elaborato
- i processi
- Prodotto
- product manager
- progetti
- proprietà
- proponente
- fornire
- purché
- fornitura
- pubblicato
- Python
- pytorch
- qualità
- Lettura
- tempo reale
- realistico
- raccomandare
- regioni
- relazionato
- rimanere
- resti
- rimuovere
- rimozione
- sostituito
- deposito
- rappresentare
- rappresenta
- richiesta
- richieste
- necessario
- richiede
- Risoluzione
- risorsa
- risposta
- risposte
- responsabilità
- restauro
- Risultati
- ritorno
- Aumento
- Roccia
- Prenotazione sale
- Correre
- running
- sagemaker
- Inferenza di SageMaker
- stesso
- dire
- scalabile
- Scala
- scala
- fantascienza
- secondo
- Sezione
- vedere
- segmenti
- AUTO
- semantica
- inviare
- anziano
- inviato
- Serie
- servire
- servizio
- Servizi
- servizio
- set
- regolazione
- alcuni
- Forma
- condiviso
- tiro
- dovrebbero
- mostrare attraverso le sue creazioni
- Spettacoli
- Simon
- Un'espansione
- semplicemente
- singolo
- Taglia
- Cielo
- So
- soluzione
- Soluzioni
- lo spazio
- Spagna
- specialista
- specifico
- specificazione
- Specifiche tecniche
- specificato
- velocità
- velocità
- Spendere
- Stabilità
- stabile
- inizia a
- iniziato
- Di partenza
- Stato dei servizi
- step
- Passi
- conservazione
- Tornare al suo account
- memorizzati
- Strategia
- forza
- Corda
- La struttura
- style
- di successo
- tale
- supporti
- sintassi
- tavolo
- prende
- Task
- TechCrunch
- tecniche
- Tecnologie
- che
- Il
- loro
- Li
- poi
- Là.
- perciò
- Strumenti Bowman per analizzare le seguenti finiture:
- questo
- anche se?
- migliaia
- tre
- Attraverso
- tempo
- a
- token
- top
- torcia
- allenato
- Training
- Trasformare
- trasformato
- trasformatori
- Di viaggio
- albero
- trend
- tritone
- vero
- seconda
- Digitare
- Tipi di
- tipicamente
- Ultra
- sottostante
- capire
- Irreale
- Unreal Engine
- Unreal Engine 5
- non desiderato
- caricato
- Caricamento
- us
- Impiego
- uso
- utilizzato
- Utente
- Esperienza da Utente
- utilizzando
- generalmente
- APPREZZIAMO
- Valori
- vario
- versatile
- versione
- Video
- video games
- Virginia
- aspettare
- volere
- Prima
- Modo..
- we
- sito web
- servizi web
- Che
- quando
- ogni volta che
- quale
- while
- bianca
- di chi
- volere
- finestre
- con
- entro
- Word
- Lavora
- lavoro
- sarebbe
- avvolgere
- scritto
- X
- York
- Tu
- Trasferimento da aeroporto a Sharm
- zefiro
- zone