PyTorch é uma estrutura de aprendizado de máquina (ML) amplamente usada por clientes da AWS para uma variedade de aplicativos, como visão computacional, processamento de linguagem natural, criação de conteúdo e muito mais. Com a versão recente do PyTorch 2.0, os clientes da AWS agora podem fazer as mesmas coisas que faziam com o PyTorch 1.x, mas mais rápido e em escala com velocidades de treinamento aprimoradas, menor uso de memória e recursos distribuídos aprimorados. Várias novas tecnologias, incluindo arch.compile, TorchDynamo, AOTAutograd, PrimTorch e TorchInductor, foram incluídas na versão PyTorch2.0. Referir-se PyTorch 2.0: Nosso lançamento de próxima geração que é mais rápido, mais Pythonic e dinâmico como sempre para obter detalhes.
Esta postagem demonstra o desempenho e a facilidade de executar treinamento e implantação de modelos de ML distribuídos de alto desempenho e grande escala usando o PyTorch 2.0 na AWS. Este post descreve ainda uma implementação passo a passo do ajuste fino de um modelo RoBERTa (Robustly Optimized BERT Pretraining Approach) para análise de sentimento usando AMIs de aprendizado profundo da AWS (AWS DLAMI) e Contêineres de aprendizado profundo da AWS (DLCs) em Amazon Elastic Compute Nuvem (Amazon EC2 p4d.24xlarge) com uma aceleração observada de 42% quando usado com PyTorch 2.0 arch.compile + bf16 + AdamW fundido. O modelo ajustado é então implantado em AWS Gravitoninstância C7g EC2 baseada em Amazon Sage Maker com uma aceleração observada de 10% em comparação com o PyTorch 1.13.
A figura a seguir mostra uma referência de desempenho de ajuste fino de um modelo RoBERTa no Amazon EC2 p4d.24xlarge com AWS PyTorch 2.0 DLAMI + DLC.
Consulte Inferência otimizada do PyTorch 2.0 com processadores AWS Graviton para obter detalhes sobre benchmarks de desempenho de inferência de instância baseados em AWS Graviton para PyTorch 2.0.
Suporte para PyTorch 2.0 na AWS
O suporte PyTorch2.0 não se limita aos serviços e computação mostrados no caso de uso de exemplo nesta postagem; ele se estende a muitos outros na AWS, que discutimos nesta seção.
Requisitos de negócio
Muitos clientes da AWS, em um conjunto diversificado de setores, estão transformando seus negócios usando inteligência artificial (IA), especificamente na área de IA generativa e modelos de linguagem grande (LLMs) projetados para gerar texto semelhante ao humano. Esses são basicamente grandes modelos baseados em técnicas de aprendizado profundo treinados com centenas de bilhões de parâmetros. O crescimento nos tamanhos dos modelos está aumentando o tempo de treinamento de dias para semanas e até meses em alguns casos. Isso está gerando um aumento exponencial nos custos de treinamento e inferência, o que requer, mais do que nunca, uma estrutura como o PyTorch 2.0 com suporte integrado de treinamento acelerado de modelos e a infraestrutura otimizada da AWS adaptada às cargas de trabalho específicas e às necessidades de desempenho.
Escolha de computação
A AWS fornece suporte ao PyTorch 2.0 na mais ampla escolha de computação poderosa, rede de alta velocidade e opções de armazenamento escalonável de alto desempenho que você pode usar para qualquer projeto ou aplicativo de ML e personalizar para atender aos seus requisitos de desempenho e orçamento. Isso se manifesta no diagrama da próxima seção; no nível inferior, oferecemos uma ampla seleção de instâncias de computação com base nos processadores AWS Graviton, Nvidia, AMD e Intel.
Para implantações de modelo, você pode usar processadores baseados em ARM, como a recém-anunciada instância baseada em Graviton da AWS, que fornece desempenho de inferência para PyTorch 2.0 com até 3.5 vezes mais velocidade para Resnet50 em comparação com a versão anterior do PyTorch e até 1.4 vezes mais velocidade para BERT, tornando as instâncias baseadas em Graviton da AWS as instâncias otimizadas para computação mais rápidas na AWS para soluções de inferência de modelo baseadas em CPU.
Escolha de serviços de ML
Para usar a computação da AWS, você pode selecionar entre um amplo conjunto de serviços globais baseados em nuvem para desenvolvimento de ML, computação e orquestração de fluxo de trabalho. Essa escolha permite que você se alinhe com suas estratégias de negócios e nuvem e execute trabalhos PyTorch 2.0 na plataforma de sua escolha. Por exemplo, se você tiver restrições locais ou investimentos existentes em produtos de código aberto, poderá usar o Amazon EC2, AWS ParallelClusterou AWS UltraCluster para executar cargas de trabalho de treinamento distribuídas com base em uma abordagem autogerenciada. Você também pode usar um serviço totalmente gerenciado como o SageMaker para uma infraestrutura de treinamento em escala de produção, totalmente gerenciada e com custo otimizado. O SageMaker também se integra a várias ferramentas MLOps, o que permite dimensionar a implantação de seu modelo, reduzir os custos de inferência, gerenciar modelos com mais eficiência na produção e reduzir a carga operacional.
Da mesma forma, se você tiver investimentos existentes no Kubernetes, também poderá usar Serviço Amazon Elastic Kubernetes (Amazon EKS) e Kubeflow na AWS para implementar um pipeline de ML para treinamento distribuído ou usar um serviço de orquestração de contêiner nativo da AWS, como Serviço Amazon Elastic Container (Amazon ECS) para treinamento e implantações de modelos. As opções para construir sua plataforma de ML não se limitam a esses serviços; você pode escolher dependendo de seus requisitos organizacionais para seus trabalhos PyTorch 2.0.
Habilitando o PyTorch 2.0 com AWS DLAMI e AWS DLC
Para usar a pilha de serviços da AWS mencionada acima e computação poderosa, você deve instalar uma versão compilada otimizada da estrutura PyTorch2.0 e suas dependências necessárias, muitas das quais são projetos independentes, e testá-las de ponta a ponta. Você também pode precisar de bibliotecas específicas de CPU para rotinas matemáticas aceleradas, bibliotecas específicas de GPU para matemática acelerada e rotinas de comunicação entre GPUs e drivers GPU que precisam ser alinhados com o compilador GPU usado para compilar as bibliotecas GPU. Se seus trabalhos exigem treinamento de vários nós em grande escala, você precisa de uma rede otimizada que possa fornecer a menor latência e a maior taxa de transferência. Depois de criar sua pilha, você precisa examiná-la e corrigi-la regularmente em busca de vulnerabilidades de segurança e reconstruir e testar novamente a pilha após cada atualização de versão do framework.
A AWS ajuda a reduzir esse trabalho pesado oferecendo um conjunto seguro e organizado de estruturas, dependências e ferramentas para acelerar o aprendizado profundo na nuvem. DLAMIs da AWS e DLCs da AWS. Esses contêineres e imagens de máquina pré-construídos e testados são otimizados para aprendizado profundo em tipos de instância de computação acelerada do EC2, permitindo escalar horizontalmente para vários nós para cargas de trabalho distribuídas com mais eficiência e facilidade. Inclui um pré-construído Adaptador de tecido elástico (EFA), pilha de GPU Nvidia e muitas estruturas de aprendizado profundo (TensorFlow, MXNet e PyTorch com a versão mais recente de 2.0) para treinamento de aprendizado profundo distribuído de alto desempenho. Você não precisa gastar tempo instalando e solucionando problemas de software e drivers de aprendizado profundo ou construindo infraestrutura de ML, nem precisa incorrer no custo recorrente de corrigir essas imagens para vulnerabilidades de segurança ou recriar as imagens após cada nova atualização de versão da estrutura. Em vez disso, você pode se concentrar no esforço de maior valor agregado de treinar trabalhos em escala em um período de tempo menor e iterar em seus modelos de ML mais rapidamente.
Visão geral da solução
Considerando que o treinamento em GPU e inferência em CPU é um caso de uso popular para clientes da AWS, incluímos como parte desta postagem uma implementação passo a passo de uma arquitetura híbrida (conforme mostrado no diagrama a seguir). Exploraremos a arte do possível e usaremos uma instância P4 EC2 com suporte BF16 inicializada com base GPU DLAMI incluindo drivers NVIDIA, CUDA, NCCL, pilha EFA e DLC PyTorch2.0 para ajustar um modelo de análise de sentimento RoBERTa que oferece controle e flexibilidade para usar qualquer biblioteca proprietária ou de código aberto. Em seguida, usamos o SageMaker para uma infraestrutura de hospedagem de modelo totalmente gerenciada para hospedar nosso modelo baseado em AWS Graviton3 instâncias C7g. Escolhemos o C7g no SageMaker porque comprovadamente reduz os custos de inferência em até 50% em relação a instâncias EC2 comparáveis para inferência em tempo real no SageMaker. O diagrama a seguir ilustra essa arquitetura.
O treinamento e a hospedagem do modelo neste caso de uso consistem nas seguintes etapas:
- Inicie uma instância Ubuntu do EC2 baseada em GPU DLAMI em sua VPC e conecte-se à sua instância usando SSH.
- Depois de fazer login em sua instância do EC2, faça download do AWS PyTorch 2.0 DLC.
- Execute seu contêiner DLC com um script de treinamento de modelo para ajustar o modelo RoBERTa.
- Após a conclusão do treinamento do modelo, empacote o modelo salvo, os scripts de inferência e alguns arquivos de metadados em um arquivo tar que a inferência do SageMaker possa usar e carregue o pacote do modelo em um Serviço de armazenamento simples da Amazon (Amazon S3).
- Implante o modelo usando o SageMaker e crie um endpoint de inferência HTTPS. O endpoint de inferência do SageMaker contém um balanceador de carga e uma ou mais instâncias de seu contêiner de inferência em diferentes zonas de disponibilidade. Você pode implantar várias versões do mesmo modelo ou modelos totalmente diferentes por trás desse único endpoint. Neste exemplo, hospedamos um único modelo.
- Invoque seu endpoint de modelo enviando dados de teste e verifique a saída de inferência.
Nas seções a seguir, mostramos o ajuste fino de um modelo RoBERTa para análise de sentimento. O RoBERTa é desenvolvido pelo Facebook AI, aprimorando o popular modelo BERT, modificando os principais hiperparâmetros e pré-treinando em um corpus maior. Isso leva a um desempenho aprimorado em comparação com o vanilla BERT.
Usamos o transformadores biblioteca por Hugging Face para obter o modelo RoBERTa pré-treinado em aproximadamente 124 milhões de tweets, e o ajustamos no conjunto de dados do Twitter para análise de sentimento.
Pré-requisitos
Certifique-se de atender aos seguintes pré-requisitos:
- Você tem uma Conta da AWS.
- Certifique-se de que você está no
us-west-2
Região para executar este exemplo. (Este exemplo é testado emus-west-2
; no entanto, você pode executar em qualquer outra região.) - Crie um papel com o nome
sagemakerrole
. Adicionar políticas gerenciadasAmazonSageMakerFullAccess
eAmazonS3FullAccess
para dar ao SageMaker acesso aos buckets do S3. - Criar uma função EC2 com o nome
ec2_role
. Use a seguinte política de permissão:
1. Inicie sua instância de desenvolvimento
Criamos uma instância p4d.24xlarge que oferece 8 GPUs NVIDIA A100 Tensor Core em us-west-2
:
Ao selecionar a AMI, siga as notas de lançamento para executar este comando usando o Interface de linha de comando da AWS (AWS CLI) para encontrar o ID da AMI para usar em us-west-2
:
Certifique-se de que o tamanho do volume raiz gp3 seja de 200 GiB.
A criptografia de volume do EBS não é habilitada por padrão. Considere alterar isso ao mover esta solução para produção.
2. Baixe um Contêiner de Deep Learning
Os DLCs da AWS estão disponíveis como imagens do Docker em Público do Amazon Elastic Container Registry, um serviço gerenciado de registro de imagem de contêiner da AWS que é seguro, escalável e confiável. Cada imagem do Docker é criada para treinamento ou inferência em uma versão específica da estrutura de aprendizado profundo, versão Python, com suporte para CPU ou GPU. Selecione a estrutura PyTorch 2.0 na lista de disponíveis Imagens de contêineres de aprendizado profundo.
Conclua as etapas a seguir para baixar seu DLC:
a. SSH para a instância. Por padrão, o grupo de segurança usado com o EC2 abre a porta SSH para todos. Considere isso se você estiver movendo esta solução para produção:
Por padrão, o security group usado com o Amazon EC2 abre a porta SSH para todos. Considere alterar isso se estiver movendo esta solução para produção.
b. Defina as variáveis de ambiente necessárias para executar as etapas restantes desta implementação:
O Amazon ECR oferece suporte a repositórios de imagens públicas com permissões baseadas em recursos usando Gerenciamento de acesso e identidade da AWS (IAM) para que usuários ou serviços específicos possam acessar imagens.
c. Faça login no registro do DLC:
d. Puxe o contêiner PyTorch 2.0 mais recente com suporte a GPU us-west-2
Se você receber o erro "sem espaço no dispositivo", certifique-se de aumentar o volume EC2 EBS para 200 GiB e então estender o sistema de arquivos Linux.
3. Clone os scripts mais recentes adaptados ao PyTorch 2.0
Clone os scripts com o seguinte código:
Como estamos usando a API de transformadores Hugging Face com a versão mais recente 4.28.1, ela já habilitou o suporte ao PyTorch 2.0. Adicionamos o seguinte argumento à API do treinador em train_sentiment.py
para ativar os novos recursos do PyTorch 2.0:
- Compilação da tocha – Experimente uma aceleração média de 43% nas GPUs Nvidia A100 com uma única linha de mudança.
- Tipo de dados BF16 – Novo suporte de tipo de dados (Brain Floating Point) para Ampere ou GPUs mais recentes.
- Otimizador AdamW fundido – Implementação fundida do AdamW para acelerar ainda mais o treinamento. Este método de otimização estocástica modifica a implementação típica de decaimento de peso em Adam ao desacoplar o decaimento de peso da atualização de gradiente.
4. Crie uma nova imagem do Docker com dependências
Estendemos a imagem DLC PyTorch 2.0 pré-construída para instalar o transformador Hugging Face e outras bibliotecas que precisamos para ajustar nosso modelo. Isso permite que você use as bibliotecas e configurações de aprendizado profundo testadas e otimizadas incluídas sem ter que criar uma imagem do zero. Veja o seguinte código:
5. Comece a treinar usando o recipiente
Execute o seguinte comando do Docker para começar a ajustar o modelo no tweet_eval
conjunto de dados de sentimento. Estamos usando os argumentos do contêiner do Docker (tamanho da memória compartilhada, memória máxima bloqueada e tamanho da pilha) recomendado pela Nvidia para cargas de trabalho de aprendizado profundo.
Você deve esperar a seguinte saída. O script primeiro baixa o conjunto de dados TweetEval, que consiste em sete tarefas heterogêneas no Twitter, todas enquadradas como classificação de tweets multiclasse. As tarefas incluem ironia, ódio, ofensiva, postura, emoji, emoção e sentimento.
O script baixa o modelo base e inicia o processo de ajuste fino. As métricas de treinamento e avaliação são reportadas ao final de cada época.
Estatísticas de desempenho
Com o PyTorch 2.0 e a mais recente biblioteca de transformadores Hugging Face 4.28.1, observamos uma aceleração de 42% em uma única instância p4d.24xlarge com 8 GPUs A100 de 40 GB. As melhorias de desempenho vêm de uma combinação de arch.compile, o tipo de dados BF16 e o otimizador AdamW fundido. O código a seguir é o resultado final de duas execuções de treinamento com e sem novos recursos:
6. Teste o modelo treinado localmente antes de se preparar para a inferência do SageMaker
Você pode encontrar os seguintes arquivos em $ml_working_dir/saved_model/
após o treinamento:
Vamos garantir que possamos executar a inferência localmente antes de nos prepararmos para a inferência do SageMaker. Podemos carregar o modelo salvo e executar a inferência localmente usando o test_trained_model.py
script:
Você deve esperar a seguinte saída com a entrada “Os casos de Covid estão aumentando rapidamente!”:
7. Prepare o tarball do modelo para inferência do SageMaker
No diretório onde o modelo está localizado, crie um novo diretório chamado code
:
No novo diretório, crie o arquivo inference.py
e adicione o seguinte a ele:
No final, você deve ter a seguinte estrutura de pastas:
O modelo está pronto para ser empacotado e carregado no Amazon S3 para uso com a inferência do SageMaker:
8. Implante o modelo em uma instância do SageMaker AWS Graviton
Novas gerações de CPUs oferecem uma melhoria significativa de desempenho na inferência de ML devido a instruções integradas especializadas. Neste caso de uso, usamos a infraestrutura de hospedagem totalmente gerenciada do SageMaker com instâncias C3g baseadas em AWS Graviton7. A AWS também mediu uma economia de custo de até 50% para inferência PyTorch com instâncias EC3 C2g baseadas em AWS Graviton7 em Torch Hub ResNet50 e vários modelos Hugging Face em relação a instâncias EC2 comparáveis.
Para implantar os modelos em instâncias AWS Graviton, usamos AWS DLCs que fornecem suporte para PyTorch 2.0 e TorchServe 0.8.0, ou você pode traga seus próprios recipientes compatíveis com a arquitetura ARMv8.2.
Usamos o modelo que treinamos anteriormente: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Se você nunca usou o SageMaker antes, revise Introdução ao Amazon SageMaker.
Para começar, verifique se o pacote SageMaker está atualizado:
Como este é um exemplo, crie um arquivo chamado start_endpoint.py
e adicione o seguinte código. Este será o script Python para iniciar um endpoint de inferência do SageMaker com o modo:
Estamos usando ml.c7g.4xlarge para a instância e recuperando PT 2.0 com um escopo de imagem inference_graviton
. Esta é a nossa instância AWS Graviton3.
Em seguida, criamos o arquivo que executa a previsão. Fazemos isso como scripts separados para que possamos executar as previsões quantas vezes quisermos. Criar predict.py
com o seguinte código:
Com os scripts gerados, agora podemos iniciar um endpoint, fazer previsões contra o endpoint e limpar quando terminarmos:
9. Limpar
Por último, queremos limpar deste exemplo. Crie cleanup.py e adicione o seguinte código:
Conclusão
AWS DLAMIs e DLCs se tornaram o padrão para execução de cargas de trabalho de aprendizado profundo em uma ampla seleção de serviços de computação e ML na AWS. Junto com o uso de DLCs específicos da estrutura nos serviços AWS ML, você também pode usar uma única estrutura no Amazon EC2, que remove o trabalho pesado necessário para os desenvolvedores criarem e manterem aplicativos de aprendizado profundo. Referir-se Notas de versão para DLAMI e Imagens de recipientes de aprendizagem profunda disponíveis para começar.
Esta postagem mostrou uma das muitas possibilidades de treinar e atender seu próximo modelo na AWS e discutiu vários formatos que você pode adotar para atender aos seus objetivos de negócios. Experimente este exemplo ou use nossos outros serviços AWS ML para expandir a produtividade de dados para sua empresa. Incluímos um problema simples de análise de sentimento para que os clientes novos no ML possam entender como é simples começar a usar o PyTorch 2.0 na AWS. Abordaremos casos de uso, modelos e tecnologias da AWS mais avançados nas próximas postagens do blog.
Sobre os autores
Kanwaljit Khurmi é Arquiteto Principal de Soluções da Amazon Web Services. Ele trabalha com os clientes da AWS para fornecer orientação e assistência técnica, ajudando-os a melhorar o valor de suas soluções ao usar a AWS. A Kanwaljit é especializada em ajudar os clientes com aplicativos de aprendizado de máquina e contêineres.
Mike Schneider é um desenvolvedor de sistemas, baseado em Phoenix AZ. Ele é membro de contêineres de Deep Learning, suportando várias imagens de contêineres do Framework, incluindo Graviton Inference. Ele é dedicado à eficiência e estabilidade da infraestrutura.
Lai Wei é engenheiro de software sênior da Amazon Web Services. Ele está se concentrando na construção de estruturas de aprendizagem profunda fáceis de usar, de alto desempenho e escaláveis para acelerar o treinamento de modelo distribuído. Fora do trabalho, ele gosta de passar o tempo com a família, fazer caminhadas e esquiar.
- Conteúdo com tecnologia de SEO e distribuição de relações públicas. Seja amplificado hoje.
- PlatoAiStream. Inteligência de Dados Web3. Conhecimento Amplificado. Acesse aqui.
- Cunhando o Futuro com Adryenn Ashley. Acesse aqui.
- Compre e venda ações em empresas PRE-IPO com PREIPO®. Acesse aqui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :tem
- :é
- :não
- :onde
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- acelerar
- acelerado
- acelerando
- ACEITAR
- Acesso
- em
- Açao Social
- Adam
- adicionar
- adicionado
- adotar
- avançado
- Depois de
- contra
- AI
- alinhar
- alinhado
- Todos os Produtos
- permitir
- Permitindo
- permite
- juntamente
- já
- tb
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- quantidade
- an
- análise
- analisar
- e
- anunciou
- Outro
- qualquer
- api
- Aplicação
- aplicações
- abordagem
- aproximadamente
- arquitetura
- SOMOS
- ÁREA
- argumento
- argumentos
- artificial
- inteligência artificial
- Inteligência artificial (AI)
- AS
- Assistência
- At
- disponibilidade
- disponível
- média
- AWS
- balanceador
- base
- baseado
- Basicamente
- BE
- Porque
- tornam-se
- sido
- antes
- começar
- atrás
- referência
- benchmarks
- Grande
- bilhões
- BIN
- Blog
- Posts do Blog
- corpo
- Inferior
- Cérebro
- amplo
- orçamento
- construir
- Prédio
- construído
- construídas em
- carga
- negócio
- negócios
- mas a
- by
- chamada
- chamado
- chamada
- CAN
- capacidades
- casas
- casos
- CD
- alterar
- mudança
- escolha
- Escolha
- classificação
- cliente
- Na nuvem
- código
- COM
- combinação
- vem
- Comunicação
- comparável
- comparado
- compatível
- completar
- Computar
- computador
- Visão de Computador
- computação
- Contato
- Considerar
- consiste
- cônsul
- Recipiente
- Containers
- conteúdo
- Criação de conteúdo
- ao controle
- núcleo
- Custo
- economia de custos
- custos
- poderia
- cobertura
- crio
- criado
- criação
- Credenciais
- comissariada
- Atual
- Clientes
- personalizar
- dados,
- Data
- dias
- dedicado
- profundo
- deep learning
- Padrão
- demonstra
- Dependendo
- implantar
- implantado
- desenvolvimento
- Implantações
- projetado
- detalhes
- desenvolvido
- Developer
- desenvolvedores
- Desenvolvimento
- diferente
- Digerir
- discutir
- discutido
- distribuído
- treinamento distribuído
- diferente
- do
- Estivador
- feito
- não
- download
- de downloads
- motorista
- Drivers
- condução
- dois
- dinâmico
- cada
- Mais cedo
- facilidade
- facilmente
- fácil
- efeito
- efetivamente
- eficiência
- eficientemente
- esforço
- ou
- permitir
- habilitado
- criptografia
- final
- Ponto final
- engenheiro
- aprimorada
- inteiramente
- Meio Ambiente
- época
- erro
- avaliar
- avaliação
- Mesmo
- SEMPRE
- Cada
- exemplo
- existente
- Expandir
- esperar
- vasta experiência
- explorar
- exponencial
- exportar
- estender
- se estende
- tecidos
- Rosto
- família
- mais rápido
- mais rápido
- Funcionalidades
- poucos
- Figura
- Envie o
- Arquivos
- final
- Encontre
- Primeiro nome
- caber
- Flexibilidade
- flutuante
- Foco
- focando
- seguir
- seguinte
- Escolha
- Quadro
- enquadramentos
- da
- totalmente
- mais distante
- gerar
- gerado
- geração
- Gerações
- generativo
- IA generativa
- ter
- Git
- GitHub
- OFERTE
- dá
- Global
- GPU
- GPUs
- Grupo
- Growth
- orientações
- Ter
- ter
- he
- pesado
- levantamento pesado
- ajuda
- ajuda
- alta performance
- superior
- mais
- sua
- detém
- hospedeiro
- hospedagem
- Como funciona o dobrador de carta de canal
- Contudo
- HTML
- http
- HTTPS
- Hub
- Centenas
- HÍBRIDO
- ID
- Identidade
- if
- ilustra
- imagem
- imagens
- executar
- implementação
- importar
- melhorar
- melhorado
- melhoria
- melhorias
- melhorar
- in
- incluir
- incluído
- inclui
- Incluindo
- Crescimento
- aumentando
- de treinadores em Entrevista Motivacional
- indústrias
- Infraestrutura
- entrada
- instalar
- instalado
- instalando
- instância
- em vez disso
- instruções
- Integra-se
- Intel
- Inteligência
- para dentro
- Investimentos
- IP
- ironia
- IT
- ESTÁ
- Empregos
- jpg
- json
- Chave
- O rótulo
- língua
- grande
- em grande escala
- Maior
- Latência
- mais recente
- Último lançamento
- lançamento
- Leads
- aprendizagem
- esquerda
- bibliotecas
- Biblioteca
- facelift
- como
- Limitado
- Line
- linux
- Lista
- carregar
- localmente
- localizado
- trancado
- log
- entrar
- fora
- diminuir
- menor
- máquina
- aprendizado de máquina
- a manter
- fazer
- Fazendo
- gerencia
- gerenciados
- muitos
- matemática
- max
- Posso..
- Conheça
- membro
- Memória
- mescla
- metadados
- método
- Métrica
- milhão
- ML
- MLOps
- Moda
- modelo
- modelos
- Módulos
- mês
- mais
- em movimento
- múltiplo
- nome
- natural
- Processamento de linguagem natural
- necessário
- você merece...
- necessário
- Cria
- negativo
- rede
- networking
- Neutro
- Novo
- Novos Recursos
- Novas tecnologias
- Próximo
- nós
- Notas
- Perceber..
- agora
- Nvidia
- objetivos
- of
- ofensivo
- oferecer
- oferecendo treinamento para distância
- Oferece
- on
- ONE
- open source
- abre
- operacional
- otimização
- otimizado
- Opções
- or
- orquestração
- organizacional
- OS
- Outros
- Outros
- A Nossa
- Fora
- saída
- lado de fora
- próprio
- pacote
- empacotado
- parâmetros
- parte
- Remendo
- Patching
- atuação
- permissão
- permissões
- Phoenix
- escolher
- escolhido
- oleoduto
- plataforma
- platão
- Inteligência de Dados Platão
- PlatãoData
- por favor
- ponto
- políticas
- Privacidade
- Popular
- possibilidades
- Publique
- POSTAGENS
- alimentado
- poderoso
- predizer
- predição
- Previsões
- Preparar
- preparação
- pré-requisitos
- anterior
- Diretor
- Problema
- processo
- em processamento
- processadores
- Produção
- produtividade
- Produtos
- projeto
- projetos
- proprietário
- comprovado
- fornecer
- fornece
- público
- colocar
- Python
- pytorch
- pronto
- recentemente
- recentemente
- recorrente
- reduzir
- região
- registro
- regularmente
- relativo
- liberar
- confiável
- remanescente
- Informou
- requerer
- requeridos
- Requisitos
- exige
- recurso
- resposta
- restrições
- resultar
- retorno
- rever
- Tipo
- raiz
- Execute
- corrida
- sábio
- Inferência do SageMaker
- mesmo
- Poupança
- escalável
- Escala
- digitalização
- scikit-learn
- escopo
- Ponto
- arranhar
- Scripts
- Seção
- seções
- seguro
- segurança
- Vejo
- selecionando
- doadores,
- envio
- senior
- sentimento
- separado
- servir
- serviço
- Serviços
- Sessão
- conjunto
- Configurações
- instalação
- Sete
- vários
- SHA256
- compartilhado
- rede de apoio social
- mostrar
- mostrou
- mostrando
- Shows
- periodo
- simples
- solteiro
- Tamanho
- tamanhos
- So
- Software
- Engenheiro de Software
- solução
- Soluções
- alguns
- Espaço
- especializado
- especializada
- específico
- especificamente
- velocidade
- velocidades
- gastar
- Passar
- Estabilidade
- pilha
- padrão
- começo
- começado
- começa
- Declaração
- estatística
- Passo
- Passos
- armazenamento
- opções de armazenamento
- estratégias
- estrutura
- tal
- ajuda
- Suportado
- Apoiar
- suportes
- .
- sistemas
- adaptados
- tarefas
- Dados Técnicos:
- técnicas
- Tecnologias
- fluxo tensor
- teste
- testado
- do que
- que
- A
- A área
- deles
- Eles
- então
- Este
- deles
- coisas
- isto
- Apesar?
- Através da
- Taxa de transferência
- camada
- tempo
- vezes
- para
- ferramentas
- tocha
- Trem
- treinado
- Training
- transformador
- transformadores
- transformando
- tentar
- Tweet
- os tweets
- dois
- tipo
- tipos
- típico
- Ubuntu
- para
- compreender
- os próximos
- Atualizar
- Atualizada
- atualização
- carregado
- Uso
- usar
- caso de uso
- usava
- usuários
- utilização
- utilidade
- valor
- variedade
- vário
- verificar
- versão
- visão
- volume
- vulnerabilidades
- queremos
- we
- web
- serviços web
- semanas
- peso
- boas-vindas
- quando
- qual
- largamente
- precisarão
- de
- sem
- Atividades:
- de gestão de documentos
- trabalho
- escrever
- escrita
- X
- Vocês
- investimentos
- zefirnet
- zonas