Na era do big data e da IA, as empresas procuram continuamente formas de utilizar estas tecnologias para obter uma vantagem competitiva. Uma das áreas mais quentes da IA no momento é a IA generativa, e por um bom motivo. A IA generativa oferece soluções poderosas que ultrapassam os limites do que é possível em termos de criatividade e inovação. No centro dessas soluções de ponta está um modelo básico (FM), um modelo de aprendizado de máquina altamente avançado que é pré-treinado em grandes quantidades de dados. Muitos desses modelos básicos demonstraram capacidade notável na compreensão e geração de texto semelhante ao humano, tornando-os uma ferramenta valiosa para uma variedade de aplicações, desde a criação de conteúdo até a automação do suporte ao cliente.
No entanto, estes modelos não estão isentos de desafios. Eles são excepcionalmente grandes e requerem grandes quantidades de dados e recursos computacionais para serem treinados. Além disso, otimizar o processo de treinamento e calibrar os parâmetros pode ser um processo complexo e iterativo, exigindo experiência e experimentação cuidadosa. Estas podem ser barreiras para muitas organizações que procuram construir os seus próprios modelos de base. Para superar este desafio, muitos clientes estão considerando ajustar os modelos de fundação existentes. Esta é uma técnica popular para ajustar uma pequena porção dos parâmetros do modelo para aplicações específicas, preservando ao mesmo tempo o conhecimento já codificado no modelo. Ele permite que as organizações usem o poder desses modelos e, ao mesmo tempo, reduzam os recursos necessários para personalizar um domínio ou tarefa específica.
Existem duas abordagens principais para o ajuste fino de modelos básicos: o ajuste fino tradicional e o ajuste fino com eficiência de parâmetros. O ajuste fino tradicional envolve a atualização de todos os parâmetros do modelo pré-treinado para uma tarefa downstream específica. Por outro lado, o ajuste fino com eficiência de parâmetros inclui uma variedade de técnicas que permitem a customização de um modelo sem atualizar todos os parâmetros do modelo original. Uma dessas técnicas é chamada de Adaptação de Classificação Baixa (LoRA). Envolve adicionar pequenos módulos específicos de tarefas ao modelo pré-treinado e treiná-los enquanto mantém o restante dos parâmetros fixos, conforme mostrado na imagem a seguir.
Fonte: IA generativa na AWS (O'Reilly, 2023)
LoRA ganhou popularidade recentemente por vários motivos. Ele oferece treinamento mais rápido, requisitos reduzidos de memória e a capacidade de reutilizar modelos pré-treinados para diversas tarefas posteriores. Mais importante ainda, o modelo básico e o adaptador podem ser armazenados separadamente e combinados a qualquer momento, facilitando o armazenamento, distribuição e compartilhamento de versões ajustadas. No entanto, isto introduz um novo desafio: como gerir adequadamente estes novos tipos de modelos ajustados. Você deve combinar o modelo básico e o adaptador ou mantê-los separados? Nesta postagem, abordamos as práticas recomendadas para gerenciar modelos LoRA ajustados em Amazon Sage Maker para responder a esta questão emergente.
Trabalhando com FMs no SageMaker Model Registry
Nesta postagem, examinamos um exemplo completo de ajuste fino do modelo de linguagem grande (LLM) Llama2 usando o método QLoRA. QLoRA combina os benefícios do ajuste fino eficiente de parâmetros com quantização de 4/8 bits para reduzir ainda mais os recursos necessários para ajustar um FM para uma tarefa ou caso de uso específico. Para isso, usaremos o modelo Llama7 pré-treinado de 2 bilhões de parâmetros e o ajustaremos no conjunto de dados databricks-dolly-15k. LLMs como o Llama2 têm bilhões de parâmetros e são pré-treinados em grandes conjuntos de dados de texto. O ajuste fino adapta um LLM a uma tarefa posterior usando um conjunto de dados menor. No entanto, o ajuste fino de modelos grandes é computacionalmente caro. É por isso que usaremos o método QLoRA para quantizar os pesos durante o ajuste fino para reduzir esse custo de cálculo.
Em nossos exemplos, você encontrará dois cadernos (llm-finetune-combined-with-registry.ipynb
e llm-finetune-separate-with-registry.ipynb
). Cada um funciona de uma maneira diferente para lidar com modelos ajustados de LoRA, conforme ilustrado no diagrama a seguir:
- Primeiro, baixamos o modelo Llama2 pré-treinado com 7 bilhões de parâmetros usando SageMaker Studio Notebooks. LLMs, como Llama2, mostraram desempenho de última geração em tarefas de processamento de linguagem natural (PNL) quando ajustados em dados específicos de domínio.
- Em seguida, ajustamos o Llama2 no conjunto de dados databricks-dolly-15k usando o método QLoRA. QLoRA reduz o custo computacional de ajuste fino ao quantizar os pesos dos modelos.
- Durante o ajuste fino, integramos o SageMaker Experiments Plus com a API Transformers para registrar automaticamente métricas como gradiente, perda, etc.
- Em seguida, versionamos o modelo Llama2 ajustado no SageMaker Model Registry usando duas abordagens:
- Armazenando o modelo completo
- Armazenar o adaptador e o modelo básico separadamente.
- Por fim, hospedamos os modelos Llama2 ajustados usando Deep Java Library (DJL) servindo em um endpoint SageMaker em tempo real.
Nas seções a seguir, nos aprofundaremos em cada uma dessas etapas para demonstrar a flexibilidade do SageMaker para diferentes fluxos de trabalho LLM e como esses recursos podem ajudar a melhorar as operações de seus modelos.
Pré-requisitos
Conclua os pré-requisitos a seguir para começar a experimentar o código.
- Crie uma Domínio SageMaker Studio: O Amazon SageMaker Studio, especificamente Studio Notebooks, é usado para iniciar a tarefa de ajuste fino do Llama2 e, em seguida, registrar e visualizar modelos dentro Registro de modelo do SageMaker. Experimentos SageMaker também é usado para visualizar e comparar logs de trabalho de ajuste fino do Llama2 (perda de treinamento/perda de teste/etc.).
- Crie um bucket do Amazon Simple Storage Service (S3): É necessário acesso a um bucket S3 para armazenar artefatos de treinamento e pesos de modelo. Para obter instruções, consulte Criação de um balde. O código de exemplo usado para esta postagem usará o bucket S3 padrão do SageMaker, mas você pode personalizá-lo para usar qualquer bucket S3 relevante.
- Configurar coleções de modelos (permissões IAM): atualize sua função de execução do SageMaker com permissões para grupos de recursos, conforme listado em Guia do desenvolvedor de coleções de registro de modelo para implementar o agrupamento do Model Registry usando Model Collections.
- Aceite os Termos e Condições do Llama2: você precisará aceitar o contrato de licença do usuário final e a política de uso aceitável para usar o modelo básico do Llama2.
Os exemplos estão disponíveis no Repositório GitHub. Os arquivos de notebook são testados usando notebooks Studio em execução no kernel PyTorch 2.0.0 Python 3.10 otimizado para GPU e tipo de instância ml.g4dn.xlarge.
Experimentos mais integração de retorno de chamada
Experimentos Amazon SageMaker permite organizar, rastrear, comparar e avaliar experimentos de aprendizado de máquina (ML) e versões de modelo de qualquer ambiente de desenvolvimento integrado (IDE), incluindo Jupyter Notebooks locais, usando o SageMaker Python SDK ou boto3. Ele fornece a flexibilidade para registrar métricas, parâmetros, arquivos, artefatos do seu modelo, traçar gráficos de diferentes métricas, capturar vários metadados, pesquisá-los e oferecer suporte à reprodutibilidade do modelo. Os cientistas de dados podem comparar rapidamente o desempenho e os hiperparâmetros para avaliação do modelo por meio de gráficos e tabelas visuais. Eles também podem usar Experimentos SageMaker para baixar os gráficos criados e compartilhar a avaliação do modelo com suas partes interessadas.
O treinamento de LLMs pode ser um processo lento, caro e iterativo. É muito importante que o usuário acompanhe a experimentação do LLM em escala para evitar uma experiência inconsistente de ajuste de modelo. APIs do transformador HuggingFace permitir que os usuários rastreiem métricas durante tarefas de treinamento por meio de Retornos de chamada. Retornos de chamada são pedaços de código “somente leitura” que podem personalizar o comportamento do loop de treinamento no PyTorch Trainer que pode inspecionar o estado do loop de treinamento para relatórios de progresso, login no TensorBoard ou SageMaker Experiments Plus por meio de lógica personalizada (que está incluída como parte desta base de código).
Você pode importar o código de retorno de chamada do SageMaker Experiments incluído no repositório de código desta postagem, conforme mostrado no seguinte bloco de código:
Este retorno de chamada registrará automaticamente as seguintes informações no SageMaker Experiments como parte da execução de treinamento:
- Parâmetros de treinamento e hiperparâmetros
- Perda de treinamento e validação do modelo na etapa, época e final
- Artefatos de entrada e saída do modelo (conjunto de dados de treinamento, conjunto de dados de validação, local de saída do modelo, depurador de treinamento e muito mais)
O gráfico a seguir mostra exemplos de gráficos que você pode exibir usando essas informações.
Isso permite comparar facilmente várias execuções usando o recurso Analisar do SageMaker Experiments. Você pode selecionar as execuções experimentais que deseja comparar e elas preencherão automaticamente os gráficos de comparação.
Registre modelos ajustados em Coleções de Registro de Modelos
Coleções de Registro de Modelo é uma característica de Registro de modelo do SageMaker que permite agrupar modelos registrados relacionados entre si e organizá-los em hierarquias para melhorar a descoberta do modelo em escala. Usaremos coleções de registro de modelo para acompanhar o modelo básico e as variantes ajustadas.
Método de cópia completa do modelo
O primeiro método combina o modelo básico e o adaptador LoRA e salva o modelo completo ajustado. O código a seguir ilustra o processo de mesclagem de modelos e salva o modelo combinado usando model.save_pretrained()
.
Combinar o adaptador LoRA e o modelo básico em um único artefato de modelo após o ajuste fino tem vantagens e desvantagens. O modelo combinado é independente e pode ser gerenciado e implantado de forma independente, sem a necessidade do modelo base original. O modelo pode ser rastreado como sua própria entidade com um nome de versão refletindo o modelo base e os dados de ajuste fino. Podemos adotar uma nomenclatura usando o base_model_name
+ ajustado dataset_name
para organizar os grupos de modelos. Opcionalmente, as coleções de modelos poderiam associar os modelos originais e ajustados, mas isso pode não ser necessário, uma vez que o modelo combinado é independente. O trecho de código a seguir mostra como registrar o modelo ajustado.
Você pode usar o estimador de treinamento para registrar o modelo no Model Registry.
No Model Registry, você pode recuperar o pacote do modelo e implantar esse modelo diretamente.
No entanto, existem desvantagens nesta abordagem. A combinação dos modelos leva à ineficiência e redundância de armazenamento, uma vez que o modelo básico é duplicado em cada versão ajustada. À medida que o tamanho do modelo e o número de modelos ajustados aumentam, isso aumenta exponencialmente as necessidades de armazenamento. Tomando o modelo llama2 7b como exemplo, o modelo básico tem aproximadamente 13 GB e o modelo ajustado tem 13.6 GB. 96% do modelo precisa ser duplicado após cada ajuste fino. Além disso, a distribuição e o compartilhamento de arquivos de modelo muito grandes também se tornam mais difíceis e apresentam desafios operacionais à medida que a transferência de arquivos e os custos de gerenciamento aumentam com o aumento do tamanho do modelo e dos trabalhos de ajuste fino.
Adaptador separado e método base
O segundo método concentra-se na separação dos pesos base e dos adaptadores, salvando-os como componentes de modelo separados e carregando-os sequencialmente em tempo de execução.
Salvar os pesos da base e do adaptador tem vantagens e desvantagens, semelhantes ao método Full Model Copy. Uma vantagem é que pode economizar espaço de armazenamento. Os pesos básicos, que são o maior componente de um modelo ajustado, são salvos apenas uma vez e podem ser reutilizados com outros pesos adaptadores ajustados para diferentes tarefas. Por exemplo, o peso base do Llama2-7B é de cerca de 13 GB, mas cada tarefa de ajuste fino precisa armazenar apenas cerca de 0.6 GB de peso do adaptador, o que representa uma economia de espaço de 95%. Outra vantagem é que os pesos base podem ser gerenciados separadamente dos pesos do adaptador usando um registro de modelo somente de pesos base. Isso pode ser útil para domínios SageMaker que estão sendo executados em modo somente VPC sem um gateway de Internet, uma vez que os pesos base podem ser acessados sem a necessidade de passar pela Internet.
Criar grupo de pacotes de modelo para pesos base
Criar grupo de pacotes de modelo para pesos QLoRA
O código a seguir mostra como marcar pesos QLoRA com o tipo de conjunto de dados/tarefa e registrar pesos delta ajustados em um registro de modelo separado e rastrear os pesos delta separadamente.
O trecho a seguir mostra uma visualização do Registro de Modelo onde os modelos são divididos em pesos básicos e ajustados.
O gerenciamento de modelos, conjuntos de dados e tarefas para LLMs hiperpersonalizados pode rapidamente se tornar uma tarefa árdua. Coleções de registro de modelo SageMaker pode ajudá-lo a agrupar modelos relacionados e organizá-los em uma hierarquia para melhorar a descoberta do modelo. Isso facilita o rastreamento dos relacionamentos entre pesos base, pesos do adaptador e conjuntos de dados de tarefas de ajuste fino. Você também pode criar relacionamentos e ligações complexas entre modelos.
Crie uma nova coleção e adicione os pesos do seu modelo base a esta coleção
Vincule todos os pesos delta do seu adaptador LoRA ajustado a esta coleção por tarefa e/ou conjunto de dados
Isso resultará em uma hierarquia de coleção vinculada por tipo de modelo/tarefa e pelo conjunto de dados usado para ajustar o modelo base.
Este método de separar os modelos base e adaptador tem algumas desvantagens. Uma desvantagem é a complexidade na implantação do modelo. Como existem dois artefatos de modelo separados, são necessárias etapas adicionais para reempacotar o modelo em vez de implantar diretamente do Registro de Modelo. No exemplo de código a seguir, baixe e recompacte primeiro a versão mais recente do modelo base.
Em seguida, baixe e reembale os pesos do adaptador LoRA mais recentes e ajustados.
Como você usará DJL servindo com deepspeed para hospedar o modelo, seu diretório de inferência deve ser semelhante ao seguinte.
Por fim, empacote o código de inferência personalizado, o modelo base e o adaptador LoRA em um único arquivo .tar.gz para implantação.
limpar
Limpe seus recursos seguindo as instruções na seção de limpeza do notebook. Referir-se Preços do Amazon SageMaker para obter detalhes sobre o custo das instâncias de inferência.
Conclusão
Esta postagem orientou você nas práticas recomendadas para gerenciar modelos LoRA ajustados no Amazon SageMaker. Abordamos dois métodos principais: combinar os pesos da base e do adaptador em um modelo independente e separar os pesos da base e do adaptador. Ambas as abordagens têm vantagens e desvantagens, mas a separação dos pesos ajuda a otimizar o armazenamento e permite técnicas avançadas de gerenciamento de modelos, como SageMaker Model Registry Collections. Isso permite construir hierarquias e relacionamentos entre modelos para melhorar a organização e a descoberta. Recomendamos que você experimente o código de exemplo em Repositório GitHub experimentar você mesmo esses métodos. À medida que a IA generativa progride rapidamente, seguir as práticas recomendadas de gerenciamento de modelos ajudará você a rastrear experimentos, encontrar o modelo certo para sua tarefa e gerenciar LLMs especializados com eficiência e escala.
Referências
Sobre os autores
James Wu é arquiteto de soluções especialista em IA/ML sênior na AWS. ajudando os clientes a projetar e criar soluções de IA/ML. O trabalho de James abrange uma ampla variedade de casos de uso de ML, com interesse principal em visão computacional, aprendizado profundo e dimensionamento de ML em toda a empresa. Antes de ingressar na AWS, James foi arquiteto, desenvolvedor e líder de tecnologia por mais de 10 anos, incluindo 6 anos em engenharia e 4 anos nos setores de marketing e publicidade.
Pranav Murthy é arquiteto de soluções especialista em IA/ML na AWS. Ele se concentra em ajudar os clientes a criar, treinar, implantar e migrar cargas de trabalho de aprendizado de máquina (ML) para o SageMaker. Anteriormente, ele trabalhou na indústria de semicondutores desenvolvendo grandes modelos de visão computacional (CV) e processamento de linguagem natural (PNL) para melhorar processos de semicondutores. Nas horas vagas, gosta de jogar xadrez e viajar.
Mecit Gungor é um arquiteto de soluções AI/ML Specialist na AWS que ajuda os clientes a projetar e criar soluções de AI/ML em escala. Ele cobre uma ampla gama de casos de uso de IA/ML para clientes de telecomunicações e atualmente se concentra em IA generativa, LLMs e otimização de treinamento e inferência. Muitas vezes, ele pode ser encontrado caminhando no deserto ou jogando jogos de tabuleiro com seus amigos em seu tempo livre.
Shelbee Eigenbrode é arquiteto principal de soluções de inteligência artificial e machine learning na Amazon Web Services (AWS). Ela está na área de tecnologia há 24 anos, abrangendo vários setores, tecnologias e funções. Atualmente, ela está se concentrando em combinar seu histórico de DevOps e ML no domínio de MLOps para ajudar os clientes a fornecer e gerenciar cargas de trabalho de ML em escala. Com mais de 35 patentes concedidas em vários domínios de tecnologia, ela tem paixão pela inovação contínua e pelo uso de dados para gerar resultados de negócios. Shelbee é co-criadora e instrutora da especialização Practical Data Science no Coursera. Ela também é co-diretora da Women In Big Data (WiBD), capítulo de Denver. Em seu tempo livre, ela gosta de passar tempo com sua família, amigos e cães hiperativos.
- Conteúdo com tecnologia de SEO e distribuição de relações públicas. Seja amplificado hoje.
- PlatoData.Network Gerativa Vertical Ai. Capacite-se. Acesse aqui.
- PlatoAiStream. Inteligência Web3. Conhecimento Amplificado. Acesse aqui.
- PlatãoESG. Carbono Tecnologia Limpa, Energia, Ambiente, Solar, Gestão de resíduos. Acesse aqui.
- PlatoHealth. Inteligência em Biotecnologia e Ensaios Clínicos. Acesse aqui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :tem
- :é
- :não
- :onde
- $UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- habilidade
- Sobre
- ACEITAR
- aceitável
- Acesso
- acessadas
- em
- adaptação
- adapta
- adicionar
- acrescentando
- Adicional
- Adicionalmente
- endereço
- adotar
- avançado
- Vantagem
- vantagens
- Publicidade
- Depois de
- Acordo
- AI
- AI certo
- AI / ML
- Todos os Produtos
- permitir
- permite
- já
- tb
- Amazon
- Amazon Sage Maker
- Estúdio Amazon SageMaker
- Serviço de armazenamento simples da Amazon (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- quantidades
- an
- analisar
- e
- Outro
- qualquer
- api
- aplicações
- abordagem
- se aproxima
- aprovou
- aproximadamente
- SOMOS
- áreas
- AS
- Jurídico
- At
- automaticamente
- Automação
- disponível
- AWS
- em caminho duplo
- fundo
- barreiras
- base
- BE
- Porque
- tornam-se
- torna-se
- sido
- comportamento
- Benefícios
- MELHOR
- melhores práticas
- entre
- Grande
- Big Data
- bilhão
- bilhões
- Bloquear
- borda
- Board Games
- ambos
- limites
- construir
- negócio
- mas a
- by
- retornos de chamada
- chamado
- CAN
- capacidade
- capturar
- cuidadoso
- casas
- casos
- desafiar
- desafios
- Capítulo
- charts
- xadrez
- classe
- remover filtragem
- código
- Codebase
- coleção
- coleções
- combinar
- combinado
- combina
- combinando
- Empresas
- comparar
- comparação
- competitivo
- integrações
- complexidade
- componente
- componentes
- computação
- computacional
- computador
- Visão de Computador
- condições
- considerando
- conteúdo
- Criação de conteúdo
- continuamente
- contínuo
- núcleo
- Custo
- poderia
- coberto
- Covers
- crio
- criado
- criação
- criatividade
- Atualmente
- personalizadas
- cliente
- Suporte ao cliente
- Clientes
- personalização
- personalizar
- ponta
- dados,
- ciência de dados
- conjuntos de dados
- profundo
- deep learning
- mais profunda
- Padrão
- De
- entregar
- Delta
- demonstrar
- Denver
- implantar
- implantado
- Implantação
- desenvolvimento
- Design
- detalhes
- Developer
- em desenvolvimento
- Desenvolvimento
- diferente
- difícil
- diretamente
- Ecrã
- distribuir
- distribuindo
- mergulho
- domínio
- domínios
- download
- desvantagens
- distância
- durante
- cada
- mais fácil
- facilmente
- borda
- eficiente
- eficientemente
- outro
- emergente
- permite
- encorajar
- end-to-end
- Ponto final
- Engenharia
- Empreendimento
- entidade
- Meio Ambiente
- época
- Era
- etc.
- avaliar
- avaliação
- exemplo
- exemplos
- excepcionalmente
- execução
- existente
- caro
- vasta experiência
- experimentar
- experimentos
- experiência
- exponencialmente
- Rosto
- Falha
- família
- mais rápido
- Característica
- Funcionalidades
- Envie o
- Arquivos
- Encontre
- final
- Primeiro nome
- fixado
- Flexibilidade
- concentra-se
- focando
- seguinte
- Escolha
- encontrado
- Foundation
- Gratuito
- amigos
- da
- cheio
- função
- mais distante
- futuro
- Ganho
- ganhou
- Games
- porta de entrada
- gerando
- generativo
- IA generativa
- Go
- vai
- Bom estado, com sinais de uso
- GPU
- concedido
- gráfico
- gráficos
- Grupo
- Do grupo
- mão
- manipular
- Ter
- ter
- he
- ajudar
- ajuda
- ajuda
- sua experiência
- hierarquia
- altamente
- sua
- hospedeiro
- mais quente
- Como funciona o dobrador de carta de canal
- Como Negociar
- Contudo
- HTML
- HTTPS
- Abraçando o Rosto
- ilustra
- imagem
- executar
- implementação
- importar
- importante
- importante
- importações
- melhorar
- in
- incluído
- inclui
- Incluindo
- Crescimento
- Aumenta
- aumentando
- de treinadores em Entrevista Motivacional
- independentemente
- indústrias
- indústria
- ineficiência
- infla
- INFORMAÇÕES
- Inovação
- entrada
- instância
- em vez disso
- instruções
- integrar
- integrado
- interesse
- Internet
- para dentro
- Introduz
- IT
- ESTÁ
- james
- Java
- Trabalho
- Empregos
- juntando
- jpg
- Guarda
- manutenção
- Chave
- chutar
- Conhecimento
- língua
- grande
- maior
- mais recente
- líder
- Leads
- aprendizagem
- Permite
- Nível
- Biblioteca
- Licença
- encontra-se
- como
- gostos
- LINK
- ligado
- Listado
- LLM
- carregar
- carregamento
- local
- localização
- log
- logging
- lógica
- olhar
- parece
- procurando
- fora
- máquina
- aprendizado de máquina
- a Principal
- FAZ
- Fazendo
- gerencia
- gerenciados
- de grupos
- gestão
- muitos
- Marketing
- Marketing e publicidade
- maciço
- Posso..
- Memória
- ir
- fusão
- metadados
- método
- métodos
- Métrica
- migrado
- ML
- MLOps
- Moda
- modelo
- modelos
- Módulos
- mais
- múltiplo
- nome
- natural
- Processamento de linguagem natural
- necessário
- você merece...
- necessitando
- Cria
- Novo
- PNL
- caderno
- agora
- número
- of
- WOW!
- Oferece
- frequentemente
- on
- uma vez
- ONE
- só
- operacional
- Operações
- otimização
- Otimize
- otimizado
- otimizando
- or
- organização
- organizações
- original
- Outros
- A Nossa
- resultados
- saída
- Acima de
- Superar
- esmagador
- próprio
- pacote
- parâmetro
- parâmetros
- parte
- paixão
- Patentes
- caminho
- por cento
- atuação
- permissões
- peças
- platão
- Inteligência de Dados Platão
- PlatãoData
- jogar
- mais
- Privacidade
- Popular
- popularidade
- parte
- possível
- Publique
- poder
- poderoso
- Prática
- práticas
- pré-requisitos
- presentes
- preservando
- evitar
- anteriormente
- primário
- Diretor
- Prévio
- processo
- processos
- em processamento
- Progresso
- devidamente
- Propriedades
- fornece
- Empurrar
- Python
- pytorch
- questão
- rapidamente
- alcance
- rapidamente
- em tempo real
- razão
- razões
- recentemente
- reduzir
- Reduzido
- reduz
- redução
- referir
- refletindo
- cadastre-se
- registrado
- registro
- relacionado
- Relacionamentos
- relevante
- notável
- Relatórios
- repositório
- requerer
- requeridos
- Requisitos
- Recursos
- DESCANSO
- resultar
- reutilizar
- certo
- Tipo
- papéis
- Execute
- corrida
- é executado
- tempo de execução
- sábio
- Salvar
- salvo
- poupança
- Poupança
- Escala
- dimensionamento
- Ciência
- cientistas
- Sdk
- Pesquisar
- Segundo
- Seção
- seções
- busca
- Semicondutor
- senior
- separado
- separando
- serviço
- Serviços
- de servir
- vários
- Partilhar
- compartilhando
- ela
- rede de apoio social
- mostrando
- Shows
- semelhante
- simples
- desde
- solteiro
- Tamanho
- lento
- pequeno
- menor
- fragmento
- solução
- Soluções
- alguns
- fonte
- Espaço
- abrangendo
- especialista
- especializado
- específico
- especificamente
- gastar
- divisão
- partes interessadas
- começo
- Estado
- estado-da-arte
- Status
- Passo
- Passos
- Ainda
- armazenamento
- loja
- armazenadas
- estudo
- tal
- ajuda
- TAG
- tomar
- Tarefa
- tarefas
- técnica
- técnicas
- Tecnologias
- Tecnologia
- telecomunicação
- condições
- testado
- texto
- que
- A
- deles
- Eles
- então
- Lá.
- Este
- deles
- isto
- Através da
- tempo
- para
- juntos
- ferramenta
- tocha
- pista
- tradicional
- Trem
- Training
- transferência
- transformador
- transformadores
- Viagens
- verdadeiro
- tentar
- afinação
- afinado
- sintonização
- dois
- tipo
- tipos
- para
- compreensão
- Atualizar
- atualização
- carregado
- URL
- usar
- caso de uso
- usava
- Utilizador
- usuários
- utilização
- validação
- Valioso
- valor
- variedade
- vário
- Grande
- versão
- versões
- muito
- via
- Ver
- visão
- visual
- andar
- caminhou
- queremos
- foi
- Caminho..
- maneiras
- we
- web
- serviços web
- quando
- qual
- enquanto
- porque
- Largo
- Ampla variedade
- precisarão
- de
- dentro
- sem
- Mulher
- Atividades:
- trabalhou
- fluxos de trabalho
- trabalho
- anos
- Vocês
- investimentos
- você mesmo
- zefirnet