Hoje temos o prazer de anunciar que agora você pode realizar transformações em lote com JumpStart do Amazon SageMaker modelos de linguagem grande (LLMs) para Geração Text2Text. As transformações em lote são úteis em situações em que as respostas não precisam ser em tempo real e, portanto, você pode fazer inferência em lote para grandes conjuntos de dados em massa. Para a transformação em lote, é executado um trabalho em lote que usa a entrada em lote como um conjunto de dados e um modelo pré-treinado e gera previsões para cada ponto de dados no conjunto de dados. A transformação em lote é econômica porque, ao contrário dos endpoints hospedados em tempo real que possuem hardware persistente, os clusters de transformação em lote são desativados quando o trabalho é concluído e, portanto, o hardware é usado apenas durante o trabalho em lote.
Em alguns casos de uso, as solicitações de inferência em tempo real podem ser agrupadas em pequenos lotes para processamento em lote para criar respostas em tempo real ou quase em tempo real. Por exemplo, se você precisar processar um fluxo contínuo de dados com baixa latência e alta taxa de transferência, invocar um endpoint em tempo real para cada solicitação separadamente exigiria mais recursos e poderia levar mais tempo para processar todas as solicitações porque o processamento está sendo feito em série . Uma abordagem melhor seria agrupar algumas das solicitações e chamar o endpoint em tempo real no modo de inferência em lote, que processa suas solicitações em uma passagem direta do modelo e retorna a resposta em massa para a solicitação em tempo real ou quase em tempo real . A latência da resposta dependerá de quantas solicitações você agrupar e do tamanho da memória da instância, portanto, você pode ajustar o tamanho do lote de acordo com seus requisitos de negócios para latência e taxa de transferência. Nós chamamos isso inferência em lote em tempo real porque combina o conceito de lotes enquanto fornece respostas em tempo real. Com a inferência em lote em tempo real, você pode obter um equilíbrio entre baixa latência e alta taxa de transferência, permitindo processar grandes volumes de dados de maneira oportuna e eficiente.
A transformação em lote Jumpstart para modelos Text2Text Generation permite que você passe os hiperparâmetros em lote por meio de variáveis de ambiente que aumentam ainda mais a taxa de transferência e minimizam a latência.
O JumpStart fornece modelos de código aberto pré-treinados para uma ampla variedade de tipos de problemas para ajudá-lo a começar a usar o aprendizado de máquina (ML). Você pode treinar e ajustar gradualmente esses modelos antes da implantação. O JumpStart também fornece modelos de solução que configuram a infraestrutura para casos de uso comuns e notebooks de exemplo executáveis para ML com Amazon Sage Maker. Você pode acessar os modelos pré-treinados, modelos de solução e exemplos por meio da página inicial do JumpStart em Estúdio Amazon SageMaker. Você também pode acessar os modelos JumpStart usando o SageMaker Python SDK.
Neste post, demonstramos como usar o pré-treinado de última geração modelos text2text FLAN T5 de Hugging Face para transformação em lote e inferência em lote em tempo real.
Visão geral da solução
O notebook mostrando a transformação em lote de modelos Text2Text FLAN T5 pré-treinados de Abraçando o rosto disponível no seguinte Repositório GitHub. Este notebook usa dados do Hugging Face cnn_dailymail conjunto de dados para uma tarefa de resumo de texto usando o SageMaker SDK.
A seguir estão as principais etapas para implementar a transformação em lote e a inferência em lote em tempo real:
- Configure os pré-requisitos.
- Selecione um modelo pré-treinado.
- Recupere artefatos para o modelo.
- Especifique os hiperparâmetros da tarefa de transformação em lote.
- Prepare os dados para a transformação em lote.
- Execute a tarefa de transformação em lote.
- Avalie o resumo usando um ROUGE (Recall-Oriented Understudy for Gisting Evaluation).
- Realize inferência em lote em tempo real.
Pré-requisitos de configuração
Antes de executar o notebook, você deve concluir algumas etapas iniciais de configuração. Vamos configurar a função de execução do SageMaker para que ele tenha permissões para executar os serviços da AWS em seu nome:
Selecione um modelo pré-treinado
Usamos o modelo huggingface-text2text-flan-t5-large como modelo padrão. Opcionalmente, você pode recuperar a lista de modelos Text2Text disponíveis no JumpStart e escolher seu modelo preferido. Este método fornece uma maneira direta de selecionar diferentes IDs de modelo usando o mesmo notebook. Para fins de demonstração, usamos o modelo huggingface-text2text-flan-t5-large:
Recuperar artefatos para o modelo
Com o SageMaker, podemos realizar inferências no modelo pré-treinado, mesmo sem ajustá-lo primeiro em um novo conjunto de dados. Começamos recuperando o deploy_image_uri
, deploy_source_uri
e model_uri
para o modelo pré-treinado:
Especificar hiperparâmetros de tarefa de transformação em lote
Você pode passar qualquer subconjunto de hiperparâmetros como variáveis de ambiente para a tarefa de transformação em lote. Você também pode passar esses hiperparâmetros em uma carga JSON. No entanto, se você estiver definindo variáveis de ambiente para hiperparâmetros, como mostra o código a seguir, os hiperparâmetros avançados dos exemplos individuais na carga útil das linhas JSON não serão usados. Se você quiser usar hiperparâmetros da carga, você pode querer definir o hyper_params_dict
parâmetro como nulo em vez disso.
Preparar dados para transformação em lote
Agora estamos prontos para carregar o cnn_dailymail conjunto de dados de Hugging Face:
Examinamos cada entrada de dados e criamos os dados de entrada no formato necessário. Nós criamos um articles.jsonl
file como um arquivo de dados de teste contendo artigos que precisam ser resumidos como carga útil de entrada. À medida que criamos este arquivo, anexamos o prompt "Briefly summarize this text:"
para cada linha de entrada de teste. Se você quiser ter diferentes hiperparâmetros para cada entrada de teste, poderá anexar esses hiperparâmetros como parte da criação do conjunto de dados.
Nós criamos highlights.jsonl
como o arquivo de informações básicas contendo os destaques de cada artigo armazenado no arquivo de teste articles.jsonl
. Armazenamos os dois arquivos de teste em um Serviço de armazenamento simples da Amazon (Amazon S3). Veja o seguinte código:
Execute o trabalho de transformação em lote
Quando você inicia um trabalho de transformação em lote, o SageMaker inicia os recursos de computação necessários para processar os dados, incluindo instâncias de CPU ou GPU, dependendo do tipo de instância selecionado. Durante o trabalho de transformação em lote, o SageMaker provisiona e gerencia automaticamente os recursos de computação necessários para processar os dados, incluindo instâncias, armazenamento e recursos de rede. Quando o trabalho de transformação em lote é concluído, os recursos de computação são limpos automaticamente pelo SageMaker. Isso significa que as instâncias e o armazenamento usados durante o trabalho são interrompidos e removidos, liberando recursos e minimizando custos. Veja o seguinte código:
O seguinte é um registro de exemplo do articles.jsonl
arquivo de teste. Observe que o registro neste arquivo tem um ID que corresponde a predict.jsonl
registros de arquivo que mostram um registro resumido como saída do modelo Hugging Face Text2Text. Da mesma forma, o arquivo de informações básicas também possui um ID correspondente para o registro de dados. O ID correspondente no arquivo de teste, no arquivo de informações básicas e no arquivo de saída permite vincular registros de entrada com registros de saída para fácil interpretação dos resultados.
A seguir está o exemplo de registro de entrada fornecido para resumo:
A seguir está a saída prevista com resumo:
O seguinte é o resumo da verdade básica para fins de avaliação do modelo:
Em seguida, usamos a verdade básica e as saídas previstas para a avaliação do modelo.
Avalie o modelo usando uma pontuação ROUGE¶
ROUGE, ou Recall-Oriented Understudy for Gisting Evaluation, é um conjunto de métricas e um pacote de software usado para avaliar o resumo automático e a tradução automática no processamento de linguagem natural. As métricas comparam um resumo ou tradução produzido automaticamente com um resumo ou tradução de referência (produzida por humanos) ou um conjunto de referências.
No código a seguir, combinamos os resumos previsto e original juntando-os na chave comum id
e use isso para calcular a pontuação ROUGE:
Realize inferência em lote em tempo real
A seguir, mostramos como executar a inferência em lote em tempo real no endpoint, fornecendo as entradas como uma lista. Usamos o mesmo ID de modelo e conjunto de dados de antes, exceto que pegamos alguns registros do conjunto de dados de teste e os usamos para invocar um endpoint em tempo real.
O código a seguir mostra como criar e implantar um endpoint em tempo real para inferência em lote em tempo real:
Em seguida, preparamos nossa carga útil de entrada. Para isso, usamos os dados que preparamos anteriormente e extraímos as 10 primeiras entradas de teste e anexamos as entradas de texto com os hiperparâmetros que queremos usar. Nós fornecemos esta carga para o tempo real invoke_endpoint
. A carga útil da resposta é então retornada como uma lista de respostas. Veja o seguinte código:
limpar
Depois de testar o endpoint, certifique-se de excluir o endpoint de inferência do SageMaker e excluir o modelo para evitar cobranças.
Conclusão
Neste notebook, realizamos uma transformação em lote para mostrar o modelo Hugging Face Text2Text Generator para tarefas de resumo. A transformação em lote é vantajosa na obtenção de inferências de grandes conjuntos de dados sem exigir um terminal persistente. Vinculamos registros de entrada com inferências para auxiliar na interpretação dos resultados. Usamos a pontuação ROUGE para comparar o resumo dos dados de teste com o resumo gerado pelo modelo.
Além disso, demonstramos a inferência em lote em tempo real, na qual você pode enviar um pequeno lote de dados para um endpoint em tempo real para obter um equilíbrio entre latência e taxa de transferência para cenários como dados de entrada de streaming. A inferência em lote em tempo real ajuda a aumentar a taxa de transferência para solicitações em tempo real.
Experimente a transformação em lote com modelos Text2Text Generation no SageMaker hoje e deixe-nos saber seus comentários!
Sobre os autores
Hemant Singh é um engenheiro de aprendizado de máquina com experiência nos algoritmos integrados Amazon SageMaker JumpStart e Amazon SageMaker. Ele obteve seu mestrado no Courant Institute of Mathematical Sciences e B.Tech no IIT Delhi. Ele tem experiência em trabalhar em diversos problemas de aprendizado de máquina no domínio do processamento de linguagem natural, visão computacional e análise de séries temporais.
Rachna Chadha é Arquiteto Principal de Soluções AI/ML em Contas Estratégicas na AWS. Rachna é uma otimista que acredita que o uso ético e responsável da IA pode melhorar a sociedade no futuro e trazer prosperidade econômica e social. Em seu tempo livre, Rachna gosta de passar o tempo com sua família, fazer caminhadas e ouvir música.
Dr. é um cientista aplicado sênior com algoritmos integrados do Amazon SageMaker e ajuda a desenvolver algoritmos de aprendizado de máquina. Ele obteve seu PhD pela University of Illinois Urbana-Champaign. Ele é um pesquisador ativo em aprendizado de máquina e inferência estatística e publicou muitos artigos em conferências NeurIPS, ICML, ICLR, JMLR, ACL e EMNLP.
- Conteúdo com tecnologia de SEO e distribuição de relações públicas. Seja amplificado hoje.
- PlatoAiStream. Inteligência de Dados Web3. Conhecimento Amplificado. Acesse aqui.
- Cunhando o Futuro com Adryenn Ashley. Acesse aqui.
- Compre e venda ações em empresas PRE-IPO com PREIPO®. Acesse aqui.
- Fonte: https://aws.amazon.com/blogs/machine-learning/perform-batch-transforms-with-amazon-sagemaker-jumpstart-text2text-generation-large-language-models/
- :tem
- :é
- :não
- :onde
- $UP
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 20
- 2014
- 50
- 7
- 8
- 9
- a
- Capaz
- Sobre
- acima
- aceitação
- aceito
- Acesso
- Segundo
- Contas
- Alcançar
- Adquire
- em
- ações
- ativo
- avançado
- vantajoso
- contra
- AI
- AI / ML
- Ajuda
- algoritmos
- Todos os Produtos
- alegado
- permite
- tb
- Amazon
- Amazon Sage Maker
- JumpStart do Amazon SageMaker
- Amazon Web Services
- an
- análise
- e
- Anunciar
- qualquer
- api
- aplicado
- abordagem
- SOMOS
- por aí
- artigo
- artigos
- AS
- At
- Tentativas
- autoridade
- Automático
- automaticamente
- disponível
- evitar
- AWS
- Equilíbrio
- base
- baseado
- BE
- passou a ser
- Porque
- torna-se
- antes
- ser
- Acreditar
- acredita
- Benjamin
- Melhor
- entre
- corpo
- ambos
- Ambos os lados
- limites
- brevemente
- trazer
- Traz
- construídas em
- negócio
- mas a
- by
- chamada
- CAN
- não podes
- casos
- Causar
- acusações
- Escolha
- classe
- cliente
- mais próximo
- CNN
- código
- combinar
- combina
- combinando
- como
- compromissos
- comprometido
- comum
- comparar
- completar
- Computar
- computador
- Visão de Computador
- conceito
- Conduzir
- conferências
- Recipiente
- continuar
- contínuo
- contribuiu
- Custo
- relação custo-benefício
- poderia
- conselho
- contraproducente
- países
- Tribunal de
- crio
- Criar
- Crimes
- Criminal
- dados,
- entrada de dados
- conjuntos de dados
- morto
- decisão
- Padrão
- Délhi
- demonstrar
- demonstraram
- Departamento
- Dependendo
- implantar
- desenvolvimento
- descrito
- Determinar
- desenvolver
- Desenvolvimento
- diferir
- diferenças
- diferente
- diretamente
- diferente
- do
- Estivador
- domínio
- feito
- não
- Porta
- down
- duração
- durante
- cada
- Mais cedo
- Leste
- fácil
- Econômico
- eficiente
- esforços
- elegível
- permitindo
- final
- Ponto final
- engenheiro
- garantir
- Entra
- entrada
- Meio Ambiente
- Era
- considerações éticas
- avaliar
- avaliação
- avaliação
- Mesmo
- evidência
- exemplo
- exemplos
- Exceto
- animado
- execução
- vasta experiência
- extrato
- Rosto
- fé
- família
- poucos
- Envie o
- Arquivos
- Primeiro nome
- seguinte
- Escolha
- força
- estrangeiro
- formal
- Formalmente
- formato
- para a frente
- fundando
- da
- cheio
- mais distante
- futuro
- geração
- gerador
- ter
- dá
- Go
- Objetivos
- Governos
- GPU
- maior
- Solo
- Grupo
- Hardware
- Ter
- he
- ajudar
- ajuda
- sua experiência
- SUA PARTICIPAÇÃO FAZ A DIFERENÇA
- Alta
- destaques
- sua
- hospedado
- Como funciona o dobrador de carta de canal
- Como Negociar
- Contudo
- HTML
- http
- HTTPS
- Abraçando o Rosto
- humano
- direitos humanos
- Humanidade
- ID
- ids
- if
- Illinois
- imagem
- imediatamente
- implementação
- importar
- melhorar
- in
- incluir
- Incluindo
- Crescimento
- independência
- Individual
- Individualmente
- INFORMAÇÕES
- Infraestrutura
- do estado inicial,
- injustiça
- entrada
- inputs
- inquérito
- instância
- em vez disso
- Instituto
- Internacionais
- interpretação
- para dentro
- investigar
- investigação
- investigações
- Israel
- IT
- ESTÁ
- janeiro
- Trabalho
- juntar
- juntando
- jpg
- json
- juiz
- Junho
- jurisdição
- apenas por
- Justiça
- Chave
- Saber
- aterrissagem
- língua
- grande
- Sobrenome
- Latência
- mais tarde
- lança
- aprendizagem
- esquerda
- deixar
- levemente
- como
- gostos
- Line
- linhas
- ligado
- vinculação
- Lista
- Escuta
- carregar
- longo
- mais
- Baixo
- máquina
- aprendizado de máquina
- fazer
- Fazendo
- gestão
- maneira
- muitos
- marcado
- correspondido
- correspondente
- matemático
- Posso..
- significa
- membro
- Membros
- Filiação
- Memória
- método
- Métrica
- minimizando
- ML
- Moda
- modelo
- modelos
- Mês
- mais
- mover
- Música
- devo
- nome
- natural
- Processamento de linguagem natural
- necessário
- você merece...
- negociações
- Nem
- Nederland
- networking
- Novo
- notícias
- comunicado de imprensa
- caderno
- agora
- objeto
- obtendo
- of
- Office
- Oficialmente
- on
- ONE
- só
- aberto
- open source
- aberto
- opor
- contrário
- or
- original
- OS
- A Nossa
- Fora
- saída
- Acima de
- pacote
- página
- Palestina
- papéis
- parâmetro
- parâmetros
- parte
- festa
- passar
- caminho
- Pavimentação
- paz
- Pessoas
- Realizar
- permissões
- platão
- Inteligência de Dados Platão
- PlatãoData
- por favor
- ponto
- possível
- Publique
- predizer
- previsto
- predição
- Previsões
- Predictor
- preferido
- Preparar
- preparado
- pré-requisitos
- presidente
- pressão
- Prime
- primeiro ministro
- Diretor
- Problema
- problemas
- processo
- processos
- em processamento
- Produzido
- prosperidade
- fornecer
- fornecido
- fornece
- fornecendo
- publicado
- fins
- Python
- alcance
- pronto
- reais
- em tempo real
- registro
- registros
- referências
- refere-se
- liberar
- Removido
- REPETIDAMENTE
- Denunciar
- solicitar
- pedidos
- requerer
- requeridos
- Requisitos
- investigador
- Recursos
- resposta
- respostas
- responsabilidades
- responsável
- resultar
- Resultados
- retorno
- Retorna
- rever
- direitos
- Tipo
- Roma
- LINHA
- Execute
- s
- sábio
- Inferência do SageMaker
- Dito
- mesmo
- dizendo
- cenários
- CIÊNCIAS
- Cientista
- Ponto
- Sdk
- Vejo
- busca
- selecionado
- enviar
- senior
- Série
- Serviços
- conjunto
- contexto
- instalação
- compartilhado
- ela
- rede de apoio social
- mostrar
- mostrar
- Shows
- Sides
- assinado
- Similarmente
- simples
- desde
- situação
- situações
- Tamanho
- pequeno
- So
- Redes Sociais
- Sociedade
- Software
- solução
- Soluções
- alguns
- falar
- falando
- Passar
- começo
- começado
- Estado
- Departamento de Estado
- estado-da-arte
- Declaração
- Unidos
- estatístico
- Passo
- Passos
- Ainda
- parou
- armazenamento
- loja
- armazenadas
- franco
- Estratégico
- transmitir canais
- de streaming
- discordaram
- sujeito
- resumir
- RESUMO
- verão
- ajuda
- Tire
- tomado
- toma
- Tarefa
- tarefas
- tecnologia
- modelos
- territórios
- território
- teste
- do que
- que
- A
- as informações
- Países Baixos
- O Estado
- o mundo
- deles
- Eles
- então
- assim sendo
- Este
- deles
- isto
- aqueles
- Através da
- Taxa de transferência
- tempo
- Séries temporais
- para
- hoje
- juntos
- rasgado
- para
- Trem
- Transformar
- transformador
- transformações
- Tradução
- verdadeiro
- Verdade
- tipo
- tipos
- minar
- Unido
- Estados Unidos
- Universal
- universidade
- ao contrário
- Upload
- sobre
- us
- usar
- usava
- utilização
- Vice-Presidente
- visão
- volumes
- W
- queremos
- guerra
- foi
- Assistir
- Caminho..
- we
- web
- serviços web
- Wednesday
- boas-vindas
- boas-vindas
- BEM
- O Quê
- quando
- se
- qual
- enquanto
- QUEM
- Largo
- Ampla variedade
- precisarão
- de
- dentro
- sem
- trabalhar
- mundo
- seria
- Vocês
- investimentos
- zefirnet