Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Amazon Web Services

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Amazon Web Services

Hoje, temos o prazer de anunciar que os modelos de base Meta Llama 3 estão disponíveis através JumpStart do Amazon SageMaker para implantar e executar inferência. Os modelos Llama 3 são uma coleção de modelos de texto generativos pré-treinados e ajustados.

Nesta postagem, explicamos como descobrir e implantar modelos Llama 3 por meio do SageMaker JumpStart.

O que é Meta Lhama 3

O Llama 3 vem em dois tamanhos de parâmetros – 8B e 70B com comprimento de contexto de 8k – que podem suportar uma ampla gama de casos de uso com melhorias no raciocínio, geração de código e acompanhamento de instruções. O Llama 3 usa uma arquitetura de transformador somente decodificador e um novo tokenizer que fornece melhor desempenho do modelo com tamanho de 128k. Além disso, o Meta melhorou os procedimentos pós-treinamento que reduziram substancialmente as taxas de falsas recusas, melhoraram o alinhamento e aumentaram a diversidade nas respostas do modelo. Agora você pode obter as vantagens combinadas do desempenho do Llama 3 e dos controles MLOps com recursos do Amazon SageMaker, como SageMaker Pipelines, SageMaker Debugger ou logs de contêiner. Além disso, o modelo será implantado em um ambiente seguro da AWS sob seus controles de VPC, ajudando a fornecer segurança de dados.

O que é o SageMaker JumpStart

Com o SageMaker JumpStart, você pode escolher entre uma ampla seleção de modelos de base disponíveis publicamente. Os profissionais de ML podem implantar modelos básicos em instâncias dedicadas do SageMaker a partir de um ambiente isolado de rede e personalizar modelos usando o SageMaker para treinamento e implantação de modelos. Agora você pode descobrir e implantar modelos do Llama 3 com apenas alguns cliques Estúdio Amazon SageMaker ou programaticamente por meio do SageMaker Python SDK, permitindo derivar o desempenho do modelo e controles MLOps com recursos do SageMaker, como Pipelines SageMaker, Depurador SageMakerou registros de contêiner. O modelo é implantado em um ambiente seguro da AWS e sob seus controles de VPC, ajudando a fornecer segurança de dados. Os modelos Llama 3 estão disponíveis hoje para implantação e inferência no Amazon SageMaker Studio em us-east-1 (Norte da Virgínia), us-east-2 (Ohio), us-west-2 (Oregon), eu-west-1 (Irlanda) e ap-northeast-1 (Tóquio) Regiões da AWS.

Descubra modelos

Você pode acessar os modelos básicos por meio do SageMaker JumpStart na interface do SageMaker Studio e do SageMaker Python SDK. Nesta seção, veremos como descobrir os modelos no SageMaker Studio.

SageMaker Studio é um ambiente de desenvolvimento integrado (IDE) que fornece uma única interface visual baseada na web onde você pode acessar ferramentas específicas para executar todas as etapas de desenvolvimento de ML, desde a preparação de dados até a construção, treinamento e implantação de seus modelos de ML. Para obter mais detalhes sobre como começar e configurar o SageMaker Studio, consulte Estúdio Amazon SageMaker.

No SageMaker Studio, você pode acessar o SageMaker JumpStart, que contém modelos pré-treinados, notebooks e soluções pré-construídas, em Soluções pré-construídas e automatizadas.

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Na página inicial do SageMaker JumpStart, você pode descobrir facilmente vários modelos navegando por diferentes hubs com nomes de fornecedores de modelos. Você pode encontrar modelos Llama 3 no Meta hub. Se você não vir os modelos Llama 3, atualize sua versão do SageMaker Studio desligando e reiniciando. Para obter mais informações, consulte Encerre e atualize os aplicativos do Studio Classic.

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Você pode encontrar modelos Llama 3 pesquisando “Meta-llama-3“ na caixa de pesquisa localizada no canto superior esquerdo.

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Você pode descobrir todos os modelos Meta disponíveis no SageMaker JumpStart clicando em Meta hub.

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Clicar em um cartão de modelo abre a página de detalhes do modelo correspondente, na qual você pode facilmente implantar o modelo.

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Implantar um modelo

Quando você escolhe Implantação e reconhecer os termos do EULA, a implantação será iniciada.

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Você pode monitorar o progresso da implantação na página que aparece após clicar no botão Implantar.

Os modelos Meta Llama 3 já estão disponíveis no Amazon SageMaker JumpStart | Inteligência de dados PlatoBlockchain da Amazon Web Services. Pesquisa vertical. Ai.

Como alternativa, você pode escolher Caderno aberto para implantar por meio do notebook de exemplo. O caderno de exemplo fornece orientação completa sobre como implantar o modelo para inferência e limpeza de recursos.

Para implantar usando o notebook, você começa selecionando um modelo apropriado, especificado pelo model_id. Você pode implantar qualquer um dos modelos selecionados no SageMaker com o código a seguir.

from sagemaker.jumpstart.model import JumpStartModel

model = JumpStartModel(model_id = "meta-textgeneration-llama-3-70b-instruct")
predictor = model.deploy(accept_eula=False)

Por padrão accept_eula está definido para False. Você precisa aceitar manualmente o EULA para implantar o endpoint com êxito. Ao fazer isso, você aceita o contrato de licença do usuário e a política de uso aceitável. Você também pode encontrar o contrato de licença Site da lhama. Isso implanta o modelo no SageMaker com configurações padrão, incluindo o tipo de instância padrão e as configurações de VPC padrão. Você pode alterar essas configurações especificando valores não padrão em JumpStartModel. Para saber mais, consulte o seguinte documentação.

A tabela a seguir lista todos os modelos Llama 3 disponíveis no SageMaker JumpStart junto com o model_ids, tipos de instância padrão e número máximo de tokens totais (soma do número de tokens de entrada e número de tokens gerados) suportados para cada um desses modelos.

Nome do modelo ID do modelo Total máximo de tokens Tipo de instância padrão
Meta-Lhama-3-8B geração de metatexto-llama-3-8B 8192 ml.g5.12xgrande
Meta-Llama-3-8B-Instrução meta-textGeneration-llama-3-8B-instruct 8192 ml.g5.12xgrande
Meta-Lhama-3-70B geração de metatexto-llama-3-70b 8192 ml.p4d.24xgrande
Meta-Llama-3-70B-Instrução meta-textGeneration-llama-3-70b-instruct 8192 ml.p4d.24xgrande

Executar inferência

Depois de implantar o modelo, você pode executar inferência no endpoint implantado por meio do preditor SageMaker. Modelos de instrução ajustados (Llama 3: 8B Instruct e 70B Instruct) aceitam um histórico de bate-papos entre o usuário e o assistente de bate-papo e geram o bate-papo subsequente. Os modelos pré-treinados (Llama 3: 8B e 70B) requerem um prompt de string e executam o preenchimento do texto no prompt fornecido.

predictor.predict(payload)

Os parâmetros de inferência controlam o processo de geração de texto no terminal. Os novos tokens Max controlam o tamanho da saída gerada pelo modelo. Isso não é igual ao número de palavras porque o vocabulário do modelo não é igual ao vocabulário do idioma inglês e cada token pode não ser uma palavra do idioma inglês. O parâmetro temperatura controla a aleatoriedade na saída. Temperaturas mais altas resultam em resultados mais criativos e alucinados. Todos os parâmetros de inferência são opcionais.

Solicitações de exemplo para o modelo 70B

Você pode usar os modelos Llama 3 para completar o texto de qualquer trecho de texto. Por meio da geração de texto, você pode realizar uma variedade de tarefas, como resposta a perguntas, tradução de idiomas, análise de sentimentos e muito mais. A carga útil de entrada para o endpoint se parece com o código a seguir:

payload = {
    “inputs”: str,
   (optional)"parameters":{"max_new_tokens":int, "top_p":float, "temperature":float}
}

A seguir estão alguns exemplos de prompts e o texto gerado pelo modelo. Todas as saídas são geradas com parâmetros de inferência {"max_new_tokens":64, "top_p":0.9, "temperature":0.6}.

Input: Simply put, the theory of relativity states that
Output: 1) the laws of physics are the same for all observers, and 2) the speed of light is constant for all observers. The first part of the theory is known as the special theory of relativity, and the second part is known as the general theory of relativity.nThe special theory of relativity states

Input: I believe the meaning of life is
Output:  to live a life of purpose, on purpose. I believe that we are all here to make a difference in the world, and that we are all here to make a difference in the lives of others. I believe that we are all here to make a difference in the world, and that we are all here to mak

Input: A brief message congratulating the team on the launch:nnHi everyone,nnI just 
Output: wanted to say congratulations on the launch of the new website! It looks great and I'm sure it will be a valuable resource for our customers. I know that a lot of hard work went into making this happen, so thank you all for your efforts.nnBest regards,nJohn Doen

No próximo exemplo, mostramos como usar modelos Llama 3 com aprendizado no contexto de poucos disparos, onde fornecemos amostras de treinamento disponíveis para o modelo. Executamos inferência apenas no modelo implantado e durante esse processo, e os pesos do modelo não mudam.

Input:
Translate English to French:nsea otter => loutre de mernpeppermint => menthe poivréenplush girafe => girafe peluchencheese =>
Output:  fromagenpanda => pandanpenguin => pingouinnpolar bear => ours polairenpuffin => macareuxnsloth => paresseuxnwalrus => morsenwhale => baleinenzebra => zu00e8brenTranslate English to German:n

Solicitações de exemplo para o modelo 70B-Instruct

Com os modelos de instrução do Llama 3 que são otimizados para casos de uso de diálogo, a entrada para os endpoints do modelo de instrução é o histórico anterior entre o assistente de chat e o usuário. Você pode fazer perguntas contextuais à conversa que aconteceu até agora. Você também pode fornecer a configuração do sistema, como personas, que definem o comportamento do assistente de chat. Embora o formato da carga útil de entrada seja o mesmo do modelo base pré-treinado, o texto de entrada deve ser formatado da seguinte maneira:

<|begin_of_text|><|start_header_id|>system<|end_header_id|>

[SYSTEM_TEXT]<|eot_id|><|start_header_id|>user<|end_header_id|>

[USER_TEXT]<|eot_id|><|start_header_id|>assistant<|end_header_id|>

Neste modelo de instrução, você pode opcionalmente começar com um system função e incluir quantas funções alternadas desejar na história baseada em turnos. O papel final deve ser sempre assistant e termine com dois novos feeds de linha.

A seguir, considere alguns exemplos de solicitações e respostas do modelo. No exemplo a seguir, o usuário está fazendo uma pergunta simples ao assistente.

Input: <|begin_of_text|><|start_header_id|>user<|end_header_id|>nnwhat is the recipe of mayonnaise?<|eot_id|><|start_header_id|>assistant<|end_header_id|>nn
Output: The classic condiment! Mayonnaise is a thick, creamy emulsion sauce made from a combination of oil, egg yolks, acid (such as vinegar or lemon juice), and seasonings. Here's a simple recipe to make mayonnaise at home:nn**Ingredients:**nn* 2 egg yolksn* 1 tablespoon lemon juice or vinegar (such as apple cider vinegar or white wine vinegar)n* 1/2 teaspoon Dijon mustard (optional, but recommended for flavor)n* 1/2 cup (120 ml) neutral-tasting oil, such as canola, grapeseed, or sunflower oiln* Salt, to tastenn**Instructions:**nn1. **Start with room temperature ingredients**: This is crucial for emulsification to occur.n2. **In a medium-sized bowl**, whisk together the egg yolks, lemon juice or vinegar, and Dijon mustard (if using) until well combined.n3. **Slowly add the oil**: While continuously whisking the egg yolk mixture, slowly pour in the oil in a thin, steady stream. Start with a very slow drizzle and gradually increase the flow as the mixture thickens.n4. **Whisk constantly**: Keep whisking until the mixture has doubled in volume and has a thick, creamy consistency. This should take about 5-7 minutes.n5. **Check the consistency**: Stop whisking when the mayonnaise has reached the desired consistency. It should be smooth, thick, and hold its shape when the whisk is lifted.n6. **Season with salt**: Add salt to taste, and whisk until well combined.n7. **Taste and adjust**: If the mayonnaise is too thick, add a little water. If it's not thick enough, add a little more oil.nn**Tips and Variations:**nn* Use a neutral-tasting oil to avoid flavoring the mayonnaise.n* If you're using a stand mixer, use the whisk attachment and start with a slow speed, increasing as needed.n* Add flavorings like minced garlic, chopped fresh herbs (e.g., parsley, dill, or tarragon), or grated ginger to create different flavor profiles.n* For a lighter mayonnaise, use only 1 egg yolk or add a little water to thin it out.n* If the mayonnaise breaks or separates, don't worry! Simply start again with a new egg yolk and slowly whisk in the broken mayonnaise.nn**Homemade Mayonnaise vs. Store-Bought:**nnWhile store-bought mayonnaise is convenient, homemade mayonnaise offers several advantages:nn* Freshness: Homemade mayonnaise is made to order, ensuring optimal flavor and texture.n* Customization: You can tailor the flavor to your liking with various seasonings and ingredients.n* No preservatives: Homemade mayonnaise doesn't contain added preservatives, making it a healthier option.nnEnjoy your freshly made mayonnaise!

No exemplo a seguir, o usuário conversa com o assistente sobre pontos turísticos de Paris. Em seguida, o usuário questiona sobre a primeira opção recomendada pelo assistente de chat.

Input: <|begin_of_text|><|start_header_id|>user<|end_header_id|>nnI am going to Paris, what should I see?<|eot_id|><|start_header_id|>assistant<|end_header_id|>nnParis, the capital of France, is known for its stunning architecture, art museums, historical landmarks, and romantic atmosphere. Here are some of the top attractions to see in Paris:nn1. The Eiffel Tower: The iconic Eiffel Tower is one of the most recognizable landmarks in the world and offers breathtaking views of the city.n2. The Louvre Museum: The Louvre is one of the world's largest and most famous museums, housing an impressive collection of art and artifacts, including the Mona Lisa.n3. Notre-Dame Cathedral: This beautiful cathedral is one of the most famous landmarks in Paris and is known for its Gothic architecture and stunning stained glass windows.nnThese are just a few of the many attractions that Paris has to offer. With so much to see and do, it's no wonder that Paris is one of the most popular tourist destinations in the world.<|eot_id|><|start_header_id|>user<|end_header_id|>nnWhat is so great about #1?<|eot_id|><|start_header_id|>assistant<|end_header_id|>nn
Output: The Eiffel Tower! It's an iconic symbol of Paris and one of the most recognizable landmarks in the world. Here are some reasons why it's so great:nn1. **Engineering marvel**: When it was built for the 1889 World's Fair, the Eiffel Tower was a groundbreaking feat of engineering. It was the tallest structure in the world at the time, standing at 324 meters (1,063 feet).n2. **Panoramic views**: The Eiffel Tower offers breathtaking 360-degree views of the city from its observation decks. You can see many of Paris' famous landmarks, such as the Seine River, the Louvre, and Montmartre.n3. **Romantic atmosphere**: The Eiffel Tower is often associated with romance and is a popular spot for proposals, weddings, and romantic dinners. The tower's iron latticework and twinkling lights at night add to its romantic ambiance.n4. **Historical significance**: The Eiffel Tower has played a significant role in French history, serving as a communication tower during World War I and a symbol of French culture and engineering.n5. **Accessibility**: The Eiffel Tower is easily accessible by public transportation or on foot, and there are various ways to experience it, including taking the stairs, elevator, or a guided tour.n6. **Nighttime spectacle**: The Eiffel Tower is even more magical at night, when it's illuminated with thousands of twinkling lights. The light show, known as the "Eiffel Tower Sparkle," takes place every hour on the hour from dusk to midnight.n7. **Iconic status**: The Eiffel Tower has been featured in countless films, literature, and art, making it an instantly recognizable symbol of Paris and France.nnOverall, the Eiffel Tower is a must-visit attraction in Paris, offering a unique combination of history, engineering, romance, and stunning views.

Nos exemplos a seguir, definimos a configuração do sistema.

Input: <|begin_of_text|><|start_header_id|>system<|end_header_id|>nnAlways answer with Haiku<|eot_id|><|start_header_id|>user<|end_header_id|>nnI am going to Paris, what should I see?<|eot_id|><|start_header_id|>assistant<|end_header_id|>nn
Output: Eiffel's iron lacenRiver Seine's gentle flow bynMontmartre's charm calls
Input: <|begin_of_text|><|start_header_id|>system<|end_header_id|>nnAlways answer with emojis<|eot_id|><|start_header_id|>user<|end_header_id|>nnHow to go from Beijing to NY?<|eot_id|><|start_header_id|>assistant<|end_header_id|>nn
Output: ✈️🛬️🇺🇸

limpar

Depois de terminar de executar o notebook, exclua todos os recursos que você criou no processo para que seu faturamento seja interrompido. Use o seguinte código:

predictor.delete_model()
predictor.delete_endpoint()

Conclusão

Neste post, mostramos como começar a usar os modelos Llama 3 no SageMaker Studio. Agora você tem acesso a quatro modelos de base do Llama 3 que contêm bilhões de parâmetros. Como os modelos básicos são pré-treinados, eles também podem ajudar a reduzir os custos de treinamento e infraestrutura e permitir a personalização para seu caso de uso. Confira SageMaker JumpStart no SageMaker Studio agora para começar.


Sobre Autores

Kyle Ulrich é Cientista Aplicado II na AWS
Xin Huang é cientista aplicado sênior na AWS
Qinglan é engenheiro desenvolvedor de software sênior na AWS
Haotiano An é engenheiro desenvolvedor de software II na AWS
Christopher Whitten é engenheiro de desenvolvimento de software II na AWS
Tyler Osterberg é engenheiro de desenvolvimento de software I na AWS
Manan Xá é gerente de desenvolvimento de software na AWS
Jonathan Guinegagne é engenheiro desenvolvedor de software sênior na AWS
Adriana Simões é gerente sênior de marketing de produto na AWS
junho ganhou é gerente de produto sênior na AWS
Ashish Khetan é cientista aplicado sênior na AWS
Rachna Chadha é arquiteto de soluções principal – AI/ML na AWS
Deepak Rupakula é especialista principal em GTM na AWS

Carimbo de hora:

Mais de Aprendizado de máquina da AWS