检索增强生成 (RAG) 允许您提供大型语言模型 (LLM),可以访问来自外部知识源(例如存储库、数据库和 API)的数据,而无需对其进行微调。 当使用生成式人工智能进行问答时,RAG 使法学硕士能够用最相关、最新的信息回答问题,并可选择引用其数据源进行验证。
用于从文档检索知识的典型 RAG 解决方案使用嵌入模型将数据从数据源转换为嵌入,并将这些嵌入存储在向量数据库中。 当用户提出问题时,它会搜索向量数据库并检索与用户的查询最相似的文档。 接下来,它将检索到的文档和用户的查询合并到增强提示中,然后发送到法学硕士进行文本生成。 此实现中有两个模型:嵌入模型和生成最终响应的 LLM。
在这篇文章中,我们演示了如何使用 亚马逊SageMaker Studio 构建 RAG 问答解决方案。
使用笔记本进行基于 RAG 的问答
实现 RAG 通常需要尝试各种嵌入模型、向量数据库、文本生成模型和提示,同时还要调试代码,直到实现功能原型。 亚马逊SageMaker 提供配备 GPU 实例的托管 Jupyter 笔记本,使您能够在初始阶段快速进行实验,而无需启动额外的基础设施。 在 SageMaker 中使用笔记本有两种选择。 第一个选项是快速启动 笔记本电脑 可通过 SageMaker Studio 获取。 在 SageMaker Studio 这一专为 ML 构建的集成开发环境 (IDE) 中,您可以启动在不同实例类型和不同配置上运行的笔记本、与同事协作以及访问其他专用于机器学习 (ML) 的功能。 第二个选项是使用 SageMaker笔记本实例,这是一个运行 Jupyter Notebook 应用程序的完全托管的 ML 计算实例。
在这篇文章中,我们提出了一个 RAG 解决方案,该解决方案使用来自外部知识源的附加数据来增强模型的知识,以提供特定于自定义域的更准确的响应。 我们使用在 ml.g5.2xlarge
实例(1 个 A10G GPU)和 骆驼 2 7b 聊天 hf,Llama 2 7b 的微调版本,针对 Hugging Face Hub 的对话框用例进行了优化。 我们使用两篇 AWS Media & Entertainment 博客文章作为示例外部数据,我们将其转换为嵌入 BAAI/bge-small-en-v1.5 嵌入。 我们将嵌入存储在 松球,一个基于矢量的数据库,提供高性能搜索和相似性匹配。 我们还讨论了如何从在笔记本中进行实验过渡到将模型部署到 SageMaker 端点,以在完成原型设计时进行实时推理。 相同的方法可以用于不同的模型和向量数据库。
解决方案概述
下图说明了解决方案体系结构。
实施该解决方案包括两个高级步骤:使用 SageMaker Studio 笔记本开发解决方案,以及部署推理模型。
使用 SageMaker Studio 笔记本开发解决方案
完成以下步骤以开始开发解决方案:
- 从笔记本中的 Hugging Face Hub 加载 Llama-2 7b 聊天模型。
- 创建一个提示模板 浪链 并使用它为您的用例创建提示。
- 对于 1-2 个示例提示,添加外部文档中的相关静态文本作为提示上下文,并评估响应质量是否有所提高。
- 假设质量提高,实施 RAG 问答工作流程:
- 收集可以帮助模型更好地回答用例中的问题的外部文档。
- 加载 BGE 嵌入模型并使用它来生成这些文档的嵌入。
- 将这些嵌入存储在 Pinecone 索引中。
- 当用户提出问题时,在 Pinecone 中执行相似性搜索,并将最相似文档中的内容添加到提示的上下文中。
将模型部署到 SageMaker 以进行大规模推理
当您达到性能目标时,您可以将模型部署到 SageMaker 以供生成式 AI 应用程序使用:
- 将 Llama-2 7b 聊天模型部署到 SageMaker 实时端点。
- 部署 BAAI/bge-small-en-v1.5 将模型嵌入到 SageMaker 实时端点。
- 在问答生成式 AI 应用程序中使用已部署的模型。
在以下部分中,我们将引导您完成在 SageMaker Studio 笔记本中实施此解决方案的步骤。
先决条件
要执行本文中的步骤,您需要拥有一个 AWS 账户和一个 AWS身份和访问管理 (IAM) 角色,有权创建和访问解决方案资源。 如果您是 AWS 新手,请参阅 创建独立的 AWS 账户.
要在您的 AWS 账户中使用 SageMaker Studio 笔记本,您需要 SageMaker 域 具有有权启动 SageMaker Studio 应用程序的用户配置文件。 如果您是 SageMaker Studio 的新手, 快速工作室设置 是最快的入门方式。 只需单击一下,SageMaker 即可为 SageMaker 域配置默认预设,包括设置用户配置文件、IAM 角色、IAM 身份验证和公共互联网访问。 这篇文章的笔记本假设 ml.g5.2xlarge
实例类型。 要查看或增加您的配额,请打开 AWS Service Quotas 控制台,选择 AWS服务 在导航窗格中,选择 亚马逊SageMaker,并参考运行于其上的 Studio KernelGateway 应用程序的值 ml.g5.2xlarge
实例。
确认您的配额限制后,您需要完成依赖项才能使用 Llama 2 7b 聊天。
Llama 2 7b 聊天可在 骆驼 2 许可证。 要在 Hugging Face 上访问 Llama 2,您需要先完成以下几个步骤:
- 如果您还没有 Hugging Face 帐户,请创建一个。
- 在 Meta 上填写“请求访问下一版本的 Llama”表格 官网.
- 请求访问 骆驼 2 7b 聊天 在拥抱的脸上。
获得访问权限后,您可以创建新的访问令牌来访问模型。 要创建访问令牌,请导航至 个人设置 Hugging Face 网站上的页面。
您需要拥有 Pinecone 帐户才能将其用作矢量数据库。 Pinecone 可通过以下方式在 AWS 上使用: AWS Marketplace。 Pinecone 网站还提供了创建 免费帐户 它附带了创建单个索引的权限,这足以满足本文的目的。 要检索您的松果钥匙,请打开 松果控制台 并选择 API密钥.
设置笔记本和环境
要遵循本文中的代码,请打开 SageMaker Studio 并克隆以下内容 GitHub存储库。 接下来,打开笔记本 studio-local-gen-ai/rag/RAG-with-Llama-2-on-Studio.ipynb 并选择 PyTorch 2.0.0 Python 3.10 GPU Optimized 映像、Python 3 内核,以及 ml.g5.2xlarge
作为实例类型。 如果这是您第一次使用 SageMaker Studio 笔记本,请参阅 创建或打开 Amazon SageMaker Studio 笔记本.
要设置开发环境,您需要安装必要的Python库,如以下代码所示:
%%writefile requirements.txt
sagemaker>=2.175.0
transformers==4.33.0
accelerate==0.21.0
datasets==2.13.0
langchain==0.0.297
pypdf>=3.16.3
pinecone-client
sentence_transformers
safetensors>=0.3.3
!pip install -U -r requirements.txt
加载预训练模型和分词器
导入所需的库后,您可以加载 Llama-2 7b 聊天 模型及其相应的来自 Hugging Face 的标记器。 这些加载的模型工件存储在 SageMaker Studio 内的本地目录中。 这使您能够在需要在不同时间恢复工作时快速将它们重新加载到内存中。
import torch from transformers import ( AutoTokenizer, LlamaTokenizer, LlamaForCausalLM, GenerationConfig, AutoModelForCausalLM
)
import transformers tg_model_id = "meta-llama/Llama-2-7b-chat-hf" #the model id in Hugging Face
tg_model_path = f"./tg_model/{tg_model_id}" #the local directory where the model will be saved tg_model = AutoModelForCausalLM.from_pretrained(tg_model_id, token=hf_access_token,do_sample=True, use_safetensors=True, device_map="auto", torch_dtype=torch.float16
tg_tokenizer = AutoTokenizer.from_pretrained(tg_model_id, token=hf_access_token) tg_model.save_pretrained(save_directory=tg_model_path, from_pt=True)
tg_tokenizer.save_pretrained(save_directory=tg_model_path, from_pt=True)
提出需要最新信息的问题
您现在可以开始使用该模型并提出问题。 Llama-2 聊天模型期望提示符遵循以下格式:
<s>[INST] <<SYS>>
system_prompt
<<SYS>>
{{ user_message }} [/INST]
您可以使用 提示模板 从LangChain根据提示格式创建菜谱,以便您可以轻松地创建提示:
from langchain import PromptTemplate template = """<s>[INST] <<SYS>>nYou are an assistant for question-answering tasks. You are helpful and friendly. Use the following pieces of retrieved context to answer the query. If you don't know the answer, you just say I don't know. Use three sentences maximum and keep the answer concise.
<<SYS>>n
{context}n
{question} [/INST] """
prompt_template = PromptTemplate( template=template, input_variables=['context','question'] )
让我们向模型提出一个需要 2023 年最新信息的问题。您可以使用 LangChain,特别是 法学硕士链 链的类型并作为参数传递 LLM、您之前创建的提示模板以及问题:
question = "When can I visit the AWS M&E Customer Experience Center in New York City?" tg_tokenizer.add_special_tokens( {"pad_token": "[PAD]"} )
tg_tokenizer.padding_side = "left" tg_pipe = transformers.pipeline(task='text-generation', model=tg_model, tokenizer=tg_tokenizer, num_return_sequences=1, eos_token_id=tg_tokenizer.eos_token_id, pad_token_id=tg_tokenizer.eos_token_id, max_new_tokens=400, temperature=0.7) from langchain.chains import LLMChain
from langchain.llms import HuggingFacePipeline llm=HuggingFacePipeline(pipeline=tg_pipe, model_kwargs={'temperature':0.7})
llm_chain = LLMChain(llm=llm, prompt=prompt_template)
no_context_response = llm_chain.predict(context="", question=question)
print(no_context_response)
我们得到以下生成的答案:
感谢您伸出援手! 由于新冠肺炎 (COVID-19) 疫情,位于纽约市的 AWS M&E 客户体验中心目前暂停开放。 不过,您可以查看他们的官方网站或社交媒体帐户,了解有关中心何时重新开放的最新消息。 与此同时,您可以探索他们的在线虚拟旅游和资源。
通过在提示中添加上下文来改进答案
我们生成的答案并不完全正确。 让我们看看是否可以通过提供一些背景来改进它。 您可以添加帖子的摘录 AWS 宣布在纽约设立新的 M&E 客户体验中心,其中包括 2023 年以来该主题的更新:
context = """Media and entertainment (M&E) customers continue to face challenges in creating more content, more quickly, and distributing it to more endpoints than ever before in their quest to delight viewers globally. Amazon Web Services (AWS), along with AWS Partners, have showcased the rapid evolution of M&E solutions for years at industry events like the National Association of Broadcasters (NAB) Show and the International Broadcast Convention (IBC). Until now, AWS for M&E technology demonstrations were accessible in this way just a few weeks out of the year. Customers are more engaged than ever before; they want to have higher quality conversations regarding user experience and media tooling. These conversations are best supported by having an interconnected solution architecture for reference. Scheduling a visit of the M&E Customer Experience Center will be available starting November 13th, please send an email to AWS-MediaEnt-CXC@amazon.com."""
再次使用 LLMChain 并将前面的文本作为上下文传递:
context_response = llm_chain.predict(context=context, question=question)
print(context_response)
新的回复用最新信息回答了这个问题:
从 13 月 XNUMX 日起,您可以访问位于纽约市的 AWS M&E 客户体验中心。 请发送电子邮件至 AWS-MediaEnt-CXC@amazon.com 安排访问。
我们已经确认,通过添加正确的上下文,模型的性能得到了提高。 现在,您可以集中精力为所提出的问题查找并添加正确的上下文。 换句话说,实施 RAG。
使用 BGE 嵌入和 Pinecone 实施 RAG 问答
此时,您必须决定信息来源以增强模型的知识。 这些来源可以是组织内的内部网页或文档,也可以是公开的数据源。 出于本文的目的并为了简单起见,我们选择了 2023 年发布的两篇 AWS 博客文章:
这些帖子已在 SageMaker Studio 的数据项目目录中以 PDF 文档形式提供,以便快速访问。 要将文档划分为可管理的块,您可以使用 递归字符文本分割器 浪链的方法:
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.document_loaders import PyPDFDirectoryLoader loader = PyPDFDirectoryLoader("./data/") documents = loader.load() text_splitter=RecursiveCharacterTextSplitter( chunk_size=1000, chunk_overlap=5
)
docs = text_splitter.split_documents(documents)
接下来,使用 BGE 嵌入模型 bge-小-en 通过创建 北京人工智能研究院 (BAAI) Hugging Face 上可以使用它来生成这些块的嵌入。 下载模型并将其保存在 Studio 的本地目录中。 我们使用 fp32,以便它可以在实例的 CPU 上运行。
em_model_name = "BAAI/bge-small-en"
em_model_path = f"./em-model" from transformers import AutoModel
# Load model from HuggingFace Hub
em_model = AutoModel.from_pretrained(em_model_name,torch_dtype=torch.float32)
em_tokenizer = AutoTokenizer.from_pretrained(em_model_name,device="cuda") # save model to disk
em_tokenizer.save_pretrained(save_directory=f"{em_model_path}/model",from_pt=True)
em_model.save_pretrained(save_directory=f"{em_model_path}/model",from_pt=True)
em_model.eval()
使用以下代码创建 embedding_generator 函数,该函数将文档块作为输入并使用 BGE 模型生成嵌入:
# Tokenize sentences
def tokenize_text(_input, device): return em_tokenizer( [_input], padding=True, truncation=True, return_tensors='pt' ).to(device) # Run embedding task as a function with model and text sentences as input
def embedding_generator(_input, normalize=True): # Compute token embeddings with torch.no_grad(): embedded_output = em_model( **tokenize_text( _input, em_model.device ) ) sentence_embeddings = embedded_output[0][:, 0] # normalize embeddings if normalize: sentence_embeddings = torch.nn.functional.normalize( sentence_embeddings, p=2, dim=1 ) return sentence_embeddings[0, :].tolist() sample_sentence_embedding = embedding_generator(docs[0].page_content)
print(f"Embedding size of the document --->", len(sample_sentence_embedding))
在这篇文章中,我们演示了使用 Pinecone(一种托管的云原生)的 RAG 工作流程 矢量数据库 这还提供了一个 API 用于相似性搜索。 您可以随意重写以下代码以使用您喜欢的矢量数据库。
我们初始化一个 松果Python客户端 并使用嵌入模型的输出长度创建新的向量搜索索引。 我们使用 LangChain 的内置 Pinecone 类来摄取我们在上一步中创建的嵌入。 它需要三个参数:要摄取的文档、嵌入生成器函数以及 Pinecone 索引的名称。
import pinecone
pinecone.init( api_key = os.environ["PINECONE_API_KEY"], environment = os.environ["PINECONE_ENV"]
)
#check if index already exists, if not we create it
index_name = "rag-index"
if index_name not in pinecone.list_indexes(): pinecone.create_index( name=index_name, dimension=len(sample_sentence_embedding), ## 384 for bge-small-en metric='cosine' ) #insert the embeddings
from langchain.vectorstores import Pinecone
vector_store = Pinecone.from_documents( docs, embedding_generator, index_name=index_name
)
将 Llama-2 7B 聊天模型加载到内存中并将嵌入集成到 Pinecone 索引中后,您现在可以组合这些元素来增强 Llama 2 对我们的问答用例的响应。 为了实现这一点,您可以使用 LangChain 检索QA,它使用向量存储中最相似的文档来增强初始提示。 通过设置 return_source_documents=True
,您可以查看用于生成答案(作为响应的一部分)的确切文档,从而验证答案的准确性。
from langchain.chains import RetrievalQA
import textwrap #helper method to improve the readability of the response
def print_response(llm_response): temp = [textwrap.fill(line, width=100) for line in llm_response['result'].split('n')] response = 'n'.join(temp) print(f"{llm_response['query']}n n{response}'n n Source Documents:") for source in llm_response["source_documents"]: print(source.metadata) llm_qa_chain = RetrievalQA.from_chain_type( llm=llm, #the Llama-2 7b chat model chain_type='stuff', retriever=vector_store.as_retriever(search_kwargs={"k": 2}), # perform similarity search in Pinecone return_source_documents=True, #show the documents that were used to answer the question chain_type_kwargs={"prompt": prompt_template}
)
print_response(llm_qa_chain(question))
我们得到以下答案:
问:我什么时候可以参观纽约市的 AWS M&E 客户体验中心?
答:我很乐意提供帮助! 据了解,位于纽约市的AWS M&E客户体验中心将于13月XNUMX日起开放参观。 您可以发送电子邮件至 AWS-MediaEnt-CXC@amazon.com 来安排访问。
来源文件:
{'page': 4.0, 'source': 'data/AWS 宣布在纽约市新建 M&E 客户体验中心 _ AWS for M&E Blog.pdf'}
{'page': 2.0, 'source': 'data/AWS 宣布在纽约市新建 M&E 客户体验中心 _ AWS for M&E Blog.pdf'}
让我们尝试一个不同的问题:
question2=" How many awards have AWS Media Services won in 2023?"
print_response(llm_qa_chain(question2))
我们得到以下答案:
问:2023 年 AWS 媒体服务获得了多少个奖项?
答:根据博文,AWS Media Services 在 2023 年赢得了五项行业奖项。
来源文件:
{'page': 0.0, 'source': 'data/AWS Media Services 荣获行业荣誉 _ AWS for M&E Blog.pdf'}
{'page': 1.0, 'source': 'data/AWS Media Services 荣获行业荣誉 _ AWS for M&E Blog.pdf'}
建立足够的信心后,您可以将模型部署到 用于实时推理的 SageMaker 端点。 这些端点是完全托管的,并提供自动扩展支持。
SageMaker 使用大型模型推理容器 (LMI) 提供大型模型推理,我们可以利用它来部署模型。 这些容器配备了预安装的开源库(如 DeepSpeed),有助于在推理过程中实现张量并行等性能增强技术。 此外,他们使用 DJLServing 作为预构建的集成模型服务器。 DJL服务 是一种高性能、通用模型服务解决方案,提供对动态批处理和工作器自动缩放的支持,从而提高吞吐量。
在我们的方法中,我们使用 SageMaker LMI 与 DJLServing 和 DeepSpeed Inference 将 Llama-2-chat 7b 和 BGE 模型部署到运行于 ml.g5.2xlarge
实例,实现实时推理。 如果您想自己执行这些步骤,请参阅随附的 笔记本 有关详细说明。
你将需要两个 ml.g5.2xlarge
用于部署的实例。 要查看或增加您的配额,请打开 AWS Service Quotas 控制台,选择 AWS服务 在导航窗格中,选择 亚马逊SageMaker,并参考值 ml.g5.2xlarge
用于端点使用。
以下步骤概述了在 SageMaker 端点上为 RAG 工作流程部署自定义模型的过程:
- 部署 骆驼-2 7b 聊天模型到运行在 SageMaker 上的实时端点
ml.g5.2xlarge
快速文本生成的实例。 - 部署 BAAI/bge-small-en-v1.5 将模型嵌入到运行在 SageMaker 上的实时端点
ml.g5.2xlarge
实例。 或者,您可以部署自己的嵌入模型。 - 提问并使用LangChain 检索QA 使用 Pinecone 中最相似的文档来增强提示,这次使用 SageMaker 实时端点中部署的模型:
# convert your local LLM into SageMaker endpoint LLM
llm_sm_ep = SagemakerEndpoint( endpoint_name=tg_sm_model.endpoint_name, # <--- Your text-gen model endpoint name region_name=region, model_kwargs={ "temperature": 0.05, "max_new_tokens": 512 }, content_handler=content_handler,
) llm_qa_smep_chain = RetrievalQA.from_chain_type( llm=llm_sm_ep, # <--- This uses SageMaker Endpoint model for inference chain_type='stuff', retriever=vector_store.as_retriever(search_kwargs={"k": 2}), return_source_documents=True, chain_type_kwargs={"prompt": prompt_template}
)
- 使用 LangChain 验证具有嵌入模型的 SageMaker 端点是否按预期工作,以便其可用于将来的文档摄取:
response_model = smr_client.invoke_endpoint( EndpointName=em_sm_model.endpoint_name, <--- Your embedding model endpoint name Body=json.dumps({ "text": "This is a sample text" }), ContentType="application/json",
) outputs = json.loads(response_model["Body"].read().decode("utf8"))['outputs']
清理
完成以下步骤以清理您的资源:
- 当您完成 SageMaker Studio 笔记本中的工作后,请确保关闭
ml.g5.2xlarge
例如,通过选择停止图标来避免产生任何费用。 您还可以设置 生命周期配置脚本 当资源不使用时自动关闭。
- 如果您将模型部署到 SageMaker 端点,请在笔记本末尾运行以下代码以删除端点:
#delete your text generation endpoint
sm_client.delete_endpoint( EndpointName=tg_sm_model.endpoint_name
)
# delete your text embedding endpoint
sm_client.delete_endpoint( EndpointName=em_sm_model.endpoint_name
)
- 最后,运行以下行来删除 Pinecone 索引:
pinecone.delete_index(index_name)
结论
SageMaker 笔记本提供了一种简单的方式来启动您的检索增强生成之旅。 它们允许您交互地试验各种模型、配置和问题,而无需启动额外的基础设施。 在这篇文章中,我们展示了如何使用 LangChain、BGE 嵌入模型和 Pinecone 在问答用例中增强 Llama 2 7b 聊天的性能。 首先,启动 SageMaker Studio 并运行 笔记本 可用在以下 GitHub回购。 请在评论部分分享您的想法!
关于作者
阿纳斯塔西娅·泽维莱卡 是 AWS 的机器学习和人工智能专家解决方案架构师。 她与欧洲、中东和非洲地区的客户合作,帮助他们使用 AWS 服务大规模构建机器学习解决方案。 她从事过不同领域的项目,包括自然语言处理 (NLP)、MLOps 和低代码无代码工具。
普拉纳夫·穆尔蒂 是 AWS 的 AI/ML 专家解决方案架构师。 他专注于帮助客户构建、训练、部署机器学习 (ML) 工作负载并将其迁移到 SageMaker。 他此前曾在半导体行业工作,开发大型计算机视觉 (CV) 和自然语言处理 (NLP) 模型以改进半导体工艺。 空闲时间,他喜欢下棋和旅行。
- SEO 支持的内容和 PR 分发。 今天得到放大。
- PlatoData.Network 垂直生成人工智能。 赋予自己力量。 访问这里。
- 柏拉图爱流。 Web3 智能。 知识放大。 访问这里。
- 柏拉图ESG。 碳, 清洁科技, 能源, 环境, 太阳能, 废物管理。 访问这里。
- 柏拉图健康。 生物技术和临床试验情报。 访问这里。
- Sumber: https://aws.amazon.com/blogs/machine-learning/use-amazon-sagemaker-studio-to-build-a-rag-question-answering-solution-with-llama-2-langchain-and-pinecone-for-fast-experimentation/
- :具有
- :是
- :不是
- :在哪里
- $UP
- 1
- 10
- 100
- 13
- 16
- 2023
- 33
- 500
- 7
- a
- AC
- 学院
- ACCESS
- 访问数据
- 无障碍
- 根据
- 账号管理
- 账户
- 精准的
- 加
- 添加
- 额外
- 另外
- 坚持
- 再次
- AI
- AI / ML
- 让
- 允许
- 允许
- 沿
- 已经
- 还
- Amazon
- 亚马逊SageMaker
- 亚马逊SageMaker Studio
- 亚马逊网络服务
- 亚马逊网络服务(AWS)
- an
- 和
- 公布
- 回答
- 答案
- 任何
- APIs
- 应用
- 应用领域
- 的途径
- 应用
- 架构
- 保健
- 人造的
- 人工智能
- AS
- 问
- 评估
- 助理
- 社区
- 假设
- At
- 增加
- 增强
- 增强
- 认证
- 汽车
- 自动
- 可使用
- 避免
- 世界原声音乐
- 奖项
- AWS
- 基于
- BE
- 很
- before
- 最佳
- 更好
- 博客
- 博客文章
- 身体
- 播放
- 建立
- 内建的
- by
- CAN
- 案件
- 例
- Center
- 链
- 链
- 挑战
- 收费
- 查
- 棋
- 选择
- 选择
- 城市
- 程
- 清洁
- 点击
- 关闭
- 码
- 合作
- 同事
- COM的
- 结合
- 结合
- 如何
- 购买的订单均
- 注释
- 完成
- 计算
- 一台
- 计算机视觉
- 简洁
- 信心
- 配置
- CONFIRMED
- 由
- 安慰
- 集装箱
- 内容
- 上下文
- 继续
- 对话
- 兑换
- 相应
- 可以
- Covid-19
- COVID-19大流行
- 创建信息图
- 创建
- 创造
- 目前
- 习俗
- 顾客
- 客户体验
- 合作伙伴
- data
- 数据库
- 数据库
- 决定
- 默认
- 喜悦
- 演示
- 证明
- 依赖
- 部署
- 部署
- 部署
- 部署
- 详细
- 发展
- 研发支持
- 设备
- 对话框
- 不同
- 讨论
- 分布
- 分
- 文件
- 文件
- 域
- 域名
- 不
- 别
- 向下
- 下载
- 两
- ,我们将参加
- 动态
- e
- 此前
- 容易
- 工作的影响。
- 分子
- 邮箱地址
- 嵌入
- 欧洲与中东地区
- 使
- 使
- 结束
- 端点
- 从事
- 提高
- 娱乐
- 完全
- 环境
- 配备
- 成熟
- 事件
- EVER
- 进化
- 例子
- 存在
- 期望
- 预期
- 体验
- 实验
- 探索
- 外部
- 提取
- 面部彩妆
- 促进
- 高效率
- 最快
- 特征
- 少数
- 最后
- 寻找
- 姓氏:
- 第一次
- 五
- 专注焦点
- 重点
- 遵循
- 以下
- 针对
- 申请
- 格式
- 向前
- Free
- 友好
- 止
- 充分
- 功能
- 实用
- 未来
- Gain增益
- 生成
- 产生
- 产生
- 代
- 生成的
- 生成式人工智能
- 发电机
- 得到
- 在全球范围内
- 理想中
- 去
- GPU
- 授予
- 快乐
- 有
- 有
- he
- 帮助
- 有帮助
- 帮助
- 帮助
- 高水平
- 高性能
- 更高
- 他的
- 击中
- 创新中心
- How To
- 但是
- HTML
- HTTPS
- 中心
- 拥抱脸
- i
- IBC
- ICON
- ID
- 身分
- if
- 说明
- 图片
- 实施
- 履行
- 实施
- 进口
- 改善
- 改善
- 提高
- in
- 其他
- 包括
- 包含
- 增加
- 增加
- 指数
- 行业中的应用:
- 行业动态
- 信息
- 基础设施
- 初始
- 输入
- 安装
- 例
- 说明
- 集成
- 房源搜索
- 互联
- 内部
- 国际
- 网络
- 互联网接入
- 成
- IT
- 它的
- 旅程
- JPG
- JSON
- 只是
- 保持
- 键
- 知道
- 知识
- 语言
- 大
- 发射
- 学习
- 左
- 长度
- Level
- 库
- 喜欢
- 极限
- Line
- 骆驼
- LLM
- 加载
- 装载机
- 本地
- 低
- 机
- 机器学习
- 使
- 管理
- 管理
- 许多
- 匹配
- 最多
- 与此同时
- 媒体
- 内存
- 元
- 元数据
- 方法
- 迁移
- ML
- 多播
- 模型
- 模型
- 更多
- 最先进的
- 必须
- NAB
- 姓名
- National
- 自然
- 自然语言处理
- 导航
- 旅游导航
- 必要
- 需求
- 需要
- 全新
- 新访问
- 纽约
- 纽约市
- 下页
- NLP
- 没有
- 笔记本
- 十一月
- 现在
- of
- 提供
- 优惠精选
- 官方
- 官方网站
- on
- 一
- 在线
- 打开
- 开放源码
- 优化
- 附加选项
- 附加选项
- or
- 组织
- OS
- 其他名称
- 我们的
- 输出
- 轮廓
- 产量
- 输出
- 己
- 垫
- 页
- 流感大流行
- 面包
- 参数
- 部分
- 伙伴
- 通过
- 演出
- 性能
- 权限
- 相
- 件
- 柏拉图
- 柏拉图数据智能
- 柏拉图数据
- 播放
- 请
- 帖子
- 帖子
- 首选
- 当下
- 以前
- 先前
- 过程
- 过程
- 处理
- 本人简介
- 项目
- 项目
- 原型
- 原型
- 提供
- 优
- 国家
- 公然
- 出版
- 目的
- 蟒蛇
- pytorch
- 质量
- 探索
- 题
- 有疑问吗?
- 快速
- 很快
- 快
- 急速
- 达
- 实时的
- 最近
- 食谱
- 参考
- 参考
- 关于
- 相应
- 重开
- 要求
- 必须
- 岗位要求
- 需要
- 资源
- 响应
- 回复
- 导致
- 简历
- 回报
- 检讨
- 右
- 角色
- 运行
- 运行
- sagemaker
- 清酒
- 同
- 保存
- 保存
- 对工资盗窃
- 鳞片
- 缩放
- 始你
- 调度
- 搜索
- 搜索
- 其次
- 部分
- 看到
- 半导体
- 提交
- 发送
- 服务器
- 服务
- 特色服务
- 集
- 设置
- Share
- 她
- 显示
- 展出
- 显示
- 关闭
- 关闭
- 类似
- 简单
- 单
- 尺寸
- So
- 社会
- 社会化媒体
- 方案,
- 解决方案
- 一些
- 来源
- 来源
- 专家
- 具体的
- 特别是
- 独立
- 开始
- 开始
- 开始
- 静止
- 步
- 步骤
- Stop 停止
- 商店
- 存储
- 商店
- 简单的
- 工作室
- 这样
- 足够
- SUPPORT
- 支持
- 肯定
- 如飞
- 需要
- 任务
- 任务
- 技术
- 专业技术
- 模板
- 文本
- 比
- 这
- 其
- 他们
- 那里。
- 从而
- 博曼
- 他们
- Free Introduction
- 三
- 通过
- 吞吐量
- 次
- 至
- 象征
- 令牌化
- 工具
- 主题
- 火炬
- 塔
- 培训
- 变形金刚
- 过渡
- 旅游
- true
- 尝试
- 二
- 类型
- 类型
- 普遍
- 一般
- 下
- 普遍
- 直到
- 跟上时代的
- 最新动态
- 用法
- 使用
- 用例
- 用过的
- 用户
- 用户体验
- 使用
- 运用
- 利用
- 折扣值
- 各个
- 企业验证
- 确认
- 版本
- 通过
- 观众
- 在线会议
- 虚拟游览
- 能见度
- 愿景
- 参观
- 访客
- 走
- 想
- 方法..
- we
- 卷筒纸
- Web服务
- 您的网站
- 周
- 为
- ,尤其是
- 每当
- 这
- 而
- 将
- 中
- 也完全不需要
- 韩元
- 话
- 工作
- 工作
- 工人
- 工作流程
- 加工
- 合作
- 年
- 年
- 纽约
- 完全
- 您一站式解决方案
- 你自己
- 和风网