时装业是一个 高利润的生意,据世界银行报告,到 2.1 年估计价值将达到 2025 万亿美元。 该领域涵盖多个领域,例如服装、鞋履和配饰的创作、制造、分销和销售。 该行业处于不断变化的状态,新的样式和趋势经常出现。 因此,时装公司必须灵活应变,才能保持相关性并在市场上取得成功。
生成式人工智能 (AI) 是指旨在根据一组学习模式和数据生成新内容(例如图像、文本、音频或视频)的 AI 算法。 它可用于生成新的和创新的服装设计,同时提供改进的个性化和成本效益。 AI 驱动的设计工具可以根据潜在客户通过文本提示指定的输入参数或样式创建独特的服装设计。 此外,人工智能可用于根据客户的喜好进行个性化设计。 例如,客户可以从多种颜色、图案和样式中进行选择,AI 模型会根据这些选择生成独一无二的设计。 人工智能在时尚行业的采用目前受到各种技术、可行性和成本挑战的阻碍。 然而,现在可以通过使用先进的生成式 AI 方法(例如基于自然语言的图像语义分割和虚拟造型扩散)来缓解这些障碍。
这篇博文详细介绍了使用文本提示实现生成式 AI 辅助时尚在线造型。 机器学习 (ML) 工程师可以基于预训练的 CLIPSeq 和 Stable Diffusion 微调和部署文本到语义分割和修复模型 亚马逊SageMaker. 这使时装设计师和消费者能够根据文本提示创建虚拟造型图像并选择他们喜欢的款式。
生成式人工智能解决方案
剪辑段 模型引入了一种新颖的图像语义分割方法,使您可以使用简单的文本命令轻松识别图片中的时尚单品。 它利用文本提示或图像编码器将文本和视觉信息编码到多模态嵌入空间中,从而能够根据提示对目标对象进行高精度分割。 该模型已经使用零样本迁移、自然语言监督和多模态自监督对比学习等技术在大量数据上进行了训练。 这意味着您可以利用由 蒂莫·吕德克 等而无需定制。
CLIPSeg 是一种使用文本和图像编码器将文本和视觉信息编码到多模态嵌入空间以根据文本提示执行语义分割的模型。 CLIPSeg 的架构由两个主要组件组成:文本编码器和图像编码器。 文本编码器接收文本提示并将其转换为文本嵌入,而图像编码器接收图像并将其转换为图像嵌入。 然后将两个嵌入连接起来并通过一个完全连接的层以生成最终的分割掩码。
在数据流方面,模型是在图像和相应文本提示的数据集上训练的,其中文本提示描述了要分割的目标对象。 在训练过程中,文本编码器和图像编码器被优化以学习文本提示和图像之间的映射以产生最终的分割掩码。 训练模型后,它可以接收新的文本提示和图像,并为提示中描述的对象生成分割掩码。
Stable Diffusion 是一种技术,可让时装设计师仅根据文本描述大量生成高度逼真的图像,而无需进行冗长且昂贵的定制。 这对于想要快速创造时尚风格的设计师,以及想要以更低的成本生产个性化产品的制造商来说都是有益的。
下图说明了稳定扩散架构和数据流。
与传统的基于 GAN 的方法相比,Stable Diffusion 是一种生成式 AI,能够生成更稳定、更逼真的图像,与原始图像的分布相匹配。 该模型可以根据多种用途进行调节,例如用于文本到图像生成的文本、用于布局到图像生成的边界框、用于修复的蒙版图像以及用于超分辨率的低分辨率图像。 扩散模型具有广泛的商业应用,其实际用途也在不断发展。 这些模式将极大地惠及时尚、零售和电子商务、娱乐、社交媒体、营销等各个行业。
使用 CLIPSeg 从文本提示生成掩码
Vogue 在线造型是一项服务,使客户能够通过在线平台从 AI 接收时尚建议和建议。 它通过选择与顾客的外表相得益彰、符合他们的预算并符合他们的个人喜好的服装和配饰来做到这一点。 通过使用生成式人工智能,可以更轻松地完成任务,从而提高客户满意度并减少开支。
该解决方案可以部署在 亚马逊弹性计算云 (EC2) p3.2xlarge 实例,具有单个 V100 GPU 和 16G 内存。 采用多种技术来提高性能并减少 GPU 内存使用,从而加快图像生成速度。 这些包括使用 fp16 和启用内存高效注意力以减少注意力块中的带宽。
我们首先让用户上传一张时尚图片,然后从 CLIPSeq 下载并提取预训练模型。 然后将图像标准化并调整大小以符合大小限制。 Stable Diffusion V2 支持高达 768×768 的图像分辨率,而 V1 支持高达 512×512 的图像分辨率。 请参见以下代码:
from models.clipseg import CLIPDensePredT # The original image
image = download_image(img_url).resize((768, 768)) # Download pre-trained CLIPSeq model and unzip the pkg
! wget https://owncloud.gwdg.de/index.php/s/ioHbRzFx6th32hn/download -O weights.zip
! unzip -d weights -j weights.zip # Load CLIP model. Available models = ['RN50', 'RN101', 'RN50x4', # 'RN50x16', 'RN50x64', 'ViT-B/32', 'ViT-B/16', 'ViT-L/14', 'ViT-L/14@336px']
model = CLIPDensePredT(version='ViT-B/16', reduce_dim=64)
model.eval() # non-strict, because we only stored decoder weights (not CLIP weights)
model.load_state_dict(torch.load('weights/rd64-uni.pth', map_location=torch.device('cuda')), strict=False) # Image normalization and resizing
transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), transforms.Resize((768, 768)),
])
img = transform(image).unsqueeze(0)
通过使用预训练的 CLIPSeq 模型,我们能够使用文本提示从图像中提取目标对象。 这是通过将文本提示输入文本编码器来完成的,文本编码器将其转换为文本嵌入。 然后将图像输入到图像编码器,图像编码器将其转换为图像嵌入。 然后将两个嵌入连接起来并通过一个完全连接的层以生成最终的分割掩码,它突出显示文本提示中描述的目标对象。 请参见以下代码:
# Text prompt
prompt = 'Get the dress only.' # predict
mask_image_filename = 'the_mask_image.png'
with torch.no_grad(): preds = model(img.repeat(4,1,1,1), prompt)[0] # save the mask image after computing the area under the standard # Gaussian probability density function and calculates the cumulative # distribution function of the normal distribution with ndtr. plt.imsave(mask_image_filename,torch.special.ndtr(preds[0][0]))
有了语义分割的准确掩码图像,我们就可以使用in-painting进行内容替换。 In-painting 是使用经过训练的生成模型来填充图像缺失部分的过程。 通过使用蒙版图像识别目标对象,我们可以应用内画技术将目标对象替换为其他东西,例如不同的衣服或配饰。 Stable Diffusion V2 模型可用于此目的,因为它能够生成与原始图像的分布相匹配的高分辨率、逼真的图像。
使用 DreamBooth 对预训练模型进行微调
微调是深度学习中的一个过程,其中使用少量标记数据对预训练模型进一步训练新任务。 与其从头开始训练,不如将已经在大型数据集上训练过的网络用于类似任务,并在新数据集上对其进行进一步训练,使其更专注于该特定任务。
时装设计师还可以使用主题驱动、微调的稳定扩散内画模型来生成特定类别的样式,例如女士休闲长裙。 为此,第一步是在目标域中提供一组示例图像,大约有 1 张,带有如下所示的适当文本标签,并将它们绑定到引用设计、样式、颜色和面料的唯一标识符. 文本上的标签在确定微调模型的结果方面起着至关重要的作用。 有几种方法可以通过有效的方式来增强微调 即时工程 这里有几个例子。
Sample text prompts to descibe some of the most common design elements of casual long skirts for ladies: Design Style: A-line, wrap, maxi, mini, and pleated skirts are some of the most popular styles for casual wear. A-line skirts are fitted at the waist and flare out at the hem, creating a flattering silhouette. Wrap skirts have a wrap closure and can be tied at the waist for a customizable fit. Maxi skirts are long and flowy, while mini skirts are short and flirty. Pleated skirts have folds that add texture and movement to the garment.
Pattern: Casual skirts can feature a variety of patterns, including stripes, florals, polka dots, and solids. These patterns can range from bold and graphic to subtle and understated.
Colors: Casual skirts come in a range of colors, including neutral shades likeblack, white, and gray, as well as brighter hues like pink, red, and blue. Some skirts may also feature multiple colors in a single garment, such asa skirt with a bold pattern that incorporates several shades.
Fabrics: Common fabrics used in casual skirts include cotton, denim, linen, and rayon. These materials offer different levels of comfort and durability, making it easy to find a skirt that suits your personal style and needs.
使用一小组图像微调 Stable Diffusion 可能会导致模型过度拟合。 DreamBooth [5] 通过使用类特定的先验保存损失来解决这个问题。 它学会分两步将唯一标识符与该特定主题绑定。 首先,它使用输入图像和文本提示对低分辨率模型进行微调,该文本提示包含唯一标识符和主体所属类别的名称,例如“裙子”。 实际上,这意味着同时让模型拟合图像和从非微调类的视觉先验中采样的图像。 这些预先保存的图像使用“类别名词”提示进行采样和标记。 其次,它将通过将输入图像集中的低分辨率和高分辨率图像配对来微调超高分辨率组件,这允许微调模型的输出保持对小细节的保真度。
使用 UNet 为分辨率为 512×512 的图像微调预训练的绘画内文本编码器需要大约 22GB 的 VRAM 或更高的分辨率为 768×768。 理想情况下,应调整微调样本的大小以匹配所需的输出图像分辨率,以避免性能下降。 文本编码器产生更准确的细节,例如模型面孔。 一种选择是在单个 AWS EC2 g5.2xlarge 实例上运行,现在可在 八个区域 或者使用 Hugging Face Accelerate 在分布式配置中运行经过微调的代码。 为了进一步节省内存,您可以选择分步执行计算的注意力切片版本,而不是一次性完成计算,方法是简单地修改 DreamBooth 的训练脚本 train_dreambooth_inpaint.py 以添加管道 enable_attention_slicing() 函数。
Accelerate 是一个库,它使一个微调代码能够在任何分布式配置中运行。 Hugging Face 和亚马逊介绍 拥抱人脸深度学习容器 (DLC) 跨多个 GPU 和节点扩展微调任务。 您可以使用单个 CLI 命令为 Amazon SageMaker 配置启动配置。
# From your aws account, install the sagemaker sdk for Accelerate
pip install "accelerate[sagemaker]" --upgrade # Configure the launch configuration for Amazon SageMaker accelerate config # List and verify Accelerate configuration
accelerate env # Make necessary modification of the training script as the following to save # output on S3, if needed
# - torch.save('/opt/ml/model`)
# + accelerator.save('/opt/ml/model')
要启动微调作业,请使用以下命令验证 Accelerate 的配置 CLI 并提供必要的训练参数,然后使用以下 shell 脚本。
# Instance images — Custom images that represents the specific # concept for dreambooth training. You should collect # high #quality images based on your use cases.
# Class images — Regularization images for prior-preservation # loss to prevent overfitting. You should generate these # images directly from the base pre-trained model. # You can choose to generate them on your own or generate # them on the fly when running the training script.
# # You can access train_dreambooth_inpaint.py from huggingface/diffuser export MODEL_NAME="stabilityai/stable-diffusion-2-inpainting"
export INSTANCE_DIR="/data/fashion/gowns/highres/"
export CLASS_DIR="/opt/data/fashion/generated_gowns/imgs"
export OUTPUT_DIR="/opt/model/diffuser/outputs/inpainting/" accelerate launch train_dreambooth_inpaint.py --pretrained_model_name_or_path=$MODEL_NAME --train_text_encoder --instance_data_dir=$INSTANCE_DIR --class_data_dir=$CLASS_DIR --output_dir=$OUTPUT_DIR --with_prior_preservation --prior_loss_weight=1.0 --instance_prompt="A supermodel poses in long summer travel skirt, photorealistic" --class_prompt="A supermodel poses in skirt, photorealistic" --resolution=512 --train_batch_size=1 --use_8bit_adam --gradient_checkpointing --learning_rate=2e-6 --lr_scheduler="constant" --lr_warmup_steps=0 --num_class_images=200 --max_train_steps=800
微调的内画模型允许为文本提示描述的时尚类别生成更具体的图像。 因为它已经用一组高分辨率图像和文本提示进行了微调,所以该模型可以生成更适合班级的图像,例如正式的晚礼服。 需要注意的是,类越具体,用于微调的数据越多,输出图像就越准确和逼真。
%tree -d ./finetuned-stable-diffusion-v2-1-inpainting
finetuned-stable-diffusion-v2-1-inpainting
├── 512-inpainting-ema.ckpt
├── feature_extractor
├── code
│ └──inference.py
│ ├──requirements.txt
├── scheduler
├── text_encoder ├── tokenizer
├── unet
└── vae
使用 SageMaker 部署微调的内画模型进行推理
借助 Amazon SageMaker,您可以部署微调的稳定扩散模型以进行实时推理。 将模型上传到 亚马逊简单存储服务 (S3) 对于部署,必须创建一个 model.tar.gz 存档 tarball。 确保存档直接包含所有文件,而不是包含它们的文件夹。 DreamBooth微调存档文件夹在消除间歇检查点后应该出现如下:
创建推理处理程序的第一步涉及创建 inference.py 文件。 该文件充当加载模型和处理所有传入推理请求的中心枢纽。 加载模型后,执行 model_fn() 函数。 当需要执行推理时,调用 predict_fn() 函数。 此外,decode_base64() 函数用于将有效负载中包含的 JSON 字符串转换为 PIL 图像数据类型。
%%writefile code/inference.py
import base64
import torch
from PIL import Image
from io import BytesIO
from diffusers import EulerDiscreteScheduler, StableDiffusionInpaintPipeline def decode_base64(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = Image.open(decoded_string) return img def model_fn(model_dir): # Load stable diffusion and move it to the GPU scheduler = EulerDiscreteScheduler.from_pretrained(model_dir, subfolder="scheduler") pipe = StableDiffusionInpaintPipeline.from_pretrained(model_dir, scheduler=scheduler, revision="fp16", torch_dtype=torch.float16) pipe = pipe.to("cuda") pipe.enable_xformers_memory_efficient_attention() #pipe.enable_attention_slicing() return pipe def predict_fn(data, pipe): # get prompt & parameters prompt = data.pop("inputs", data) # Require json string input. Inference to convert imge to string. input_img = data.pop("input_img", data) mask_img = data.pop("mask_img", data) # set valid HP for stable diffusion num_inference_steps = data.pop("num_inference_steps", 25) guidance_scale = data.pop("guidance_scale", 6.5) num_images_per_prompt = data.pop("num_images_per_prompt", 2) image_length = data.pop("image_length", 512) # run generation with parameters generated_images = pipe( prompt, image = decode_base64(input_img), mask_image = decode_base64(mask_img), num_inference_steps=num_inference_steps, guidance_scale=guidance_scale, num_images_per_prompt=num_images_per_prompt, height=image_length, width=image_length, #)["images"] # for Stabel Diffusion v1.x ).images # create response encoded_images = [] for image in generated_images: buffered = BytesIO() image.save(buffered, format="JPEG") encoded_images.append(base64.b64encode(buffered.getvalue()).decode()) return {"generated_images": encoded_images}
要将模型上传到 Amazon S3 存储桶,必须先创建一个 model.tar.gz 存档。 重要的是要注意存档应该直接包含文件而不是包含它们的文件夹。 例如,该文件应如下所示:
import tarfile
import os # helper to create the model.tar.gz
def compress(tar_dir=None,output_file="model.tar.gz"): parent_dir=os.getcwd() os.chdir(tar_dir) with tarfile.open(os.path.join(parent_dir, output_file), "w:gz") as tar: for item in os.listdir('.'): print(item) tar.add(item, arcname=item) os.chdir(parent_dir) compress(str(model_tar)) # After we created the model.tar.gz archive we can upload it to Amazon S3. We will # use the sagemaker SDK to upload the model to our sagemaker session bucket.
from sagemaker.s3 import S3Uploader # upload model.tar.gz to s3
s3_model_uri=S3Uploader.upload(local_path="model.tar.gz", desired_s3_uri=f"s3://{sess.default_bucket()}/finetuned-stable-diffusion-v2-1-inpainting")
模型存档上传后,我们可以使用 HuggingfaceModel 将其部署在 Amazon SageMaker 上进行实时推理。 您可以使用 g4dn.xlarge 实例托管端点,该实例配备单个 NVIDIA Tesla T4 GPU 和 16GB VRAM。 可以激活自动缩放来处理不同的流量需求。 有关在端点中合并自动缩放的信息,请参阅 投入生产:使用 Amazon SageMaker 自动缩放拥抱脸变形器.
from sagemaker.huggingface.model import HuggingFaceModel # create Hugging Face Model Class
huggingface_model = HuggingFaceModel( model_data=s3_model_uri, # path to your model and script role=role, # iam role with permissions to create an Endpoint transformers_version="4.17", # transformers version used pytorch_version="1.10", # pytorch version used py_version='py38', # python version used
) # deploy the endpoint endpoint
predictor = huggingface_model.deploy( initial_instance_count=1, instance_type="ml.g4dn.xlarge" )
huggingface_model.deploy() 方法返回可用于请求推理的 HuggingFacePredictor 对象。 端点需要一个带有 inputs 键的 JSON,它表示模型生成图像的输入提示。 您还可以使用 num_inference_steps、guidance_scale 和“num_images_per_prompt”等参数控制生成。 predictor.predict() 函数返回一个带有“generated_images”键的 JSON,它将四个生成的图像保存为 base64 编码字符串。 我们添加了两个辅助函数 decode_base64_to_image 和 display_images,分别解码响应和显示图像。 前者解码base64编码的字符串,返回一个PIL.Image对象,后者显示PIL.Image对象列表。 请参见以下代码:
import PIL
from io import BytesIO
from IPython.display import display
import base64
import matplotlib.pyplot as plt
import json # Encoder to convert an image to json string
def encode_base64(file_name): with open(file_name, "rb") as image: image_string = base64.b64encode(bytearray(image.read())).decode() return image_string # Decode to to convert a json str to an image def decode_base64_image(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = PIL.Image.open(decoded_string) return img # display PIL images as grid
def display_images(images=None,columns=3, width=100, height=100): plt.figure(figsize=(width, height)) for i, image in enumerate(images): plt.subplot(int(len(images) / columns + 1), columns, i + 1) plt.axis('off') plt.imshow(image) # Display images in a row/col grid
def image_grid(imgs, rows, cols): assert len(imgs) == rows*cols w, h = imgs[0].size grid = PIL.Image.new('RGB', size=(cols*w, rows*h)) grid_w, grid_h = grid.size for i, img in enumerate(imgs): grid.paste(img, box=(i%cols*w, i//cols*h)) return grid
让我们继续进行绘画任务。 据估计,生成三个图像大约需要 15 秒,给定输入图像和使用 CLIPSeg 创建的掩码以及前面讨论的文本提示。 请参见以下代码:
num_images_per_prompt = 3
prompt = "A female super-model poses in a casual long vacation skirt, with full body length, bright colors, photorealistic, high quality, highly detailed, elegant, sharp focus" # Convert image to string
input_image_filename = "./imgs/skirt-model-2.jpg"
encoded_input_image = encode_base64(input_image_filename)
encoded_mask_image = encode_base64("./imgs/skirt-model-2-mask.jpg") # Set in-painint parameters
guidance_scale = 6.7
num_inference_steps = 45 # run prediction
response = predictor.predict(data={ "inputs": prompt, "input_img": encoded_input_image, "mask_img": encoded_mask_image, "num_images_per_prompt" : num_images_per_prompt, "image_length": 768 }
) # decode images
decoded_images = [decode_base64_image(image) for image in response["generated_images"]] # visualize generation
display_images(decoded_images, columns=num_images_per_prompt, width=100, height=100) # insert initial image in the list so we can compare side by side
image = PIL.Image.open(input_image_filename).convert("RGB")
decoded_images.insert(0, image) # Display inpainting images in grid
image_grid(decoded_images, 1, num_images_per_prompt + 1)
修复后的图像可以与原始图像一起显示,以便进行视觉比较。 此外,可以使用各种参数(例如 guidance_scale)来约束修复过程,该参数控制修复过程中引导图像的强度。 这允许用户调整输出图像并获得所需的结果。
亚马逊 SageMaker 快速启动 为各种模型提供稳定的扩散模板,包括文本到图像和放大。 欲了解更多信息,请参阅 SageMaker JumpStart 现在提供稳定的扩散和绽放模型. 其他 Jumpstart 模板将在不久的将来提供。
限制
尽管 CLIPSeg 通常在识别常见物体方面表现良好,但它在更抽象或系统的任务(例如计算图像中的物体数量)和更复杂的任务(例如预测照片中最近的物体(例如手提包)的距离)方面表现不佳。 与任务特定模型相比,零样本 CLIPSeq 在非常细粒度的分类上也表现不佳,例如区分两种模糊设计、服装变体或风格分类之间的差异。 CLIPSeq 对其预训练数据集中未涵盖的图像的泛化能力仍然很差。 最后,据观察,CLIP 的零样本分类器可能对措辞或短语敏感,有时需要反复试验“提示工程”才能表现良好。 为 CLIPSeq 的骨干切换到不同的语义分割模型,例如 贝特,它在 ADE62.8K 数据集上拥有 20% 的 mIOU,可能会改善结果。
已经发现,通过使用稳定扩散生成的时装设计仅限于服装的某些部分,这些部分至少在更广泛的时装模特背景中可预测地放置,并且符合您可以合理期望在中找到的高级嵌入在训练预训练模型期间使用的超大规模数据集。 生成式人工智能的真正局限在于,该模型最终会产生完全虚构的、不那么真实的输出。 因此,人工智能生成的时装设计可能不像人类设计师创造的那样多样化或独特。
结论
生成式 AI 为时尚行业提供了一个机会,可以通过更好的用户体验和具有成本效益的商业战略来转变他们的做法。 在这篇文章中,我们展示了如何利用生成式 AI 使时装设计师和消费者能够使用虚拟建模创建个性化的时尚风格。 在现有 Amazon SageMaker Jumpstart 模板和即将推出的模板的帮助下,用户无需深入的技术专业知识即可快速掌握这些高级技术,同时保持多功能性并降低费用。
这项创新技术为各行各业参与内容生成的公司和专业人士提供了新的机会。 生成式 AI 提供了丰富的功能来增强和创建内容。 试试最近添加到您的 Jumpstart 模板中的内容 SageMaker 工作室,例如微调文本到图像和高档功能。
我们要感谢 Li Zhang、Karl Albertsen、Kristine Pearce、Nikhil Velpanur、Aaron Sengstacken、James Wu 和 Neelam Koshiya 的支持和宝贵意见,帮助改进了这项工作。
作者简介
阿尔弗雷德沉 是 AWS 的高级 AI/ML 专家。 他曾在硅谷工作,在医疗保健、金融和高科技等多个领域担任技术和管理职位。 他是一位专注的应用 AI/ML 研究员,专注于 CV、NLP 和多模态。 他的工作已在 EMNLP、ICLR 和 Public Health 等出版物中发表。
Vivek Madan 博士 是 Amazon SageMaker JumpStart 团队的应用科学家。 他在伊利诺伊大学香槟分校获得博士学位,并在佐治亚理工学院担任博士后研究员。 他是机器学习和算法设计领域的活跃研究者,并在 EMNLP、ICLR、COLT、FOCS 和 SODA 会议上发表论文
- SEO 支持的内容和 PR 分发。 今天得到放大。
- 柏拉图区块链。 Web3 元宇宙智能。 知识放大。 访问这里。
- Sumber: https://aws.amazon.com/blogs/machine-learning/virtual-fashion-styling-with-generative-ai-using-amazon-sagemaker/
- 1
- 10
- 100
- 7
- a
- 亚伦
- Able
- 关于
- 摘要
- 加快
- 加速器
- ACCESS
- 配饰
- 完成
- 账号管理
- 精准的
- 横过
- 要积极。
- 适应
- 添加
- 额外
- 另外
- 增加
- 地址
- 采用
- 高级
- 忠告
- 后
- AI
- AI / ML
- 算法
- 算法
- 所有类型
- 允许
- 允许
- 已经
- Amazon
- 亚马逊SageMaker
- 亚马逊SageMaker JumpStart
- 量
- 和
- 服饰
- 出现
- 应用领域
- 应用的
- 使用
- 约
- 架构
- 档案
- 国家 / 地区
- 参数
- 人造的
- 人工智能
- ASA
- 帮助
- 关注我们
- 音频
- 真实
- 可使用
- AWS
- 骨干
- 带宽
- 银行
- 基地
- 基于
- 因为
- 开始
- 有利
- 得益
- 更好
- 之间
- 绑定
- 捆绑
- 阻止
- 博客
- Bloom
- 蓝色
- 拥有
- 身体
- 无所畏惧
- 箱
- 光明
- 光明
- 预算
- 商业
- 商业应用
- 计算
- 被称为
- 能力
- 能力
- 例
- 随便
- 中央
- 挑战
- 可能性
- 更改
- 程
- 分类
- 关闭
- 关闭
- 服装
- 云端技术
- 码
- 收集
- 颜色
- 列
- 如何
- 安慰
- 相当常见
- 公司
- 比较
- 相比
- 对照
- 补充
- 复杂
- 组件
- 计算
- 计算
- 计算
- 概念
- 配置
- 已联繫
- 常数
- 消费者
- 集装箱
- 包含
- 内容
- 内容生成
- 上下文
- 继续
- 控制
- 控制
- 兑换
- 相应
- 价格
- 可以
- 覆盖
- 创建信息图
- 创建
- 创造
- 创建
- 危急
- 关键
- 目前
- 习俗
- 顾客
- 客户满意度
- 合作伙伴
- 定制
- 定制
- data
- 减少
- 专用
- 深
- 深入学习
- 需求
- 牛仔布
- 部署
- 部署
- 部署
- 描述
- 描述
- 设计
- 设计
- 设计师
- 设计
- 期望
- 详细
- 详情
- 确定
- 差异
- 不同
- 扩散
- 直接
- 讨论
- 屏 显:
- 显示器
- 分布
- 分配
- 不同
- 域
- 下载
- 几十个
- 耐久力
- ,我们将参加
- 电子商务行业
- 容易
- 有效
- 高效
- 分子
- 消除
- 拥抱
- enable
- 使
- 使
- 包含
- 端点
- 工程师
- 加强
- 确保
- 娱乐
- 配备
- 错误
- 估计
- 黄昏
- 终于
- 发展
- 例子
- 例子
- 现有
- 期望
- 开支
- 昂贵
- 体验
- 专门知识
- 出口
- 提取
- 布
- 面料
- 面部彩妆
- 面孔
- 时尚
- 快
- 专栏
- 女
- 少数
- 保真度
- 部分
- 文件
- 档
- 填
- 最后
- 终于
- 金融
- 找到最适合您的地方
- 结束
- (名字)
- 适合
- 闪光
- 柔软
- 流
- 专注焦点
- 其次
- 以下
- 如下
- 正式
- 前
- 向前
- 发现
- 频繁
- 止
- ,
- 充分
- 功能
- 功能
- 进一步
- 此外
- 未来
- 服装
- 生成
- 产生
- 代
- 生成的
- 生成式人工智能
- 得到
- 特定
- GPU
- 图形处理器
- 图形
- 灰色
- 更大的
- 非常
- 格
- 处理
- 处理
- 马具
- 有
- 健康管理
- 医疗保健
- 高度
- 帮助
- 相关信息
- 高
- 高水平
- 高分辨率
- 更高
- 亮点
- 高度
- 保持
- 持有
- 主持人
- 创新中心
- How To
- 但是
- HTML
- HTTPS
- 中心
- 拥抱脸
- 人
- 主意
- 识别码
- 鉴定
- 伊利诺伊州
- 图片
- 图片
- 假想
- 履行
- 进口
- 重要
- 改善
- 改善
- in
- 深入
- 包括
- 包括
- 包含
- 来电
- 结合
- 增加
- 行业
- 行业中的应用:
- 信息
- 初始
- 创新
- 输入
- 安装
- 例
- 代替
- 房源搜索
- 介绍
- 参与
- IT
- 项目
- 工作
- JSON
- 键
- 标签
- 标签
- 语言
- 大
- 发射
- 层
- 领导
- 学习用品
- 知道
- 学习
- 长度
- 各级
- Li
- 自学资料库
- 极限
- 有限
- 清单
- 加载
- 装载
- 长
- 离
- 一蹴即至
- 赚钱
- 机
- 机器学习
- 主要
- 保持
- 维护
- 使
- 制作
- 管理的
- 制造商
- 制图
- 市场
- 营销
- 面膜
- 面膜
- 匹配
- 物料
- matplotlib
- 手段
- 媒体
- 内存
- 方法
- 方法
- 失踪
- ML
- 模型
- 模型
- 更多
- 最先进的
- 移动
- 运动
- 多
- 姓名
- 自然
- 近
- 必要
- 需求
- 需要
- 需要
- 网络
- 一般
- 全新
- NLP
- 节点
- 正常
- 小说
- 数
- Nvidia公司
- 对象
- 对象
- 障碍
- 提供
- 提供
- 优惠精选
- 一
- 其中的一种
- 在线
- ZAP优势
- 优化
- 附加选项
- 秩序
- 原版的
- OS
- 己
- 配对
- 配对
- 文件
- 参数
- 特别
- 部分
- 通过
- 径
- 模式
- 模式
- 演出
- 性能
- 施行
- 权限
- 个人
- 个性化
- 个性化
- 个性化你的
- 真实感
- 图片
- 管
- 管道
- 平台
- 柏拉图
- 柏拉图数据智能
- 柏拉图数据
- 请
- 贫困
- 热门
- 构成
- 职位
- 帖子
- 潜力
- 可能
- 实用
- 在练习上
- 做法
- 预测
- 预测
- 预测
- 预报器
- 喜好
- 首选
- 礼物
- 防止
- 先前
- 先
- 过程
- 生产
- 生产
- 核心产品
- 专业人士
- 正确
- 提供
- 提供
- 国家
- 公众健康
- 出版物
- 公然
- 出版
- 纯粹
- 目的
- 目的
- 蟒蛇
- pytorch
- 质量
- 很快
- 范围
- 真实
- 实时的
- 现实
- 接收
- 最近
- 建议
- 红色
- 减少
- 减少
- 引用
- 指
- 相关性
- 报道
- 代表
- 请求
- 要求
- 要求
- 需要
- 研究员
- 分辨率
- 响应
- 导致
- 导致
- 成果
- 零售
- 回报
- 回报
- RGB
- 角色
- περίπου
- 运行
- 运行
- sagemaker
- 销售
- 满意
- 保存
- 储
- 鳞片
- 科学家
- SDK
- 其次
- 秒
- 扇形
- 行业
- 分割
- 中模板
- 选择
- 前辈
- 敏感
- 服务
- 服务
- 会议
- 集
- 几个
- 尖锐
- 壳
- 短
- 应该
- 展示
- 侧
- 硅
- 硅谷
- 类似
- 简易
- 只是
- 同时
- 单
- 尺寸
- 小
- So
- 社会
- 社会化媒体
- 方案,
- 一些
- 东西
- 太空
- 特别
- 专家
- 专门
- 具体的
- 指定
- 稳定
- 标准
- 州/领地
- 步
- 步骤
- 仍
- 存储
- 存储
- 策略
- 实力
- 条纹
- 斗争
- 样式
- 主题
- 成功
- 这样
- 夏季
- 超模
- 监管
- 支持
- 量身定制
- 采取
- 需要
- 目标
- 任务
- 任务
- 团队
- 科技
- 文案
- 技术
- 专业技术
- 模板
- 条款
- 特斯拉
- 区域
- 世界
- 其
- 因此
- 三
- 通过
- 绑
- 至
- 工具
- 火炬
- 完全
- 传统
- 交通
- 培训
- 熟练
- 产品培训
- 转让
- 改造
- 变形金刚
- 旅行
- 趋势
- 试用
- 兆
- 下
- 独特
- 大学
- 上传
- 用法
- 使用
- 用户
- 用户
- 平时
- 利用
- 利用
- 利用
- 利用
- 假期
- 谷
- 有价值
- 折扣值
- 各种
- 各个
- 广阔
- 确认
- 版本
- 视频
- 在线会议
- W
- 方法
- 这
- 而
- 白色
- WHO
- 宽
- 大范围
- 更宽
- 宽度
- 将
- 中
- 也完全不需要
- 措辞
- 工作
- 工作
- 世界
- 世界银行
- 将
- 包装
- wu
- X
- 完全
- 您一站式解决方案
- 和风网
- 压缩