2021 میں، ہم نے لانچ کیا۔ AWS سپورٹ پرو ایکٹو سروسز کے حصہ کے طور پر AWS انٹرپرائز سپورٹ plan. Since its introduction, we have helped hundreds of customers optimize their workloads, set guardrails, and improve visibility of their machine learning (ML) workloads’ cost and usage.
پوسٹس کی اس سیریز میں، ہم لاگت کو بہتر بنانے کے بارے میں سیکھے گئے اسباق کا اشتراک کرتے ہیں۔ ایمیزون سیج میکرہے. میں حصہ 1، ہم نے دکھایا کہ کس طرح استعمال کرنا شروع کیا جائے۔ AWS لاگت ایکسپلورر to identify cost optimization opportunities in SageMaker. In this post, we focus on SageMaker inference environments: real-time inference, batch transform, asynchronous inference, and serverless inference.
سیج میکر۔ offers multiple inference options for you to pick from based on your workload requirements:
- ریئل ٹائم اندازہ for online, low latency, or high throughput requirements
- بیچ کی تبدیلی for offline, scheduled processing and when you don’t need a persistent endpoint
- غیر مطابقت پذیر تخمینہ for when you have large payloads with long processing times and want to queue requests
- بے سرور تخمینہ for when you have intermittent or unpredictable traffic patterns and can tolerate cold starts
In the following sections, we discuss each inference option in more detail.
سیج میکر ریئل ٹائم اندازہ
When you create an endpoint, SageMaker attaches an ایمیزون لچکدار بلاک اسٹور (Amazon EBS) storage volume to the ایمیزون لچکدار کمپیوٹ کلاؤڈ (Amazon EC2) instance that hosts the endpoint. This is true for all instance types that don’t come with a SSD storage. Because the d* instance types come with an NVMe SSD storage, SageMaker doesn’t attach an EBS storage volume to these ML compute instances. Refer to Host instance storage volumes for the size of the storage volumes that SageMaker attaches for each instance type for a single endpoint and for a multi-model endpoint.
The cost of SageMaker real-time endpoints is based on the per instance-hour consumed for each instance while the endpoint is running, the cost of GB-month of provisioned storage (EBS volume), as well as the GB data processed in and out of the endpoint instance, as outlined in ایمیزون سیج میکر قیمتوں کا تعین. In Cost Explorer, you can view real-time endpoint costs by applying a filter on the usage type. The names of these usage types are structured as follows:
REGION-Host:instanceType
(مثال کے طور پر،USE1-Host:ml.c5.9xlarge
)REGION-Host:VolumeUsage.gp2
(مثال کے طور پر،USE1-Host:VolumeUsage.gp2
)REGION-Hst:Data-Bytes-Out
(مثال کے طور پر،USE2-Hst:Data-Bytes-In
)REGION-Hst:Data-Bytes-Out
(مثال کے طور پر،USW2-Hst:Data-Bytes-Out)
As shown in the following screenshot, filtering by the usage type Host:
will show a list of real-time hosting usage types in an account.
You can either select specific usage types or select تمام منتخب کریں اور منتخب کریں کا اطلاق کریں to display the cost breakdown of SageMaker real-time hosting usage. To see the cost and usage breakdown by instance hours, you need to de-select all the REGION-Host:VolumeUsage.gp2
usage types before applying the usage type filter. You can also apply additional filters such as account number, EC2 instance type, cost allocation tag, Region, and زیادہ. The following screenshot shows cost and usage graphs for the selected hosting usage types.
Additionally, you can explore the cost associated with one or more hosting instances by using the مثال کی قسم filter. The following screenshot shows cost and usage breakdown for hosting instance ml.p2.xlarge.
Similarly, the cost for GB data processed in and processed out can be displayed by selecting the associated usage types as an applied filter, as shown in the following screenshot.
فلٹرز اور گروپ بندی کے ساتھ اپنے مطلوبہ نتائج حاصل کرنے کے بعد، آپ یا تو اپنے نتائج کو منتخب کرکے ڈاؤن لوڈ کرسکتے ہیں۔ CSV کے بطور ڈاؤن لوڈ کریں۔ یا منتخب کرکے رپورٹ کو محفوظ کریں۔ رپورٹ لائبریری میں محفوظ کریں۔. For general guidance on using Cost Explorer, refer to AWS Cost Explorer کی نئی شکل اور عام استعمال کے معاملات.
اختیاری طور پر، آپ فعال کر سکتے ہیں۔ AWS لاگت اور استعمال کی رپورٹس (AWS CUR) to gain insights into the cost and usage data for your accounts. AWS CUR contains hourly AWS consumption details. It’s stored in ایمیزون سادہ اسٹوریج سروس (Amazon S3) in the payer account, which consolidates data for all the linked accounts. You can run queries to analyze trends in your usage and take appropriate action to optimize cost. ایمیزون ایتینا is a serverless query service that you can use to analyze the data from AWS CUR in Amazon S3 using standard SQL. More information and example queries can be found in the AWS CUR استفسار لائبریری.
آپ اس میں AWS CUR ڈیٹا بھی فیڈ کر سکتے ہیں۔ ایمیزون کوئیک سائٹ, where you can slice and dice it any way you’d like for reporting or visualization purposes. For instructions, see میں Amazon QuickSight میں AWS لاگت اور استعمال کی رپورٹ (CUR) کو کیسے نگل سکتا ہوں اور اس کا تصور کیسے کرسکتا ہوں.
You can obtain resource-level information such as endpoint ARN, endpoint instance types, hourly instance rate, daily usage hours, and more from AWS CUR. You can also include cost-allocation tags in your query for an additional level of granularity. The following example query returns real-time hosting resource usage for the last 3 months for the given payer account:
The following screenshot shows the results obtained from running the query using Athena. For more information, refer to Amazon Athena کا استعمال کرتے ہوئے لاگت اور استعمال کی رپورٹوں سے استفسار کرنا.
The result of the query shows that endpoint mme-xgboost-housing
with ml.x4.xlarge instance is reporting 24 hours of runtime for multiple consecutive days. The instance rate is $0.24/hour and the daily cost for running for 24 hours is $5.76.
AWS CUR results can help you identify patterns of endpoints running for consecutive days in each of the linked accounts, as well as endpoints with the highest monthly cost. This can also help you decide whether the endpoints in non-production accounts can be deleted to save cost.
Optimize costs for real-time endpoints
From a cost management perspective, it’s important to identify under-utilized (or over-sized) instances and bring the instance size and counts, if required, in line with workload requirements. Common system metrics like CPU/GPU utilization and memory utilization are written to ایمیزون کلاؤڈ واچ for all hosting instances. For real-time endpoints, SageMaker makes several additional metrics available in CloudWatch. Some of the commonly monitored metrics include invocation counts and invocation 4xx/5xx errors. For a full list of metrics, refer to Amazon CloudWatch کے ساتھ Amazon SageMaker کی نگرانی کریں۔.
میٹرک CPUUtilization
provides the sum of each individual CPU core’s utilization. The CPU utilization of each core range is 0–100. For example, if there are four CPUs, the CPUUtilization
range is 0–400%. The metric MemoryUtilization
is the percentage of memory that is used by the containers on an instance. This value range is 0–100%. The following screenshot shows an example of CloudWatch metrics CPUUtilization
اور MemoryUtilization
for an endpoint instance ml.m4.10xlarge that comes with 40 vCPUs and 160 GiB memory.
These metrics graphs show maximum CPU utilization of approximately 3,000%, which is the equivalent of 30 vCPUs. This means that this endpoint isn’t utilizing more than 30 vCPUs out of the total capacity of 40 vCPUs. Similarly, the memory utilization is below 6%. Using this information, you can possibly experiment with a smaller instance that can match this resource need. Furthermore, the CPUUtilization
metric shows a classic pattern of periodic high and low CPU demand, which makes this endpoint a good candidate for auto scaling. You can start with a smaller instance and scale out first as your compute demand changes. For information, see ایمیزون سیج میکر ماڈلز کو خود بخود اسکیل کریں۔.
SageMaker is great for testing new models because you can easily deploy them into an A/B testing environment using پیداوار کی مختلف حالتیں, and you only pay for what you use. Each production variant runs on its own compute instance and you’re charged per instance-hour consumed for each instance while the variant is running.
سیج میکر بھی سپورٹ کرتا ہے۔ سائے کی مختلف حالتیں, which have the same components as a production variant and run on their own compute instance. With shadow variants, SageMaker automatically deploys the model in a test environment, routes a copy of the inference requests received by the production model to the test model in real time, and collects performance metrics such as latency and throughput. This enables you to validate any new candidate component of your model serving stack before promoting it to production.
When you’re done with your tests and aren’t using the endpoint or the variants extensively anymore, you should delete it to save cost. Because the model is stored in Amazon S3, you can recreate it as needed. You can automatically detect these endpoints and take corrective actions (such as deleting them) by using ایمیزون کلاؤڈ واچ ایونٹس اور او ڈبلیو ایس لامبڈا۔ functions. For example, you can use the Invocations
metric to get the total number of requests sent to a model endpoint and then detect if the endpoints have been idle for the past number of hours (with no invocations over a certain period, such as 24 hours).
If you have several under-utilized endpoint instances, consider hosting options such as ملٹی ماڈل اینڈ پوائنٹس (MMEs), ملٹی کنٹینر اینڈ پوائنٹس (MCEs), and serial inference pipelines to consolidate usage to fewer endpoint instances.
For real-time and asynchronous inference model deployment, you can optimize cost and performance by deploying models on SageMaker using AWS Graviton. AWS Graviton is a family of processors designed by AWS that provide the best price performance and are more energy efficient than their x86 counterparts. For guidance on deploying an ML model to AWS Graviton-based instances and details on the price performance benefit, refer to ایمیزون سیج میکر کے ساتھ AWS Graviton پر مبنی مثالوں پر مشین لرننگ انفرنس ورک بوجھ چلائیں. SageMaker also supports AWS Inferentia accelerators through the ml.inf2 family of instances for deploying ML models for real-time and asynchronous inference. You can use these instances on SageMaker to achieve high performance at a low cost for generative artificial intelligence (AI) models, including large language models (LLMs) and vision transformers.
اس کے علاوہ، آپ استعمال کر سکتے ہیں Amazon SageMaker Inference Recommender to run load tests and evaluate the price performance benefits of deploying your model on these instances. For additional guidance on automatically detecting idle SageMaker endpoints, as well as instance right-sizing and auto scaling for SageMaker endpoints, refer to ایمیزون سیج میکر پر کمپیوٹ کے موثر وسائل کو یقینی بنائیں.
سیج میکر بیچ ٹرانسفارم
Batch inference, or offline inference, is the process of generating predictions on a batch of observations. Offline predictions are suitable for larger datasets and in cases where you can afford to wait several minutes or hours for a response.
The cost for SageMaker batch transform is based on the per instance-hour consumed for each instance while the batch transform job is running, as outlined in ایمیزون سیج میکر قیمتوں کا تعین. In Cost Explorer, you can explore batch transform costs by applying a filter on the usage type. The name of this usage type is structured as REGION-Tsform:instanceType
(مثال کے طور پر، USE1-Tsform:ml.c5.9xlarge
).
As shown in the following screenshot, filtering by usage type Tsform:
will show a list of SageMaker batch transform usage types in an account.
You can either select specific usage types or select تمام منتخب کریں اور منتخب کریں کا اطلاق کریں to display the cost breakdown of batch transform instance usage for the selected types. As mentioned earlier, you can also apply additional filters. The following screenshot shows cost and usage graphs for the selected batch transform usage types.
Optimize costs for batch transform
SageMaker batch transform only charges you for the instances used while your jobs are running. If your data is already in Amazon S3, then there is no cost for reading input data from Amazon S3 and writing output data to Amazon S3. All output objects are attempted to be uploaded to Amazon S3. If all are successful, then the batch transform job is marked as complete. If one or more objects fail, the batch transform job is marked as failed.
Charges for batch transform jobs apply in the following scenarios:
- The job is successful
- Failure due to
ClientError
and the model container is SageMaker or a SageMaker managed framework - Failure due to
AlgorithmError
orClientError
and the model container is your own custom container (BYOC)
The following are some of the best practices for optimizing a SageMaker batch transform job. These recommendations can reduce the total runtime of your batch transform job, thereby lowering costs:
- سیٹ کریں بیچ اسٹریٹجی کرنے کے لئے
MultiRecord
اورSplitType
کرنے کے لئےLine
اگر آپ کو ان پٹ فائل سے منی بیچز بنانے کے لیے بیچ ٹرانسفارم جاب کی ضرورت ہے۔ اگر یہ ڈیٹاسیٹ کو خود بخود منی بیچز میں تقسیم نہیں کر سکتا ہے، تو آپ ہر بیچ کو ڈیٹا سورس S3 بالٹی میں رکھی ہوئی ایک الگ ان پٹ فائل میں ڈال کر اسے منی بیچز میں تقسیم کر سکتے ہیں۔ - اس بات کو یقینی بنائیں کہ بیچ کا سائز میموری میں فٹ بیٹھتا ہے۔ SageMaker عام طور پر اسے خود بخود ہینڈل کرتا ہے۔ تاہم، بیچوں کو دستی طور پر تقسیم کرتے وقت، اسے میموری کی بنیاد پر ٹیون کرنے کی ضرورت ہے۔
- Batch transform partitions the S3 objects in the input by key and maps those objects to instances. When you have multiples files, one instance might process
input1.csv
, and another instance might processinput2.csv
. If you have one input file but initialize multiple compute instances, only one instance processes the input file and the rest of the instances are idle. Make sure the number of files is equal to or greater than the number of instances. - If you have a large number of small files, it may be beneficial to combine multiple files into a small number of bigger files to reduce Amazon S3 interaction time.
- اگر آپ استعمال کررہے ہیں ٹرانسفارم جاب بنائیں API, you can reduce the time it takes to complete batch transform jobs by using optimal values for parameters such as MaxPayloadInMB, MaxConcurrentTransforms، یا بیچ اسٹریٹجی:
MaxConcurrentTransforms
indicates the maximum number of parallel requests that can be sent to each instance in a transform job. The ideal value forMaxConcurrentTransforms
is equal to the number of vCPU cores in an instance.MaxPayloadInMB
is the maximum allowed size of the payload, in MB. The value inMaxPayloadInMB
must be greater than or equal to the size of a single record. To estimate the size of a record in MB, divide the size of your dataset by the number of records. To ensure that the records fit within the maximum payload size, we recommend using a slightly larger value. The default value is 6 MB.MaxPayloadInMB
must not be greater than 100 MB. If you specify the optionalMaxConcurrentTransforms
parameter, then the value of (MaxConcurrentTransforms
*MaxPayloadInMB
) must also not exceed 100 MB.- For cases where the payload might be arbitrarily large and is transmitted using HTTP chunked encoding, set the MaxPayloadInMB value to 0. This feature works only in supported algorithms. Currently, SageMaker built-in algorithms do not support HTTP chunked encoding.
- Batch inference tasks are usually good candidates for horizontal scaling. Each worker within a cluster can operate on a different subset of data without the need to exchange information with other workers. AWS offers multiple storage and compute options that enable horizontal scaling. If a single instance is not sufficient to meet your performance requirements, consider using multiple instances in parallel to distribute the workload. For key considerations when architecting batch transform jobs, refer to Batch Inference at Scale with Amazon SageMaker.
- Continuously monitor the performance metrics of your SageMaker batch transform jobs using CloudWatch. Look for bottlenecks, such as high CPU or GPU utilization, memory usage, or network throughput, to determine if you need to adjust instance sizes or configurations.
- SageMaker uses the Amazon S3 multipart upload API to upload results from a batch transform job to Amazon S3. If an error occurs, the uploaded results are removed from Amazon S3. In some cases, such as when a network outage occurs, an incomplete multipart upload might remain in Amazon S3. To avoid incurring storage charges, we recommend that you add the S3 بالٹی پالیسی to the S3 bucket lifecycle rules. This policy deletes incomplete multipart uploads that might be stored in the S3 bucket. For more information, see اپنے اسٹوریج لائف سائیکل کا نظم کریں۔.
سیج میکر غیر مطابقت پذیر تخمینہ
Asynchronous inference is a great choice for cost-sensitive workloads with large payloads and burst traffic. Requests can take up to 1 hour to process and have payload sizes of up to 1 GB, so it’s more suitable for workloads that have relaxed latency requirements.
Invocation of asynchronous endpoints differs from real-time endpoints. Rather than passing a request payload synchronously with the request, you upload the payload to Amazon S3 and pass an S3 URI as a part of the request. Internally, SageMaker maintains a queue with these requests and processes them. During endpoint creation, you can optionally specify an ایمیزون سادہ نوٹیفکیشن سروس (Amazon SNS) topic to receive success or error notifications. When you receive the notification that your inference request has been successfully processed, you can access the result in the output Amazon S3 location.
The cost for asynchronous inference is based on the per instance-hour consumed for each instance while the endpoint is running, cost of GB-month of provisioned storage, as well as GB data processed in and out of the endpoint instance, as outlined in ایمیزون سیج میکر قیمتوں کا تعین. In Cost Explorer, you can filter asynchronous inference costs by applying a filter on the usage type. The name of this usage type is structured as REGION-AsyncInf:instanceType
(مثال کے طور پر، USE1-AsyncInf:ml.c5.9xlarge
). Note that GB volume and GB data processed usage types are the same as real-time endpoints, as mentioned earlier in this post.
As shown in the following screenshot, filtering by the usage type AsyncInf:
in Cost Explorer displays a cost breakdown by asynchronous endpoint usage types.
To see the cost and usage breakdown by instance hours, you need to de-select all the REGION-Host:VolumeUsage.gp2
usage types before applying the usage type filter. You can also apply additional filters. Resource-level information such as endpoint ARN, endpoint instance types, hourly instance rate, and daily usage hours can be obtained from AWS CUR. The following is an example of an AWS CUR query to obtain asynchronous hosting resource usage for the last 3 months:
مندرجہ ذیل اسکرین شاٹ ایتھینا کا استعمال کرتے ہوئے AWS CUR استفسار کو چلانے سے حاصل کردہ نتائج دکھاتا ہے۔
The result of the query shows that endpoint sagemaker-abc-model-5
with ml.m5.xlarge instance is reporting 24 hours of runtime for multiple consecutive days. The instance rate is $0.23/hour and the daily cost for running for 24 hours is $5.52.
As mentioned earlier, AWS CUR results can help you identify patterns of endpoints running for consecutive days, as well as endpoints with the highest monthly cost. This can also help you decide whether the endpoints in non-production accounts can be deleted to save cost.
Optimize costs for asynchronous inference
Just like the real-time endpoints, the cost for asynchronous endpoints is based on the instance type usage. Therefore, it’s important to identify under-utilized instances and resize them based on the workload requirements. In order to monitor asynchronous endpoints, SageMaker makes کئی میٹرکس جیسے ApproximateBacklogSize
, HasBacklogWithoutCapacity
, and more available in CloudWatch. These metrics can show requests in the queue for an instance and can be used for auto scaling an endpoint. SageMaker asynchronous inference also includes host-level metrics. For information on host-level metrics, see سیج میکر جابز اور اینڈ پوائنٹ میٹرکس. These metrics can show resource utilization that can help you right-size the instance.
سیج میکر سپورٹ کرتا ہے۔ آٹو اسکیلنگ for asynchronous endpoints. Unlike real-time hosted endpoints, asynchronous inference endpoints support scaling down instances to zero by setting the minimum capacity to zero. For asynchronous endpoints, SageMaker strongly recommends that you create a policy configuration for target-tracking scaling for a deployed model (variant). You need to define the scaling policy that scaled on the ApproximateBacklogPerInstance
custom metric and set the MinCapacity
value to zero.
Asynchronous inference enables you to save on costs by auto scaling the instance count to zero when there are no requests to process, so you only pay when your endpoint is processing requests. Requests that are received when there are zero instances are queued for processing after the endpoint scales up. Therefore, for use cases that can tolerate a cold start penalty of a few minutes, you can optionally scale down the endpoint instance count to zero when there are no outstanding requests and scale back up as new requests arrive. Cold start time depends on the time required to launch a new endpoint from scratch. Also, if the model itself is big, then the time can be longer. If your job is expected to take longer than the 1-hour processing time, you may want to consider SageMaker batch transform.
Additionally, you may also consider your request’s queued time combined with the processing time to choose the instance type. For example, if your use case can tolerate hours of wait time, you can choose a smaller instance to save cost.
For additional guidance on instance right-sizing and auto scaling for SageMaker endpoints, refer to ایمیزون سیج میکر پر کمپیوٹ کے موثر وسائل کو یقینی بنائیں.
بے سرور تخمینہ
Serverless inference allows you to deploy ML models for inference without having to configure or manage the underlying infrastructure. Based on the volume of inference requests your model receives, SageMaker serverless inference automatically provisions, scales, and turns off compute capacity. As a result, you pay for only the compute time to run your inference code and the amount of data processed, not for idle time. For serverless endpoints, instance provisioning is not necessary. You need to provide the memory size and maximum concurrency. Because serverless endpoints provision compute resources on demand, your endpoint may experience a few extra seconds of latency (cold start) for the first invocation after an idle period. You pay for the compute capacity used to process inference requests, billed by the millisecond, GB-month of provisioned storage, and the amount of data processed. The compute charge depends on the memory configuration you choose.
In Cost Explorer, you can filter serverless endpoints costs by applying a filter on the usage type. The name of this usage type is structured as REGION-ServerlessInf:Mem-MemorySize
(مثال کے طور پر، USE2-ServerlessInf:Mem-4GB
). Note that GB volume and GB data processed usage types are the same as real-time endpoints.
You can see the cost breakdown by applying additional filters such as account number, instance type, Region, and more. The following screenshot shows the cost breakdown by applying filters for the serverless inference usage type.
Optimize cost for serverless inference
When configuring your serverless endpoint, you can specify the memory size and maximum number of concurrent invocations. SageMaker serverless inference auto-assigns compute resources proportional to the memory you select. If you choose a larger memory size, your container has access to more vCPUs. With serverless inference, you only pay for the compute capacity used to process inference requests, billed by the millisecond, and the amount of data processed. The compute charge depends on the memory configuration you choose. The memory sizes you can choose are 1024 MB, 2048 MB, 3072 MB, 4096 MB, 5120 MB, and 6144 MB. The pricing increases with the memory size increments, as explained in ایمیزون سیج میکر قیمتوں کا تعین, so it’s important to select the correct memory size. As a general rule, the memory size should be at least as large as your model size. However, it’s a good practice to refer to memory utilization when deciding the endpoint memory size, in addition to the model size itself.
General best practices for optimizing SageMaker inference costs
Optimizing hosting costs isn’t a one-time event. It’s a continuous process of monitoring deployed infrastructure, usage patterns, and performance, and also keeping a keen eye on new innovative solutions that AWS releases that could impact cost. Consider the following best practices:
- Choose an appropriate instance type – SageMaker supports multiple instance types, each with varying combinations of CPU, GPU, memory, and storage capacities. Based on your model’s resource requirements, choose an instance type that provides the necessary resources without over-provisioning. For information about available SageMaker instance types, their specifications, and guidance on selecting the right instance, refer to ایمیزون سیج میکر پر کمپیوٹ کے موثر وسائل کو یقینی بنائیں.
- Test using local mode – In order to detect failures and debug faster, it’s recommended to test the code and container (in case of BYOC) in مقامی طرز before running the inference workload on the remote SageMaker instance. Local mode is a great way to test your scripts before running them in a SageMaker managed hosting environment.
- Optimize models to be more performant – Unoptimized models can lead to longer runtimes and use more resources. You can choose to use more or bigger instances to improve performance; however, this leads to higher costs. By optimizing your models to be more performant, you may be able to lower costs by using fewer or smaller instances while keeping the same or better performance characteristics. You can use ایمیزون سیج میکر نیو with SageMaker inference to automatically optimize models. For more details and samples, see Optimize model performance using Neo.
- Use tags and cost management tools – To maintain visibility into your inference workloads, it’s recommended to use tags as well as AWS cost management tools such as AWS بجٹ، AWS بلنگ کنسول, and the forecasting feature of Cost Explorer. You can also explore SageMaker Savings Plans as a flexible pricing model. For more information about these options, refer to حصہ 1 اس سیریز کا
نتیجہ
In this post, we provided guidance on cost analysis and best practices when using SageMaker inference options. As machine learning establishes itself as a powerful tool across industries, training and running ML models needs to remain cost-effective. SageMaker offers a wide and deep feature set for facilitating each step in the ML pipeline and provides cost optimization opportunities without impacting performance or agility. Reach out to your AWS team for cost guidance on your SageMaker workloads.
مصنفین کے بارے میں
دیپالی راجلے AWS میں ایک سینئر AI/ML ماہر ہے۔ وہ انٹرپرائز صارفین کے ساتھ کام کرتی ہے جو AWS ماحولیاتی نظام میں AI/ML سلوشنز کی تعیناتی اور برقرار رکھنے کے لیے بہترین طریقوں کے ساتھ تکنیکی رہنمائی فراہم کرتی ہے۔ اس نے این ایل پی اور کمپیوٹر ویژن پر مشتمل مختلف گہرے سیکھنے کے استعمال کے معاملات پر تنظیموں کی ایک وسیع رینج کے ساتھ کام کیا ہے۔ وہ تنظیموں کو بااختیار بنانے کے بارے میں پرجوش ہیں تاکہ ان کے استعمال کے تجربے کو بڑھانے کے لیے جنریٹو AI کا فائدہ اٹھائیں۔ اپنے فارغ وقت میں، وہ فلموں، موسیقی اور ادب سے لطف اندوز ہوتی ہیں۔
یوری روزنبرگ is the AI & ML Specialist Technical Manager for Europe, Middle East, and Africa. Based out of Israel, Uri works to empower enterprise customers on all things ML to design, build, and operate at scale. In his spare time, he enjoys cycling, hiking, and rock and roll climbing.
- SEO سے چلنے والا مواد اور PR کی تقسیم۔ آج ہی بڑھا دیں۔
- پلیٹوآئ اسٹریم۔ ویب 3 ڈیٹا انٹیلی جنس۔ علم میں اضافہ۔ یہاں تک رسائی حاصل کریں۔
- ایڈریین ایشلے کے ساتھ مستقبل کا نقشہ بنانا۔ یہاں تک رسائی حاصل کریں۔
- PREIPO® کے ساتھ PRE-IPO کمپنیوں میں حصص خریدیں اور بیچیں۔ یہاں تک رسائی حاصل کریں۔
- ماخذ: https://aws.amazon.com/blogs/machine-learning/part-5-analyze-amazon-sagemaker-spend-and-determine-cost-optimization-opportunities-based-on-usage-part-5-hosting/
- : ہے
- : ہے
- : نہیں
- :کہاں
- $UP
- 000
- 1
- 100
- 2021
- 24
- 30
- 40
- 500
- 7
- 8
- a
- قابلیت
- ہمارے بارے میں
- ایکسلریٹر
- تک رسائی حاصل
- اکاؤنٹ
- اکاؤنٹس
- حاصل
- حاصل کیا
- کے پار
- عمل
- اعمال
- شامل کریں
- اس کے علاوہ
- ایڈیشنل
- افریقہ
- کے بعد
- AI
- AI / ML
- یلگوردمز
- تمام
- تین ہلاک
- کی اجازت دیتا ہے
- پہلے ہی
- بھی
- ایمیزون
- ایمیزون EC2
- ایمیزون سیج میکر
- ایمیزون ویب سروسز
- رقم
- an
- تجزیہ
- تجزیے
- اور
- ایک اور
- کوئی بھی
- اب
- اے پی آئی
- اطلاقی
- کا اطلاق کریں
- درخواست دینا
- مناسب
- تقریبا
- کیا
- مصنوعی
- مصنوعی ذہانت
- مصنوعی انٹیلی جنس (AI)
- AS
- منسلک
- At
- منسلک کریں
- کوشش کی
- آٹو
- خود کار طریقے سے
- دستیاب
- سے اجتناب
- AWS
- واپس
- کی بنیاد پر
- BE
- کیونکہ
- رہا
- اس سے پہلے
- نیچے
- فائدہ مند
- فائدہ
- فوائد
- BEST
- بہترین طریقوں
- بہتر
- بگ
- بڑا
- بلنگ
- بلاک
- خرابی
- لانے
- تعمیر
- تعمیر میں
- لیکن
- by
- کر سکتے ہیں
- امیدوار
- امیدواروں
- صلاحیتیں
- اہلیت
- کیس
- مقدمات
- کچھ
- تبدیلیاں
- خصوصیات
- چارج
- الزام عائد کیا
- بوجھ
- انتخاب
- میں سے انتخاب کریں
- منتخب کریں
- کلاسک
- چڑھنا
- کلسٹر
- کوڈ
- سردی
- کے مجموعے
- جمع
- مل کر
- کس طرح
- آتا ہے
- کامن
- عام طور پر
- مکمل
- جزو
- اجزاء
- کمپیوٹنگ
- کمپیوٹر
- کمپیوٹر ویژن
- سمورتی
- ترتیب
- مسلسل
- غور کریں
- خیالات
- مضبوط
- مستحکم
- بسم
- کھپت
- کنٹینر
- کنٹینر
- پر مشتمل ہے
- مسلسل
- کور
- درست
- قیمت
- لاگت کا انتظام
- سرمایہ کاری مؤثر
- اخراجات
- سکتا ہے
- تخلیق
- مخلوق
- اس وقت
- اپنی مرضی کے
- گاہکوں
- روزانہ
- اعداد و شمار
- ڈیٹاسیٹس
- دن
- فیصلہ کرنا
- فیصلہ کرنا
- گہری
- گہری سیکھنے
- پہلے سے طے شدہ
- ڈیمانڈ
- انحصار کرتا ہے
- تعیناتی
- تعینات
- تعینات
- تعیناتی
- تعینات کرتا ہے
- ڈیزائن
- ڈیزائن
- مطلوبہ
- تفصیل
- تفصیلات
- اس بات کا تعین
- مختلف
- بات چیت
- دکھائیں
- دکھاتا ہے
- تقسیم کرو
- do
- نہیں کرتا
- کیا
- نہیں
- دوگنا
- نیچے
- ڈاؤن لوڈ، اتارنا
- دو
- کے دوران
- ہر ایک
- اس سے قبل
- آسانی سے
- وسطی
- ماحول
- ہنر
- یا تو
- بااختیار
- بااختیار بنانے
- کو چالو کرنے کے
- کے قابل بناتا ہے
- اختتام پوائنٹ
- توانائی
- بڑھانے کے
- کو یقینی بنانے کے
- انٹرپرائز
- ماحولیات
- ماحول
- برابر
- مساوی
- خرابی
- نقائص
- قائم ہے
- تخمینہ
- یورپ
- اندازہ
- واقعہ
- مثال کے طور پر
- حد سے تجاوز
- ایکسچینج
- توقع
- تجربہ
- تجربہ
- وضاحت کی
- تلاش
- ایکسپلورر
- بڑے پیمانے پر
- اضافی
- آنکھ
- سہولت
- FAIL
- ناکام
- خاندان
- تیز تر
- نمایاں کریں
- چند
- کم
- فائل
- فائلوں
- فلٹر
- فلٹرنگ
- فلٹر
- پہلا
- فٹ
- لچکدار
- توجہ مرکوز
- کے بعد
- مندرجہ ذیل ہے
- کے لئے
- ملا
- چار
- سے
- مکمل
- افعال
- مزید برآں
- حاصل کرنا
- جنرل
- پیدا کرنے والے
- پیداواری
- پیداواری AI۔
- حاصل
- دی
- اچھا
- GPU
- گرافکس
- عظیم
- زیادہ سے زیادہ
- گروپ
- رہنمائی
- ہینڈل
- ہے
- ہونے
- he
- مدد
- مدد
- اس کی
- ہائی
- اعلی
- سب سے زیادہ
- ان
- افقی
- میزبانی کی
- ہوسٹنگ
- ہوسٹنگ کے اخراجات
- میزبان
- گھنٹہ
- HOURS
- کس طرح
- کیسے
- تاہم
- HTML
- HTTP
- HTTPS
- سینکڑوں
- i
- مثالی
- شناخت
- ناقابل یقین
- if
- اثر
- اثر انداز کرنا
- اہم
- کو بہتر بنانے کے
- in
- شامل
- شامل ہیں
- سمیت
- اضافہ
- اشارہ کرتا ہے
- انفرادی
- صنعتوں
- معلومات
- انفراسٹرکچر
- جدید
- ان پٹ
- بصیرت
- مثال کے طور پر
- ہدایات
- انٹیلی جنس
- بات چیت
- اندرونی طور پر
- میں
- تعارف
- شامل
- اسرائیل
- IT
- میں
- خود
- ایوب
- نوکریاں
- فوٹو
- Keen
- رکھتے ہوئے
- کلیدی
- زبان
- بڑے
- بڑے
- آخری
- تاخیر
- شروع
- شروع
- قیادت
- لیڈز
- سیکھا ہے
- سیکھنے
- کم سے کم
- اسباق
- سبق سیکھا
- سطح
- لیوریج
- زندگی کا دورانیہ
- کی طرح
- لائن
- منسلک
- لسٹ
- ادب
- لوڈ
- مقامی
- محل وقوع
- لانگ
- اب
- دیکھو
- لو
- کم
- کم کرنا
- مشین
- مشین لرننگ
- برقرار رکھنے کے
- برقرار رکھنے
- برقرار رکھتا ہے
- بنا
- بناتا ہے
- انتظام
- میں کامیاب
- انتظام
- مینجمنٹ ٹولز
- مینیجر
- دستی طور پر
- نقشہ جات
- نشان لگا دیا گیا
- میچ
- زیادہ سے زیادہ
- مئی..
- کا مطلب ہے کہ
- سے ملو
- یاد داشت
- ذکر کیا
- میٹرک۔
- پیمائش کا معیار
- مشرق
- مشرق وسطی
- شاید
- کم سے کم
- منٹ
- ML
- موڈ
- ماڈل
- ماڈل
- کی نگرانی
- نگرانی کی
- نگرانی
- مہینہ
- ماہانہ
- ماہ
- زیادہ
- فلم
- ملٹی ماڈل اینڈ پوائنٹ
- ایک سے زیادہ
- موسیقی
- ضروری
- نام
- نام
- ضروری
- ضرورت ہے
- ضرورت
- ضروریات
- نیٹ ورک
- نیٹ ورک آوٹیج
- نئی
- ویزا
- نہیں
- نوٹیفیکیشن
- اطلاعات
- تعداد
- اشیاء
- حاصل
- حاصل کی
- of
- بند
- تجویز
- آف لائن
- on
- ایک
- آن لائن
- صرف
- کام
- مواقع
- زیادہ سے زیادہ
- اصلاح کے
- کی اصلاح کریں
- اصلاح
- اختیار
- آپشنز کے بھی
- or
- حکم
- تنظیمیں
- دیگر
- باہر
- گزرنا
- بیان کیا
- پیداوار
- بقایا
- پر
- خود
- متوازی
- پیرامیٹر
- پیرامیٹرز
- حصہ
- منظور
- پاسنگ
- جذباتی
- گزشتہ
- پاٹرن
- پیٹرن
- ادا
- فیصد
- کارکردگی
- مدت
- متواتر
- نقطہ نظر
- لینے
- پائپ لائن
- منصوبہ
- کی منصوبہ بندی
- پلاٹا
- افلاطون ڈیٹا انٹیلی جنس
- پلیٹو ڈیٹا
- پالیسی
- ممکنہ طور پر
- پوسٹ
- مراسلات
- طاقتور
- پریکٹس
- طریقوں
- پیشن گوئی
- قیمت
- قیمتوں کا تعین
- قیمتوں کا تعین کرنے والا ماڈل
- چالو
- عمل
- عملدرآمد
- عمل
- پروسیسنگ
- پروسیسرز
- پیداوار
- کو فروغ دینے
- فراہم
- فراہم
- فراہم کرتا ہے
- فراہم کرنے
- پراجیکٹ
- مقاصد
- ڈالنا
- سوالات
- رینج
- شرح
- بلکہ
- تک پہنچنے
- پڑھنا
- اصلی
- اصل وقت
- وصول
- موصول
- موصول
- سفارش
- سفارشات
- سفارش کی
- تجویز ہے
- ریکارڈ
- ریکارڈ
- کو کم
- خطے
- ریلیز
- رہے
- ریموٹ
- ہٹا دیا گیا
- رپورٹ
- رپورٹ
- رپورٹیں
- درخواست
- درخواستوں
- ضرورت
- ضروریات
- وسائل
- وسائل
- جواب
- باقی
- نتیجہ
- نتائج کی نمائش
- واپسی
- ٹھیک ہے
- پتھر
- لپیٹنا
- راستے
- حکمرانی
- قوانین
- رن
- چل رہا ہے
- sagemaker
- سیج میکر کا اندازہ
- اسی
- محفوظ کریں
- بچت
- پیمانے
- ترازو
- سکیلنگ
- منظرنامے
- شیڈول کے مطابق
- فیرنا
- سکرپٹ
- سیکنڈ
- سیکشنز
- دیکھنا
- منتخب
- منتخب
- سینئر
- بھیجا
- علیحدہ
- سیریز
- بے سرور
- سروس
- سروسز
- خدمت
- مقرر
- قائم کرنے
- کئی
- شیڈو
- سیکنڈ اور
- وہ
- ہونا چاہئے
- دکھائیں
- سے ظاہر ہوا
- دکھایا گیا
- شوز
- اسی طرح
- سادہ
- بعد
- ایک
- سائز
- سائز
- سلائس
- چھوٹے
- چھوٹے
- So
- حل
- کچھ
- ماخذ
- ماہر
- مخصوص
- وضاحتیں
- خرچ
- تقسیم
- ڈھیر لگانا
- معیار
- شروع کریں
- شروع
- مرحلہ
- ذخیرہ
- ذخیرہ
- سختی
- منظم
- کامیابی
- کامیاب
- کامیابی کے ساتھ
- اس طرح
- کافی
- موزوں
- حمایت
- فعال حمایت کرتے ہیں
- تائید
- کی حمایت کرتا ہے
- کے نظام
- TAG
- لے لو
- لیتا ہے
- کاموں
- ٹیم
- ٹیکنیکل
- ٹیسٹ
- ٹیسٹنگ
- ٹیسٹ
- سے
- کہ
- ۔
- ان
- ان
- تو
- وہاں.
- اس طرح
- لہذا
- یہ
- چیزیں
- اس
- ان
- کے ذریعے
- تھرو پٹ
- وقت
- اوقات
- کرنے کے لئے
- کے آلے
- اوزار
- موضوع
- کل
- ٹریفک
- ٹریننگ
- تبدیل
- ٹرانسفارمرز
- رجحانات
- سچ
- دیتا ہے
- قسم
- اقسام
- بنیادی
- برعکس
- ناقابل اعتبار
- اپ لوڈ کردہ
- استعمال
- استعمال کی شرائط
- استعمال کیس
- استعمال کیا جاتا ہے
- استعمال
- کا استعمال کرتے ہوئے
- عام طور پر
- استعمال کرنا۔
- تصدیق کریں۔
- قیمت
- اقدار
- مختلف
- مختلف
- لنک
- کی نمائش
- نقطہ نظر
- تصور
- حجم
- جلد
- انتظار
- چاہتے ہیں
- راستہ..
- we
- ویب
- ویب خدمات
- اچھا ہے
- کیا
- جب
- چاہے
- جس
- جبکہ
- وسیع
- وسیع رینج
- گے
- ساتھ
- کے اندر
- بغیر
- کام کیا
- کارکن
- کارکنوں
- کام کرتا ہے
- تحریری طور پر
- لکھا
- تم
- اور
- زیفیرنیٹ
- صفر