LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিসেস

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিসেস

আজকের ডিজিটাল বিশ্বে, বেশিরভাগ ভোক্তারা ব্যবসা এবং/অথবা পরিষেবা প্রদানকারীদের কাছে পৌঁছানোর জন্য সময় নেওয়ার পরিবর্তে তাদের গ্রাহক পরিষেবার প্রশ্নের উত্তর নিজেরাই খুঁজে পাবে। এই ব্লগ পোস্টটি একটি প্রশ্ন এবং উত্তর চ্যাটবট তৈরি করার জন্য একটি উদ্ভাবনী সমাধান অন্বেষণ করে অ্যামাজন লেক্স যেটি আপনার ওয়েবসাইট থেকে বিদ্যমান প্রায়শই জিজ্ঞাসিত প্রশ্নাবলী ব্যবহার করে। এই এআই-চালিত টুলটি বাস্তব-বিশ্বের অনুসন্ধানের দ্রুত, সঠিক প্রতিক্রিয়া প্রদান করতে পারে, গ্রাহককে দ্রুত এবং সহজে স্বাধীনভাবে সাধারণ সমস্যাগুলি সমাধান করতে দেয়।

একক ইউআরএল ইনজেশন

অনেক এন্টারপ্রাইজের কাছে তাদের ওয়েবসাইটে উপলব্ধ গ্রাহকদের জন্য প্রায়শই জিজ্ঞাসিত প্রশ্নের উত্তরগুলির একটি প্রকাশিত সেট রয়েছে। এই ক্ষেত্রে, আমরা গ্রাহকদের একটি চ্যাটবট অফার করতে চাই যা আমাদের প্রকাশিত প্রায়শই জিজ্ঞাসিত প্রশ্নাবলী থেকে তাদের প্রশ্নের উত্তর দিতে পারে। শিরোনাম ব্লগ পোস্টে LLM ব্যবহার করে কথোপকথন FAQ বৈশিষ্ট্য সহ Amazon Lex উন্নত করুন, আমরা দেখিয়েছি কিভাবে আপনি আপনার বিদ্যমান জ্ঞানের উৎস, যেমন PDF বা Word নথি দ্বারা চালিত একটি চ্যাটবট তৈরি করতে Amazon Lex এবং LlamaIndex-এর সংমিশ্রণ ব্যবহার করতে পারেন। একটি সাধারণ FAQ সমর্থন করার জন্য, FAQগুলির একটি ওয়েবসাইটের উপর ভিত্তি করে, আমাদের একটি ইনজেশন প্রক্রিয়া তৈরি করতে হবে যা ওয়েবসাইটটি ক্রল করতে পারে এবং এমবেডিং তৈরি করতে পারে যা LlamaIndex দ্বারা গ্রাহকের প্রশ্নের উত্তর দিতে ব্যবহার করা যেতে পারে। এই ক্ষেত্রে, আমরা তৈরি করা বট উপর নির্মিত হবে পূর্ববর্তী ব্লগ পোস্ট, যা ব্যবহারকারীর উচ্চারণ সহ এই এমবেডিংগুলিকে প্রশ্ন করে এবং ওয়েবসাইট FAQs থেকে উত্তর প্রদান করে৷

নিচের চিত্রটি দেখায় কিভাবে ইনজেশন প্রক্রিয়া এবং অ্যামাজন লেক্স বট আমাদের সমাধানের জন্য একসাথে কাজ করে।

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিস প্লেটোব্লকচেইন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.

সমাধান কর্মপ্রবাহে, প্রায়শই জিজ্ঞাসিত প্রশ্নাবলী সহ ওয়েবসাইট এর মাধ্যমে প্রবেশ করা হয় এডাব্লুএস ল্যাম্বদা. এই Lambda ফাংশন ওয়েবসাইট ক্রল করে এবং একটি ফলাফলে টেক্সট সংরক্ষণ করে আমাজন সিম্পল স্টোরেজ সার্ভিস (Amazon S3) বালতি। S3 বালতি তারপর একটি Lambda ফাংশন ট্রিগার করে যা অ্যামাজন S3-এ সংরক্ষিত এমবেডিং তৈরি করতে LlamaIndex ব্যবহার করে। যখন একজন শেষ-ব্যবহারকারীর কাছ থেকে একটি প্রশ্ন আসে, যেমন "আপনার রিটার্ন পলিসি কি?", অ্যামাজন লেক্স বট তার ল্যাম্বডা ফাংশন ব্যবহার করে LlamaIndex-এর সাথে একটি RAG-ভিত্তিক পদ্ধতি ব্যবহার করে এমবেডিংগুলিকে জিজ্ঞাসা করে৷ এই পদ্ধতি এবং প্রাক-প্রয়োজনীয়তা সম্পর্কে আরও তথ্যের জন্য, ব্লগ পোস্ট পড়ুন, LLM ব্যবহার করে কথোপকথন FAQ বৈশিষ্ট্য সহ Amazon Lex উন্নত করুন.

উপরে উল্লিখিত ব্লগের প্রাক-প্রয়োজনীয়তা সম্পূর্ণ হওয়ার পর, প্রথম ধাপ হল প্রায়শই জিজ্ঞাসিত প্রশ্নগুলিকে একটি ডকুমেন্ট রিপোজিটরিতে প্রবেশ করানো যা LlamaIndex দ্বারা ভেক্টরাইজড এবং ইন্ডেক্স করা যেতে পারে। নিম্নলিখিত কোড দেখায় কিভাবে এটি সম্পন্ন করতে হয়:

import logging
import sys
import requests
import html2text
from llama_index.readers.schema.base import Document
from llama_index import GPTVectorStoreIndex
from typing import List logging.basicConfig(stream=sys.stdout, level=logging.INFO)
logging.getLogger().addHandler(logging.StreamHandler(stream=sys.stdout)) class EZWebLoader: def __init__(self, default_header: str = None): self._html_to_text_parser = html2text() if default_header is None: self._default_header = {"User-agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.80 Safari/537.36"} else: self._default_header = default_header def load_data(self, urls: List[str], headers: str = None) -> List[Document]: if headers is None: headers = self._default_header documents = [] for url in urls: response = requests.get(url, headers=headers).text response = self._html2text.html2text(response) documents.append(Document(response)) return documents url = "http://www.zappos.com/general-questions"
loader = EZWebLoader()
documents = loader.load_data([url])
index = GPTVectorStoreIndex.from_documents(documents)

পূর্ববর্তী উদাহরণে, আমরা Zappos থেকে একটি পূর্বনির্ধারিত প্রায়শই জিজ্ঞাসিত প্রশ্নোত্তর ওয়েবসাইট ইউআরএল নিই এবং এটি ব্যবহার করে ইনজেস্ট করি EZWebLoader ক্লাস এই ক্লাসের সাথে, আমরা URL-এ নেভিগেট করেছি এবং পৃষ্ঠায় থাকা সমস্ত প্রশ্ন একটি সূচকে লোড করেছি। আমরা এখন একটি প্রশ্ন জিজ্ঞাসা করতে পারি যেমন "জ্যাপোসের কি উপহার কার্ড আছে?" এবং ওয়েবসাইটে আমাদের FAQ থেকে সরাসরি উত্তর পান। নিম্নলিখিত স্ক্রিনশটটি অ্যামাজন লেক্স বট পরীক্ষা কনসোল দেখায় যা প্রায়শই জিজ্ঞাসিত প্রশ্নগুলির উত্তর দেয়৷

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিস প্লেটোব্লকচেইন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.

আমরা এটি অর্জন করতে সক্ষম হয়েছি কারণ আমরা প্রথম ধাপে ইউআরএল ক্রল করেছি এবং এমবেডিং তৈরি করেছি যা LlamaIndex আমাদের প্রশ্নের উত্তর অনুসন্ধান করতে ব্যবহার করতে পারে। আমাদের বটের Lambda ফাংশন দেখায় কিভাবে এই অনুসন্ধান চালানো হয় যখনই ফলব্যাক অভিপ্রায় ফিরে আসে:

import time
import json
import os
import logging
import boto3
from llama_index import StorageContext, load_index_from_storage logger = logging.getLogger()
logger.setLevel(logging.DEBUG) def download_docstore(): # Create an S3 client s3 = boto3.client('s3') # List all objects in the S3 bucket and download each one
try: bucket_name = 'faq-bot-storage-001' s3_response = s3.list_objects_v2(Bucket=bucket_name) if 'Contents' in s3_response: for item in s3_response['Contents']: file_name = item['Key'] logger.debug("Downloading to /tmp/" + file_name) s3.download_file(bucket_name, file_name, '/tmp/' + file_name) logger.debug('All files downloaded from S3 and written to local filesystem.') except Exception as e: logger.error(e)
raise e #download the doc store locally
download_docstore() storage_context = StorageContext.from_defaults(persist_dir="/tmp/")
# load index
index = load_index_from_storage(storage_context)
query_engine = index.as_query_engine() def lambda_handler(event, context): """
Route the incoming request based on intent.
The JSON body of the request is provided in the event slot. """ # By default, treat the user request as coming from the America/New_York time zone. os.environ['TZ'] = 'America/New_York' time.tzset() logger.debug("===== START LEX FULFILLMENT ====") logger.debug(event) slots = {} if "currentIntent" in event and "slots" in event["currentIntent"]: slots = event["currentIntent"]["slots"] intent = event["sessionState"]["intent"] dialogaction = {"type": "Delegate"} message = [] if str.lower(intent["name"]) == "fallbackintent": #execute query from the input given by the user response = str.strip(query_engine.query(event["inputTranscript"]).response) dialogaction["type"] = "Close" message.append({'content': f'{response}', 'contentType': 'PlainText'}) final_response = { "sessionState": { "dialogAction": dialogaction, "intent": intent }, "messages": message } logger.debug(json.dumps(final_response, indent=1)) logger.debug("===== END LEX FULFILLMENT ====") return final_response

এই সমাধানটি ভাল কাজ করে যখন একটি একক ওয়েবপেজে সমস্ত উত্তর থাকে। যাইহোক, বেশিরভাগ FAQ সাইটগুলি একক পৃষ্ঠায় তৈরি করা হয় না। উদাহরণ স্বরূপ, আমাদের Zappos উদাহরণে, যদি আমরা প্রশ্ন করি "আপনার কি মূল্যের সাথে মিল রাখার নীতি আছে?", তাহলে নিচের স্ক্রিনশটে দেখানো হিসাবে আমরা একটি সন্তোষজনক উত্তর পাই।

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিস প্লেটোব্লকচেইন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.

পূর্ববর্তী মিথস্ক্রিয়ায়, মূল্য-মিল নীতির উত্তর আমাদের ব্যবহারকারীর জন্য সহায়ক নয়। এই উত্তরটি সংক্ষিপ্ত কারণ উল্লেখ করা প্রায়শই জিজ্ঞাসিত প্রশ্ন মূল্যের মিল নীতি সম্পর্কে একটি নির্দিষ্ট পৃষ্ঠার একটি লিঙ্ক এবং আমাদের ওয়েব ক্রল শুধুমাত্র একক পৃষ্ঠার জন্য ছিল। আরও ভাল উত্তর অর্জনের অর্থ এই লিঙ্কগুলিও ক্রল করা। পরবর্তী বিভাগটি দেখায় কিভাবে প্রশ্নগুলির উত্তর পেতে হয় যেগুলির জন্য পৃষ্ঠার গভীরতার দুই বা ততোধিক স্তর প্রয়োজন।

এন-লেভেল ক্রলিং

যখন আমরা FAQ জ্ঞানের জন্য একটি ওয়েব পৃষ্ঠা ক্রল করি, তখন আমরা যে তথ্য চাই তা লিঙ্কযুক্ত পৃষ্ঠাগুলিতে থাকতে পারে। উদাহরণস্বরূপ, আমাদের Zappos উদাহরণে, আমরা প্রশ্ন জিজ্ঞাসা করি "আপনার কি মূল্যের সাথে মিল রাখার নীতি আছে?" এবং উত্তর হল "হ্যাঁ অনুগ্রহ করে দেখুন আরও জানতে." যদি কেউ জিজ্ঞাসা করে "আপনার মূল্যের মিল নীতি কি?" তারপর আমরা নীতির সাথে একটি সম্পূর্ণ উত্তর দিতে চাই। এটি অর্জন করার অর্থ হল আমাদের শেষ-ব্যবহারকারীর জন্য প্রকৃত তথ্য পেতে আমাদের লিঙ্কগুলি অতিক্রম করতে হবে। ইনজেশন প্রক্রিয়া চলাকালীন, আমরা আমাদের ওয়েব লোডার ব্যবহার করে অন্যান্য HTML পৃষ্ঠাগুলির অ্যাঙ্কর লিঙ্কগুলি খুঁজে পেতে পারি এবং তারপরে সেগুলি অতিক্রম করতে পারি৷ আমাদের ওয়েব ক্রলারে নিম্নলিখিত কোড পরিবর্তন আমাদের ক্রল করা পৃষ্ঠাগুলিতে লিঙ্কগুলি খুঁজে পেতে দেয়। এটি বৃত্তাকার ক্রলিং এড়াতে এবং একটি উপসর্গ দ্বারা একটি ফিল্টার করার অনুমতি দেওয়ার জন্য কিছু অতিরিক্ত যুক্তিও অন্তর্ভুক্ত করে।

import logging
import requests
import html2text
from llama_index.readers.schema.base import Document
from typing import List
import re def find_http_urls_in_parentheses(s: str, prefix: str = None): pattern = r'((https?://[^)]+))' urls = re.findall(pattern, s) matched = [] if prefix is not None: for url in urls: if str(url).startswith(prefix): matched.append(url) else: matched = urls return list(set(matched)) # remove duplicates by converting to set, then convert back to list class EZWebLoader: def __init__(self, default_header: str = None): self._html_to_text_parser = html2text if default_header is None: self._default_header = {"User-agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.80 Safari/537.36"} else: self._default_header = default_header def load_data(self, urls: List[str], num_levels: int = 0, level_prefix: str = None, headers: str = None) -> List[Document]: logging.info(f"Number of urls: {len(urls)}.") if headers is None: headers = self._default_header documents = [] visited = {} for url in urls: q = [url] depth = num_levels for page in q: if page not in visited: #prevent cycles by checking to see if we already crawled a link logging.info(f"Crawling {page}") visited[page] = True #add entry to visited to prevent re-crawling pages response = requests.get(page, headers=headers).text response = self._html_to_text_parser.html2text(response) #reduce html to text documents.append(Document(response)) if depth > 0: #crawl linked pages ingest_urls = find_http_urls_in_parentheses(response, level_prefix) logging.info(f"Found {len(ingest_urls)} pages to crawl.") q.extend(ingest_urls) depth -= 1 #reduce the depth counter so we go only num_levels deep in our crawl else: logging.info(f"Skipping {page} as it has already been crawled") logging.info(f"Number of documents: {len(documents)}.") return documents url = "http://www.zappos.com/general-questions"
loader = EZWebLoader()
#crawl the site with 1 level depth and prefix of "/c/" for customer service root
documents = loader.load_data([url], num_levels=1, level_prefix="https://www.zappos.com/c/")
index = GPTVectorStoreIndex.from_documents(documents)

পূর্ববর্তী কোডে, আমরা N স্তরের গভীরে ক্রল করার ক্ষমতা প্রবর্তন করি, এবং আমরা একটি উপসর্গ দিই যা আমাদের শুধুমাত্র একটি নির্দিষ্ট URL প্যাটার্ন দিয়ে শুরু হওয়া জিনিসগুলিতে ক্রলিং সীমাবদ্ধ করতে দেয়। আমাদের Zappos উদাহরণে, গ্রাহক পরিষেবা পৃষ্ঠাগুলি সবগুলি থেকে রুট করা হয়েছে৷ zappos.com/c, তাই আমরা আমাদের ক্রলগুলিকে একটি ছোট এবং আরও প্রাসঙ্গিক উপসেটে সীমাবদ্ধ করতে একটি উপসর্গ হিসাবে অন্তর্ভুক্ত করি। কোডটি দেখায় কিভাবে আমরা দুটি স্তর পর্যন্ত গভীরে প্রবেশ করতে পারি। আমাদের বটের ল্যাম্বডা যুক্তি একই রয়ে গেছে কারণ ক্রলার আরও নথি গ্রহণ করা ছাড়া কিছুই পরিবর্তন হয়নি।

আমাদের কাছে এখন সমস্ত নথি সূচিবদ্ধ আছে এবং আমরা আরও বিস্তারিত প্রশ্ন করতে পারি। নিম্নলিখিত স্ক্রিনশটে, আমাদের বট "আপনার কি মূল্যের সাথে মিল রাখার নীতি আছে?" প্রশ্নের সঠিক উত্তর প্রদান করে।

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিস প্লেটোব্লকচেইন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.

আমরা এখন মূল্য মিল সম্পর্কে আমাদের প্রশ্নের একটি সম্পূর্ণ উত্তর আছে. "হ্যাঁ আমাদের নীতি দেখুন" বলার পরিবর্তে এটি আমাদের দ্বিতীয়-স্তরের ক্রল থেকে বিশদ বিবরণ দেয়।

পরিষ্কার কর

ভবিষ্যতের খরচ এড়াতে, এই অনুশীলনের অংশ হিসাবে মোতায়েন করা সমস্ত সংস্থান মুছে ফেলার সাথে এগিয়ে যান। আমরা সেজমেকার এন্ডপয়েন্টটি ভালোভাবে বন্ধ করার জন্য একটি স্ক্রিপ্ট প্রদান করেছি। ব্যবহারের বিবরণ README-এ রয়েছে। অতিরিক্তভাবে, আপনি চালাতে পারেন এমন সমস্ত অন্যান্য সংস্থানগুলি সরাতে cdk destroy আপনার স্ট্যাকের সমস্ত রিসোর্স ডিপ্রভিশন করার জন্য অন্যান্য cdk কমান্ডের মতো একই ডিরেক্টরিতে।

উপসংহার

একটি চ্যাটবটে প্রায়শই জিজ্ঞাসিত প্রশ্নগুলির একটি সেট গ্রহণ করার ক্ষমতা আপনার গ্রাহকদেরকে তাদের প্রশ্নের উত্তরগুলি সহজবোধ্য, স্বাভাবিক ভাষার প্রশ্নের সাথে খুঁজে পেতে সক্ষম করে৷ LlamaIndex এর মতো একটি RAG সমাধানের সাথে ফলব্যাক হ্যান্ডলিংয়ের জন্য Amazon Lex-এ অন্তর্নির্মিত সমর্থন একত্রিত করে, আমরা আমাদের গ্রাহকদের প্রায়শই জিজ্ঞাসিত প্রশ্নগুলির সন্তোষজনক, কিউরেটেড এবং অনুমোদিত উত্তর পেতে একটি দ্রুত পথ প্রদান করতে পারি। আমাদের সমাধানে এন-লেভেল ক্রলিং প্রয়োগ করে, আমরা এমন উত্তরগুলির জন্য অনুমতি দিতে পারি যা সম্ভবত একাধিক FAQ লিঙ্কগুলিকে বিস্তৃত করতে পারে এবং আমাদের গ্রাহকের প্রশ্নের গভীর উত্তর প্রদান করতে পারে৷ এই পদক্ষেপগুলি অনুসরণ করে, আপনি আপনার অ্যামাজন লেক্স চ্যাটবটে শক্তিশালী LLM-ভিত্তিক Q এবং A ক্ষমতা এবং দক্ষ ইউআরএল ইনজেশনকে নির্বিঘ্নে অন্তর্ভুক্ত করতে পারেন। এর ফলে ব্যবহারকারীদের সাথে আরও সঠিক, ব্যাপক এবং প্রাসঙ্গিকভাবে সচেতন মিথস্ক্রিয়া হয়।


লেখক সম্পর্কে

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিস প্লেটোব্লকচেইন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.ম্যাক্স হেঙ্কেল-ওয়ালেস AWS Lex এ একজন সফটওয়্যার ডেভেলপমেন্ট ইঞ্জিনিয়ার। তিনি গ্রাহকের সাফল্যকে সর্বাধিক করার জন্য প্রযুক্তির ব্যবহার উপভোগ করেন। কাজের বাইরে তিনি রান্না, বন্ধুদের সাথে সময় কাটানো এবং ব্যাকপ্যাকিংয়ের প্রতি আগ্রহী।

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিস প্লেটোব্লকচেইন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.গান ফেং প্রাকৃতিক ভাষা প্রক্রিয়াকরণ এবং কৃত্রিম বুদ্ধিমত্তায় বিশেষজ্ঞ, AWS AI ল্যাবসের একজন সিনিয়র ফলিত বিজ্ঞানী। তার গবেষণা ডকুমেন্ট-গ্রাউন্ডেড ডায়ালগ মডেলিং, টাস্ক-ভিত্তিক সংলাপের জন্য যুক্তি এবং মাল্টিমডাল ডেটা ব্যবহার করে ইন্টারেক্টিভ টেক্সট জেনারেশন সহ এই ক্ষেত্রগুলির বিভিন্ন দিক অন্বেষণ করে।

LLM সহ Amazon Lex উন্নত করুন এবং URL ইনজেশন ব্যবহার করে প্রায়শই জিজ্ঞাসিত প্রশ্নের অভিজ্ঞতা উন্নত করুন | আমাজন ওয়েব সার্ভিস প্লেটোব্লকচেইন ডেটা ইন্টেলিজেন্স। উল্লম্ব অনুসন্ধান. আ.জন বাকের তিনি AWS-এর একজন প্রধান SDE যেখানে তিনি প্রাকৃতিক ভাষা প্রক্রিয়াকরণ, বড় ভাষা মডেল এবং অন্যান্য ML/AI সম্পর্কিত প্রকল্পগুলিতে কাজ করেন। তিনি 9+ বছর ধরে অ্যামাজনের সাথে আছেন এবং AWS, Alexa এবং Amazon.com জুড়ে কাজ করেছেন। তার অবসর সময়ে, জন প্রশান্ত মহাসাগরীয় উত্তর-পশ্চিম জুড়ে স্কিইং এবং অন্যান্য বহিরঙ্গন কার্যকলাপ উপভোগ করেন।

সময় স্ট্যাম্প:

থেকে আরো এডাব্লুএস মেশিন লার্নিং

অ্যামাজন সেজমেকার স্টুডিও এবং সেজমেকার নোটবুক ইন্সট্যান্স এখন জুপিটারল্যাব 3 নোটবুকের সাথে বিকাশকারীর উত্পাদনশীলতা বাড়াতে এসেছে

উত্স নোড: 1344320
সময় স্ট্যাম্প: জুন 6, 2022

AWS আপনার AI কৌশল পরিকল্পনা করার জন্য নতুন কৃত্রিম বুদ্ধিমত্তা, মেশিন লার্নিং এবং জেনারেটিভ এআই গাইড অফার করে | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 1867163
সময় স্ট্যাম্প: জুলাই 26, 2023

কিভাবে Sportradar বর্ধিত কর্মক্ষমতা এবং দক্ষতার জন্য উৎপাদন-স্কেল এমএল প্ল্যাটফর্ম তৈরি করতে ডিপ জাভা লাইব্রেরি ব্যবহার করেছে

উত্স নোড: 1827320
সময় স্ট্যাম্প: এপ্রিল 19, 2023

অ্যামাজন ফ্রড ডিটেক্টরে নতুন অ্যাকাউন্ট টেকওভার ইনসাইটস মডেলের সাথে লগইন করার সময় অ্যাকাউন্ট টেকওভার প্রতিরোধ করুন

উত্স নোড: 1718069
সময় স্ট্যাম্প: অক্টোবর 5, 2022