मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़न वेब सेवाएँ

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़न वेब सेवाएँ

आज, हमें यह घोषणा करते हुए खुशी हो रही है कि मिक्सट्रल-8x7बी मिस्ट्रल एआई द्वारा विकसित लार्ज लैंग्वेज मॉडल (एलएलएम) ग्राहकों के लिए उपलब्ध है अमेज़न SageMaker जम्पस्टार्ट चालू अनुमान के लिए एक क्लिक से तैनात करना। मिक्सट्रल-8x7बी एलएलएम विशेषज्ञ मॉडल का एक पूर्व-प्रशिक्षित विरल मिश्रण है, जो प्रति फ़ीड-फ़ॉरवर्ड परत में आठ विशेषज्ञों के साथ 7-बिलियन पैरामीटर बैकबोन पर आधारित है। आप इस मॉडल को सेजमेकर जंपस्टार्ट, एक मशीन लर्निंग (एमएल) हब के साथ आज़मा सकते हैं जो एल्गोरिदम और मॉडल तक पहुंच प्रदान करता है ताकि आप जल्दी से एमएल के साथ शुरुआत कर सकें। इस पोस्ट में, हम मिक्सट्रल-8x7B मॉडल को खोजने और तैनात करने के तरीके के बारे में जानेंगे।

मिक्सट्राल-8x7बी क्या है?

मिक्सट्रल-8x7बी मिस्ट्रल एआई द्वारा विकसित एक फाउंडेशन मॉडल है, जो कोड जनरेशन क्षमताओं के साथ अंग्रेजी, फ्रेंच, जर्मन, इतालवी और स्पेनिश पाठ का समर्थन करता है। यह विभिन्न प्रकार के उपयोग के मामलों का समर्थन करता है जैसे कि पाठ सारांश, वर्गीकरण, पाठ पूर्णता और कोड पूर्णता। यह चैट मोड में अच्छा व्यवहार करता है। मॉडल की सीधी अनुकूलन क्षमता को प्रदर्शित करने के लिए, मिस्ट्रल एआई ने चैट उपयोग के मामलों के लिए एक मिक्सट्रल-8x7बी-इंस्ट्रक्शन मॉडल भी जारी किया है, जिसे विभिन्न प्रकार के सार्वजनिक रूप से उपलब्ध वार्तालाप डेटासेट का उपयोग करके ठीक किया गया है। मिक्सट्रल मॉडल की बड़ी संदर्भ लंबाई 32,000 टोकन तक होती है।

मिक्सट्राल-8x7बी पिछले अत्याधुनिक मॉडलों की तुलना में महत्वपूर्ण प्रदर्शन सुधार प्रदान करता है। विशेषज्ञों की वास्तुकला का इसका विरल मिश्रण इसे 9 प्राकृतिक भाषा प्रसंस्करण (एनएलपी) बेंचमार्क में से 12 पर बेहतर प्रदर्शन परिणाम प्राप्त करने में सक्षम बनाता है। मिस्ट्रल एआई. मिक्सट्राल अपने आकार से 10 गुना तक मॉडलों के प्रदर्शन से मेल खाता है या उससे अधिक है। केवल प्रति टोकन मापदंडों के एक अंश का उपयोग करके, यह समतुल्य आकार के घने मॉडल की तुलना में तेज अनुमान गति और कम कम्प्यूटेशनल लागत प्राप्त करता है - उदाहरण के लिए, कुल 46.7 बिलियन पैरामीटर के साथ, लेकिन प्रति टोकन केवल 12.9 बिलियन का उपयोग किया जाता है। उच्च प्रदर्शन, बहुभाषी समर्थन और कम्प्यूटेशनल दक्षता का यह संयोजन मिक्सट्राल-8x7B को एनएलपी अनुप्रयोगों के लिए एक आकर्षक विकल्प बनाता है।

मॉडल को बिना किसी प्रतिबंध के उपयोग के लिए अनुमेय अपाचे 2.0 लाइसेंस के तहत उपलब्ध कराया गया है।

सेजमेकर जम्पस्टार्ट क्या है?

सेजमेकर जम्पस्टार्ट के साथ, एमएल व्यवसायी सर्वश्रेष्ठ प्रदर्शन करने वाले फाउंडेशन मॉडल की बढ़ती सूची में से चुन सकते हैं। एमएल प्रैक्टिशनर फाउंडेशन मॉडल को समर्पित करने के लिए तैनात कर सकते हैं अमेज़न SageMaker एक नेटवर्क पृथक वातावरण के भीतर उदाहरण, और मॉडल प्रशिक्षण और तैनाती के लिए सेजमेकर का उपयोग करके मॉडल को अनुकूलित करें।

अब आप कुछ ही क्लिक में मिक्सट्राल-8x7बी को खोज और तैनात कर सकते हैं अमेज़ॅन सैजमेकर स्टूडियो या सेजमेकर पायथन एसडीके के माध्यम से प्रोग्रामेटिक रूप से, आपको सेजमेकर सुविधाओं के साथ मॉडल प्रदर्शन और एमएलओपीएस नियंत्रण प्राप्त करने में सक्षम बनाता है जैसे अमेज़न SageMaker पाइपलाइन, अमेज़न SageMaker डिबगर, या कंटेनर लॉग। मॉडल को AWS सुरक्षित वातावरण में और आपके VPC नियंत्रण में तैनात किया गया है, जिससे डेटा सुरक्षा सुनिश्चित करने में मदद मिलती है।

मॉडल खोजें

आप सेजमेकर स्टूडियो यूआई और सेजमेकर पायथन एसडीके में सेजमेकर जम्पस्टार्ट के माध्यम से मिक्सट्राल-8x7बी फाउंडेशन मॉडल तक पहुंच सकते हैं। इस अनुभाग में, हम सेजमेकर स्टूडियो में मॉडलों की खोज कैसे करें, इसके बारे में जानेंगे।

सेजमेकर स्टूडियो एक एकीकृत विकास वातावरण (आईडीई) है जो एकल वेब-आधारित विज़ुअल इंटरफ़ेस प्रदान करता है जहां आप डेटा तैयार करने से लेकर निर्माण, प्रशिक्षण और अपने एमएल मॉडल को तैनात करने तक सभी एमएल विकास चरणों को करने के लिए उद्देश्य-निर्मित टूल तक पहुंच सकते हैं। सेजमेकर स्टूडियो कैसे शुरू करें और स्थापित करें, इसके बारे में अधिक जानकारी के लिए देखें अमेज़ॅन सैजमेकर स्टूडियो.

सेजमेकर स्टूडियो में, आप चुनकर सेजमेकर जम्पस्टार्ट तक पहुंच सकते हैं कूदना शुरू करो नेविगेशन फलक में

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

सेजमेकर जम्पस्टार्ट लैंडिंग पृष्ठ से, आप खोज बॉक्स में "मिक्सट्रल" खोज सकते हैं। आपको मिक्सट्रल 8x7बी और मिक्सट्रल 8x7बी इंस्ट्रक्शन दिखाते हुए खोज परिणाम दिखाई देंगे।

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

आप मॉडल के बारे में विवरण देखने के लिए मॉडल कार्ड चुन सकते हैं जैसे लाइसेंस, प्रशिक्षण के लिए उपयोग किया गया डेटा और उपयोग कैसे करें। आपको यह भी मिलेगा तैनाती बटन, जिसका उपयोग आप मॉडल को तैनात करने और एक समापन बिंदु बनाने के लिए कर सकते हैं।

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

एक मॉडल तैनात करें

जब आप चुनते हैं तो परिनियोजन प्रारंभ हो जाता है तैनाती. परिनियोजन समाप्त होने के बाद, आपके लिए एक समापन बिंदु बनाया गया है। आप नमूना अनुमान अनुरोध पेलोड पास करके या एसडीके का उपयोग करके अपने परीक्षण विकल्प का चयन करके समापन बिंदु का परीक्षण कर सकते हैं। जब आप एसडीके का उपयोग करने का विकल्प चुनते हैं, तो आपको उदाहरण कोड दिखाई देगा जिसे आप सेजमेकर स्टूडियो में अपने पसंदीदा नोटबुक संपादक में उपयोग कर सकते हैं।

एसडीके का उपयोग करके तैनात करने के लिए, हम द्वारा निर्दिष्ट मिक्सट्रल-8x7बी मॉडल का चयन करके शुरुआत करते हैं model_id with value huggingface-llm-mixtral-8x7b. आप निम्नलिखित कोड के साथ सेजमेकर पर किसी भी चयनित मॉडल को तैनात कर सकते हैं। इसी प्रकार, आप Mixtral-8x7B निर्देश को उसके स्वयं के मॉडल आईडी का उपयोग करके तैनात कर सकते हैं:

from sagemaker.jumpstart.model import JumpStartModel model = JumpStartModel(model_id="huggingface-llm-mixtral-8x7b")
predictor = model.deploy()

यह मॉडल को सेजमेकर पर डिफ़ॉल्ट कॉन्फ़िगरेशन के साथ तैनात करता है, जिसमें डिफ़ॉल्ट इंस्टेंस प्रकार और डिफ़ॉल्ट वीपीसी कॉन्फ़िगरेशन शामिल हैं। आप गैर-डिफ़ॉल्ट मान निर्दिष्ट करके इन कॉन्फ़िगरेशन को बदल सकते हैं जम्पस्टार्टमॉडल.

इसे तैनात करने के बाद, आप सेजमेकर भविष्यवक्ता के माध्यम से तैनात समापन बिंदु के खिलाफ अनुमान चला सकते हैं:

payload = {"inputs": "Hello!"} predictor.predict(payload)

उदाहरण संकेत देता है

आप किसी भी मानक टेक्स्ट जेनरेशन मॉडल की तरह मिक्सट्रल-8x7B मॉडल के साथ इंटरैक्ट कर सकते हैं, जहां मॉडल एक इनपुट अनुक्रम को संसाधित करता है और अनुक्रम में अगले शब्दों की भविष्यवाणी करता है। इस अनुभाग में, हम उदाहरण संकेत प्रदान करते हैं।

कोड पीढ़ी

पिछले उदाहरण का उपयोग करते हुए, हम निम्नलिखित की तरह कोड जनरेशन संकेतों का उपयोग कर सकते हैं:

# Code generation
payload = { "inputs": "Write a program to compute factorial in python:", "parameters": { "max_new_tokens": 200, },
}
predictor.predict(payload)

आपको निम्न आउटपुट मिलते हैं:

Input Text: Write a program to compute factorial in python:
Generated Text:
Factorial of a number is the product of all the integers from 1 to that number. For example, factorial of 5 is 1*2*3*4*5 = 120. Factorial of 0 is 1. Factorial of a negative number is not defined. The factorial of a number can be written as n!. For example, 5! = 120. ## Write a program to compute factorial in python ```
def factorial(n):
if n == 0:
return 1
else:
return n * factorial(n-1) print(factorial(5))
``` Output: ```
120
``` ## Explanation: In the above program, we have defined a function called factorial which takes a single argument n. If n is equal to 0, then we return 1. Otherwise, we return n multiplied by the factorial of n-1. We then call the factorial function with the argument 5 and print the result. The output of the program is 120, which is the factorial of 5. ## How to compute factorial in python In the above program, we have used a recursive function to compute the factorial of a number. A recursive function is a function that calls itself. In this case, the factorial function calls itself with the argument n-1. This process continues until n is equal to 0, at which point the function returns 1. The factorial of a number can also be computed using a loop. For example, the following program uses a for loop to compute the factorial of a number: ```
def factorial(n):
result = 1
for i in range(1, n+1):
result *= i
return result

भावना विश्लेषण संकेत

आप मिक्सट्रल 8x7बी के साथ निम्नलिखित संकेत का उपयोग करके भावना विश्लेषण कर सकते हैं:

payload = { "inputs": """
Tweet: "I hate it when my phone battery dies."
Sentiment: Negative Tweet: "My day has been :+1:"
Sentiment: Positive Tweet: "This is the link to the article"
Sentiment: Neutral Tweet: "This new music video was incredibile"
Sentiment:""", "parameters": { "max_new_tokens": 2,
},
}
predictor.predict(payload)

आपको निम्न आउटपुट मिलते हैं:

Input Text: Tweet: "I hate it when my phone battery dies."
Sentiment: Negative
###
Tweet: "My day has been :+1:"
Sentiment: Positive
###
Tweet: "This is the link to the article"
Sentiment: Neutral
###
Tweet: "This new music video was incredibile"
Sentiment:
Generated Text:  Positive

प्रश्न उत्तर संकेत

आप Mixtral-8x7B के साथ निम्नलिखित जैसे प्रश्न उत्तर संकेत का उपयोग कर सकते हैं:

# Question answering
payload = { "inputs": "Could you remind me when was the C programming language invented?", "parameters": { "max_new_tokens": 100, },
}
query_endpoint(payload)

आपको निम्न आउटपुट मिलते हैं:

Input Text: Could you remind me when was the C programming language invented?
Generated Text: C was invented in 1972 by Dennis Ritchie at Bell Labs. C is a general-purpose programming language. It was invented to write the UNIX operating system. C is a structured programming language. It is a middle-level language. It is a procedural language. C is a compiled language. It is a portable language. C is a case-sensitive language. It is a free-form language

मिक्सट्रल-8x7बी निर्देश

मिक्सट्रल-8x7बी का निर्देश-ट्यून किया गया संस्करण स्वरूपित निर्देशों को स्वीकार करता है जहां वार्तालाप भूमिकाएं उपयोगकर्ता के संकेत से शुरू होनी चाहिए और उपयोगकर्ता निर्देश और सहायक (मॉडल उत्तर) के बीच वैकल्पिक होनी चाहिए। निर्देश प्रारूप का कड़ाई से सम्मान किया जाना चाहिए, अन्यथा मॉडल उप-इष्टतम आउटपुट उत्पन्न करेगा। इंस्ट्रक्शन मॉडल के लिए प्रॉम्प्ट बनाने के लिए उपयोग किए जाने वाले टेम्पलेट को इस प्रकार परिभाषित किया गया है:

<s> [INST] Instruction [/INST] Model answer</s> [INST] Follow-up instruction [/INST]]

ध्यान दें कि <s> और </s> स्ट्रिंग की शुरुआत (बीओएस) और स्ट्रिंग के अंत (ईओएस) के लिए विशेष टोकन हैं, जबकि [INST] और [/INST] नियमित तार हैं.

निम्नलिखित कोड दिखाता है कि आप प्रॉम्प्ट को निर्देश प्रारूप में कैसे प्रारूपित कर सकते हैं:

from typing import Dict, List def format_instructions(instructions: List[Dict[str, str]]) -> List[str]: """Format instructions where conversation roles must alternate user/assistant/user/assistant/...""" prompt: List[str] = [] for user, answer in zip(instructions[::2], instructions[1::2]): prompt.extend(["<s>", "[INST] ", (user["content"]).strip(), " [/INST] ", (answer["content"]).strip(), "</s>"]) prompt.extend(["<s>", "[INST] ", (instructions[-1]["content"]).strip(), " [/INST] ","</s>"]) return "".join(prompt) def print_instructions(prompt: str, response: str) -> None: bold, unbold = '33[1m', '33[0m' print(f"{bold}> Input{unbold}n{prompt}nn{bold}> Output{unbold}n{response[0]['generated_text']}n")

ज्ञान पुनर्प्राप्ति

आप ज्ञान पुनर्प्राप्ति संकेत के लिए निम्नलिखित कोड का उपयोग कर सकते हैं:

instructions = [{"role": "user", "content": "what is the recipe of mayonnaise?"}]
prompt = format_instructions(instructions)
payload = { "inputs": prompt, "parameters": {"max_new_tokens": 315, "do_sample": True}
}
response=predictor.predict(payload)
print_instructions(prompt, response)

आपको निम्न आउटपुट मिलते हैं:

> Input
<s>[INST] what is the recipe of mayonnaise? [/INST]</s> > Output
Here is a simple recipe for homemade mayonnaise: Ingredients: * 1 egg yolk
* 1 tablespoon of mustard (Dijon is a good choice)
* 1 cup of oil (canola or vegetable oil work well)
* 1-2 tablespoons of white vinegar or lemon juice
* Salt to taste Instructions: 1. In a medium bowl, whisk together the egg yolk and mustard. It is important that these ingredients are at room temperature.
2. Start adding the oil drop by drop, whisking continuously. This step is crucial to ensure that the mayonnaise emulsifies and does not separate.
3. Once you have added about a quarter of the oil and the mixture has thickened, you can start adding the oil in a thin stream, still whisking constantly.
4. When all the oil has been incorporated and the mayonnaise is thick, whisk in the vinegar or lemon juice and salt to taste.
5. If the mayonnaise is too thick, you can thin it with a little water.
6. Store the mayonnaise in the refrigerator and use within a few days. Note: It is important to use pasteurized eggs or egg yolks when making homemade mayonnaise to reduce the risk of foodborne illness.

कोडन

मिक्सट्रल मॉडल कोडिंग कार्यों के लिए बेंचमार्क की गई ताकत प्रदर्शित कर सकते हैं, जैसा कि निम्नलिखित कोड में दिखाया गया है:

instructions = [
{ "role": "user", "content": "In Bash, how do I list all text files in the current directory (excluding subdirectories) that have been modified in the last month?",
}
]
prompt = format_instructions(instructions)
payload = { "inputs": prompt, "parameters": {"max_new_tokens": 256, "do_sample": True, "temperature": 0.2}
}
response=predictor.predict(payload)
print_instructions(prompt, response)

आपको निम्न आउटपुट मिलते हैं:

> Input
<s>[INST] In Bash, how do I list all text files in the current directory (excluding subdirectories) that have been modified in the last month? [/INST]</s>
> Output
ef{0.15cm} To list all text files in the current directory that have been modified in the last month, you can use a combination of the `find` and `grep` commands in Bash. Here's the command you're looking for: ```bash
find . -maxdepth 1 -type f -name "*.txt" -mtime -30
``` Let's break down this command: - `find .` starts a search in the current directory.
- `-maxdepth 1` limits the search to the current directory only (excluding subdirectories).
- `-type f` specifies that you're looking for files.
- `-name "*.txt"` filters the results to only include files with a `.txt` extension.
- `-mtime -30` filters the results to only include files modified within the last 30 days. This command will output the paths of all text files in the current directory that have been modified in the last month.

गणित और तर्क

मिक्सट्रल मॉडल गणित की सटीकता में ताकत की भी रिपोर्ट करते हैं:

instructions = [
{ "role": "user", "content": "I bought an ice cream for 6 kids. Each cone was $1.25 and I paid with a $10 bill. How many dollars did I get back? Explain first before answering.",
}
]
prompt = format_instructions(instructions)
payload = { "inputs": prompt, "parameters": {"max_new_tokens": 600, "do_sample": True, "temperature": 0.2}
}
response=predictor.predict(payload)
print_instructions(prompt, response)

मिक्सट्रल मॉडल समझ प्रदान कर सकते हैं जैसा कि गणित तर्क के साथ निम्नलिखित आउटपुट में दिखाया गया है:

> Input
<s>[INST] I bought an ice cream for 6 kids. Each cone was $1.25 and I paid with a $10 bill. How many dollars did I get back? Explain first before answering. [/INST] </s>
> Output
First, let's calculate the total cost of the ice cream cones. Since each cone costs $1.25 and you bought 6 cones, the total cost would be: Total cost = Cost per cone * Number of cones
Total cost = $1.25 * 6
Total cost = $7.50 Next, subtract the total cost from the amount you paid with the $10 bill to find out how much change you got back: Change = Amount paid - Total cost
Change = $10 - $7.50
Change = $2.50 So, you got $2.50 back.

क्लीन अप

नोटबुक चलाने के बाद, इस प्रक्रिया में आपके द्वारा बनाए गए सभी संसाधनों को हटा दें ताकि आपकी बिलिंग रोक दी जाए। निम्नलिखित कोड का प्रयोग करें:

predictor.delete_model()
predictor.delete_endpoint()

निष्कर्ष

इस पोस्ट में, हमने आपको दिखाया कि सेजमेकर स्टूडियो में मिक्सट्रल-8x7बी के साथ कैसे शुरुआत करें और अनुमान के लिए मॉडल को कैसे तैनात करें। क्योंकि फाउंडेशन मॉडल पूर्व-प्रशिक्षित होते हैं, वे प्रशिक्षण और बुनियादी ढांचे की लागत को कम करने और आपके उपयोग के मामले में अनुकूलन को सक्षम करने में मदद कर सकते हैं। आरंभ करने के लिए अभी सेजमेकर स्टूडियो में सेजमेकर जम्पस्टार्ट पर जाएँ।

उपयुक्त संसाधन चुनें


लेखक के बारे में

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.रचना चड्ढा एडब्ल्यूएस में सामरिक खातों में प्रधान समाधान वास्तुकार एआई/एमएल है। रचना एक आशावादी है जो मानती है कि एआई का नैतिक और जिम्मेदार उपयोग भविष्य में समाज को बेहतर बना सकता है और आर्थिक और सामाजिक समृद्धि ला सकता है। अपने खाली समय में, रचना को अपने परिवार के साथ समय बिताना, लंबी पैदल यात्रा करना और संगीत सुनना पसंद है।

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.डॉ काइल उलरिच के साथ एक अनुप्रयुक्त वैज्ञानिक है अमेज़ॅन सेजमेकर बिल्ट-इन एल्गोरिदम टीम। उनके शोध के हितों में स्केलेबल मशीन लर्निंग एल्गोरिदम, कंप्यूटर विज़न, टाइम सीरीज़, बायेसियन नॉन-पैरामेट्रिक्स और गॉसियन प्रोसेस शामिल हैं। उनकी पीएचडी ड्यूक यूनिवर्सिटी से है और उन्होंने न्यूरआईपीएस, सेल और न्यूरॉन में पत्र प्रकाशित किए हैं।

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.क्रिस्टोफर व्हिटेन जम्पस्टार्ट टीम में एक सॉफ्टवेयर डेवलपर है। वह मॉडल चयन को स्केल करने और अन्य सेजमेकर सेवाओं के साथ मॉडल को एकीकृत करने में मदद करता है। क्रिस को विभिन्न व्यावसायिक क्षेत्रों में एआई की सर्वव्यापकता में तेजी लाने का शौक है।

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.डॉ. फैबियो नोनाटो डी पाउला एक वरिष्ठ प्रबंधक, विशेषज्ञ जेनएआई एसए हैं, जो मॉडल प्रदाताओं और ग्राहकों को एडब्ल्यूएस में जेनरेटर एआई बढ़ाने में मदद करते हैं। फैबियो को जेनरेटिव एआई तकनीक तक पहुंच को लोकतांत्रिक बनाने का जुनून है। काम के अलावा, आप फैबियो को सोनोमा घाटी की पहाड़ियों में अपनी मोटरसाइकिल चलाते या कॉमिक्सोलॉजी पढ़ते हुए पा सकते हैं।

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.डॉ आशीष खेतानी Amazon SageMaker बिल्ट-इन एल्गोरिदम के साथ एक वरिष्ठ एप्लाइड साइंटिस्ट हैं और मशीन लर्निंग एल्गोरिदम विकसित करने में मदद करते हैं। उन्होंने इलिनोइस विश्वविद्यालय उरबाना-शैंपेन से पीएचडी की उपाधि प्राप्त की। वह मशीन लर्निंग और सांख्यिकीय अनुमान में एक सक्रिय शोधकर्ता हैं, और उन्होंने NeurIPS, ICML, ICLR, JMLR, ACL और EMNLP सम्मेलनों में कई पत्र प्रकाशित किए हैं।

मिक्सट्रल-8x7बी अब अमेज़न सेजमेकर जम्पस्टार्ट | पर उपलब्ध है अमेज़ॅन वेब सेवाएँ प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.कार्ल अल्बर्टसन अमेज़ॅन सेजमेकर एल्गोरिदम और जम्पस्टार्ट, सेजमेकर के मशीन लर्निंग हब के लिए उत्पाद, इंजीनियरिंग और विज्ञान का नेतृत्व करता है। उन्हें व्यावसायिक मूल्य को अनलॉक करने के लिए मशीन लर्निंग लागू करने का शौक है।

समय टिकट:

से अधिक AWS मशीन लर्निंग

मेडिडेटा ने 30 गुना तेजी से एमएल अनुमान भविष्यवाणियों को तेज करने के लिए अमेज़ॅन सेजमेकर एसिंक्रोनस इंट्रेंस का उपयोग कैसे किया

स्रोत नोड: 1662307
समय टिकट: सितम्बर 12, 2022