Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | อเมซอนเว็บเซอร์วิส

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | อเมซอนเว็บเซอร์วิส

วันนี้เรารู้สึกตื่นเต้นที่จะประกาศว่า มิกซ์ทรัล-8x7B โมเดลภาษาขนาดใหญ่ (LLM) ซึ่งพัฒนาโดย Mistral AI พร้อมให้บริการแก่ลูกค้าผ่าน Amazon SageMaker JumpStart เพื่อปรับใช้ด้วยการคลิกเพียงครั้งเดียวสำหรับการอนุมาน Mixtral-8x7B LLM เป็นส่วนผสมแบบเบาบางที่ได้รับการฝึกอบรมล่วงหน้าของแบบจำลองผู้เชี่ยวชาญ โดยอิงตามแกนหลักของพารามิเตอร์ 7 พันล้านพร้อมด้วยผู้เชี่ยวชาญ 8 คนต่อเลเยอร์การป้อนไปข้างหน้า คุณสามารถลองใช้โมเดลนี้กับ SageMaker JumpStart ซึ่งเป็นฮับแมชชีนเลิร์นนิง (ML) ที่ให้การเข้าถึงอัลกอริทึมและโมเดล เพื่อให้คุณสามารถเริ่มต้นใช้งาน ML ได้อย่างรวดเร็ว ในโพสต์นี้ เราจะอธิบายวิธีการค้นหาและปรับใช้โมเดล Mixtral-7xXNUMXB

Mixtral-8x7B คืออะไร

Mixtral-8x7B เป็นโมเดลพื้นฐานที่พัฒนาโดย Mistral AI รองรับข้อความภาษาอังกฤษ ฝรั่งเศส เยอรมัน อิตาลี และสเปน พร้อมความสามารถในการสร้างโค้ด รองรับกรณีการใช้งานที่หลากหลาย เช่น การสรุปข้อความ การจัดหมวดหมู่ การเติมข้อความให้สมบูรณ์ และการเติมโค้ดให้สมบูรณ์ มันทำงานได้ดีในโหมดแชท เพื่อแสดงให้เห็นถึงความสามารถในการปรับแต่งโมเดลได้อย่างตรงไปตรงมา Mistral AI ยังได้เปิดตัวโมเดล Mixtral-8x7B-instruct สำหรับกรณีการใช้งานแชท โดยได้รับการปรับแต่งอย่างละเอียดโดยใช้ชุดข้อมูลการสนทนาที่เผยแพร่ต่อสาธารณะที่หลากหลาย โมเดล Mixtral มีความยาวบริบทขนาดใหญ่มากถึง 32,000 โทเค็น

Mixtral-8x7B ให้การปรับปรุงประสิทธิภาพอย่างมีนัยสำคัญมากกว่ารุ่นล้ำสมัยก่อนหน้านี้ การผสมผสานที่เบาบางของสถาปัตยกรรมผู้เชี่ยวชาญช่วยให้ได้รับผลลัพธ์ประสิทธิภาพที่ดีขึ้นจากเกณฑ์มาตรฐานการประมวลผลภาษาธรรมชาติ (NLP) 9 จาก 12 รายการทดสอบโดย มิสทรัล AI. Mixtral ตรงหรือเกินกว่าประสิทธิภาพของรุ่นที่มีขนาดถึง 10 เท่า ด้วยการใช้เพียงเศษเสี้ยวของพารามิเตอร์ต่อโทเค็น ทำให้ได้รับความเร็วในการอนุมานที่เร็วขึ้นและต้นทุนการคำนวณที่ลดลง เมื่อเทียบกับโมเดลที่มีความหนาแน่นสูงในขนาดที่เท่ากัน ตัวอย่างเช่น โดยมีพารามิเตอร์ทั้งหมด 46.7 พันล้านพารามิเตอร์ แต่มีเพียง 12.9 พันล้านที่ใช้ต่อโทเค็น การผสมผสานระหว่างประสิทธิภาพสูง การสนับสนุนหลายภาษา และประสิทธิภาพในการคำนวณทำให้ Mixtral-8x7B เป็นตัวเลือกที่น่าสนใจสำหรับแอปพลิเคชัน NLP

โมเดลนี้จัดทำขึ้นภายใต้ลิขสิทธิ์ Apache 2.0 ที่ได้รับอนุญาต สำหรับการใช้งานโดยไม่มีข้อจำกัด

SageMaker JumpStart คืออะไร

ด้วย SageMaker JumpStart ผู้ปฏิบัติงาน ML สามารถเลือกจากรายการโมเดลพื้นฐานที่มีประสิทธิภาพดีที่สุดที่มีเพิ่มขึ้นเรื่อยๆ ผู้ปฏิบัติงาน ML สามารถปรับใช้โมเดลพื้นฐานเพื่อการใช้งานเฉพาะได้ อเมซอน SageMaker อินสแตนซ์ภายในสภาพแวดล้อมที่แยกเครือข่าย และปรับแต่งโมเดลโดยใช้ SageMaker สำหรับการฝึกโมเดลและการปรับใช้

ตอนนี้คุณสามารถค้นพบและปรับใช้ Mixtral-8x7B ได้ด้วยการคลิกเพียงไม่กี่ครั้ง สตูดิโอ Amazon SageMaker หรือทางโปรแกรมผ่าน SageMaker Python SDK ทำให้คุณได้รับประสิทธิภาพของแบบจำลองและการควบคุม MLOps ด้วยคุณลักษณะของ SageMaker เช่น ท่อส่ง Amazon SageMaker, ดีบักเกอร์ Amazon SageMakerหรือบันทึกคอนเทนเนอร์ โมเดลนี้ได้รับการปรับใช้ในสภาพแวดล้อมที่ปลอดภัยของ AWS และอยู่ภายใต้การควบคุม VPC ของคุณ ซึ่งช่วยรับรองความปลอดภัยของข้อมูล

ค้นพบแบบจำลอง

คุณสามารถเข้าถึงโมเดลพื้นฐาน Mixtral-8x7B ผ่าน SageMaker JumpStart ใน SageMaker Studio UI และ SageMaker Python SDK ในส่วนนี้ เราจะอธิบายวิธีค้นหาโมเดลใน SageMaker Studio

SageMaker Studio เป็นสภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE) ที่มีอินเทอร์เฟซภาพบนเว็บเดียว ซึ่งคุณสามารถเข้าถึงเครื่องมือที่สร้างขึ้นตามวัตถุประสงค์เพื่อดำเนินการตามขั้นตอนการพัฒนา ML ทั้งหมด ตั้งแต่การเตรียมข้อมูลไปจนถึงการสร้าง การฝึกอบรม และนำโมเดล ML ของคุณไปใช้จริง สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับวิธีเริ่มต้นใช้งานและตั้งค่า SageMaker Studio โปรดดูที่ สตูดิโอ Amazon SageMaker.

ใน SageMaker Studio คุณสามารถเข้าถึง SageMaker JumpStart ได้โดยการเลือก เริ่มกระโดด ในบานหน้าต่างนำทาง

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

จากหน้า Landing Page ของ SageMaker JumpStart คุณสามารถค้นหา “Mixtral” ในช่องค้นหาได้ คุณจะเห็นผลการค้นหาที่แสดงคำสั่ง Mixtral 8x7B และ Mixtral 8x7B

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

คุณสามารถเลือกการ์ดโมเดลเพื่อดูรายละเอียดเกี่ยวกับโมเดล เช่น ใบอนุญาต ข้อมูลที่ใช้ในการฝึก และวิธีการใช้งาน นอกจากนี้คุณยังจะได้พบกับ ปรับใช้ ปุ่ม ซึ่งคุณสามารถใช้เพื่อปรับใช้โมเดลและสร้างจุดสิ้นสุดได้

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

ปรับใช้โมเดล

การปรับใช้เริ่มต้นเมื่อคุณเลือก ปรับใช้. หลังจากการปรับใช้เสร็จสิ้น คุณได้สร้างอุปกรณ์ปลายทางแล้ว คุณสามารถทดสอบตำแหน่งข้อมูลได้โดยการส่งเพย์โหลดคำขอการอนุมานตัวอย่าง หรือเลือกตัวเลือกการทดสอบของคุณโดยใช้ SDK เมื่อคุณเลือกตัวเลือกเพื่อใช้ SDK คุณจะเห็นโค้ดตัวอย่างที่คุณสามารถใช้ในโปรแกรมแก้ไขสมุดบันทึกที่คุณต้องการใน SageMaker Studio

หากต้องการปรับใช้โดยใช้ SDK เราเริ่มต้นด้วยการเลือกรุ่น Mixtral-8x7B ที่ระบุโดย model_id with value huggingface-llm-mixtral-8x7b. คุณสามารถปรับใช้โมเดลที่เลือกบน SageMaker ด้วยโค้ดต่อไปนี้ ในทำนองเดียวกัน คุณสามารถปรับใช้คำสั่ง Mixtral-8x7B โดยใช้รหัสโมเดลของตัวเอง:

from sagemaker.jumpstart.model import JumpStartModel model = JumpStartModel(model_id="huggingface-llm-mixtral-8x7b")
predictor = model.deploy()

ซึ่งจะปรับใช้โมเดลบน SageMaker ด้วยการกำหนดค่าเริ่มต้น รวมถึงประเภทอินสแตนซ์เริ่มต้นและการกำหนดค่า VPC เริ่มต้น คุณสามารถเปลี่ยนการกำหนดค่าเหล่านี้ได้โดยการระบุค่าที่ไม่ใช่ค่าเริ่มต้น JumpStartโมเดล.

หลังจากปรับใช้แล้ว คุณสามารถเรียกใช้การอนุมานกับตำแหน่งข้อมูลที่ใช้งานผ่านตัวทำนาย SageMaker ได้:

payload = {"inputs": "Hello!"} predictor.predict(payload)

ตัวอย่างคำแนะนำ

คุณสามารถโต้ตอบกับโมเดล Mixtral-8x7B ได้เหมือนกับโมเดลการสร้างข้อความมาตรฐานทั่วไป โดยที่โมเดลจะประมวลผลลำดับอินพุตและเอาต์พุตที่คาดการณ์คำถัดไปในลำดับ ในส่วนนี้ เราจะแสดงตัวอย่างพร้อมท์

การสร้างรหัส

จากตัวอย่างก่อนหน้านี้ เราสามารถใช้พร้อมท์การสร้างโค้ดดังต่อไปนี้:

# Code generation
payload = { "inputs": "Write a program to compute factorial in python:", "parameters": { "max_new_tokens": 200, },
}
predictor.predict(payload)

คุณได้รับผลลัพธ์ต่อไปนี้:

Input Text: Write a program to compute factorial in python:
Generated Text:
Factorial of a number is the product of all the integers from 1 to that number. For example, factorial of 5 is 1*2*3*4*5 = 120. Factorial of 0 is 1. Factorial of a negative number is not defined. The factorial of a number can be written as n!. For example, 5! = 120. ## Write a program to compute factorial in python ```
def factorial(n):
if n == 0:
return 1
else:
return n * factorial(n-1) print(factorial(5))
``` Output: ```
120
``` ## Explanation: In the above program, we have defined a function called factorial which takes a single argument n. If n is equal to 0, then we return 1. Otherwise, we return n multiplied by the factorial of n-1. We then call the factorial function with the argument 5 and print the result. The output of the program is 120, which is the factorial of 5. ## How to compute factorial in python In the above program, we have used a recursive function to compute the factorial of a number. A recursive function is a function that calls itself. In this case, the factorial function calls itself with the argument n-1. This process continues until n is equal to 0, at which point the function returns 1. The factorial of a number can also be computed using a loop. For example, the following program uses a for loop to compute the factorial of a number: ```
def factorial(n):
result = 1
for i in range(1, n+1):
result *= i
return result

พรอมต์การวิเคราะห์ความรู้สึก

คุณสามารถดำเนินการวิเคราะห์ความรู้สึกได้โดยใช้ข้อความแจ้งดังต่อไปนี้กับ Mixtral 8x7B:

payload = { "inputs": """
Tweet: "I hate it when my phone battery dies."
Sentiment: Negative Tweet: "My day has been :+1:"
Sentiment: Positive Tweet: "This is the link to the article"
Sentiment: Neutral Tweet: "This new music video was incredibile"
Sentiment:""", "parameters": { "max_new_tokens": 2,
},
}
predictor.predict(payload)

คุณได้รับผลลัพธ์ต่อไปนี้:

Input Text: Tweet: "I hate it when my phone battery dies."
Sentiment: Negative
###
Tweet: "My day has been :+1:"
Sentiment: Positive
###
Tweet: "This is the link to the article"
Sentiment: Neutral
###
Tweet: "This new music video was incredibile"
Sentiment:
Generated Text:  Positive

เฉลยการตอบคำถาม

คุณสามารถใช้พร้อมท์การตอบคำถามดังต่อไปนี้กับ Mixtral-8x7B:

# Question answering
payload = { "inputs": "Could you remind me when was the C programming language invented?", "parameters": { "max_new_tokens": 100, },
}
query_endpoint(payload)

คุณได้รับผลลัพธ์ต่อไปนี้:

Input Text: Could you remind me when was the C programming language invented?
Generated Text: C was invented in 1972 by Dennis Ritchie at Bell Labs. C is a general-purpose programming language. It was invented to write the UNIX operating system. C is a structured programming language. It is a middle-level language. It is a procedural language. C is a compiled language. It is a portable language. C is a case-sensitive language. It is a free-form language

คำแนะนำ Mixtral-8x7B

Mixtral-8x7B เวอร์ชันปรับแต่งคำสั่งยอมรับคำสั่งที่มีรูปแบบ โดยที่บทบาทการสนทนาต้องเริ่มต้นด้วยพรอมต์ผู้ใช้และสลับระหว่างคำสั่งผู้ใช้กับผู้ช่วย (คำตอบแบบจำลอง) รูปแบบคำสั่งจะต้องได้รับการเคารพอย่างเคร่งครัด มิฉะนั้น โมเดลจะสร้างเอาต์พุตที่ด้อยประสิทธิภาพที่สุด เทมเพลตที่ใช้ในการสร้างพรอมต์สำหรับโมเดล Instruct มีการกำหนดไว้ดังนี้:

<s> [INST] Instruction [/INST] Model answer</s> [INST] Follow-up instruction [/INST]]

โปรดทราบว่า <s> และ </s> เป็นโทเค็นพิเศษสำหรับจุดเริ่มต้นของสตริง (BOS) และจุดสิ้นสุดของสตริง (EOS) ในขณะที่ [INST] และ [/INST] เป็นสตริงปกติ

รหัสต่อไปนี้แสดงวิธีที่คุณสามารถจัดรูปแบบพรอมต์ในรูปแบบคำสั่ง:

from typing import Dict, List def format_instructions(instructions: List[Dict[str, str]]) -> List[str]: """Format instructions where conversation roles must alternate user/assistant/user/assistant/...""" prompt: List[str] = [] for user, answer in zip(instructions[::2], instructions[1::2]): prompt.extend(["<s>", "[INST] ", (user["content"]).strip(), " [/INST] ", (answer["content"]).strip(), "</s>"]) prompt.extend(["<s>", "[INST] ", (instructions[-1]["content"]).strip(), " [/INST] ","</s>"]) return "".join(prompt) def print_instructions(prompt: str, response: str) -> None: bold, unbold = '33[1m', '33[0m' print(f"{bold}> Input{unbold}n{prompt}nn{bold}> Output{unbold}n{response[0]['generated_text']}n")

การสืบค้นความรู้

คุณสามารถใช้รหัสต่อไปนี้สำหรับพร้อมท์การเรียกค้นความรู้:

instructions = [{"role": "user", "content": "what is the recipe of mayonnaise?"}]
prompt = format_instructions(instructions)
payload = { "inputs": prompt, "parameters": {"max_new_tokens": 315, "do_sample": True}
}
response=predictor.predict(payload)
print_instructions(prompt, response)

คุณได้รับผลลัพธ์ต่อไปนี้:

> Input
<s>[INST] what is the recipe of mayonnaise? [/INST]</s> > Output
Here is a simple recipe for homemade mayonnaise: Ingredients: * 1 egg yolk
* 1 tablespoon of mustard (Dijon is a good choice)
* 1 cup of oil (canola or vegetable oil work well)
* 1-2 tablespoons of white vinegar or lemon juice
* Salt to taste Instructions: 1. In a medium bowl, whisk together the egg yolk and mustard. It is important that these ingredients are at room temperature.
2. Start adding the oil drop by drop, whisking continuously. This step is crucial to ensure that the mayonnaise emulsifies and does not separate.
3. Once you have added about a quarter of the oil and the mixture has thickened, you can start adding the oil in a thin stream, still whisking constantly.
4. When all the oil has been incorporated and the mayonnaise is thick, whisk in the vinegar or lemon juice and salt to taste.
5. If the mayonnaise is too thick, you can thin it with a little water.
6. Store the mayonnaise in the refrigerator and use within a few days. Note: It is important to use pasteurized eggs or egg yolks when making homemade mayonnaise to reduce the risk of foodborne illness.

การเข้ารหัส

โมเดล Mixtral สามารถแสดงให้เห็นถึงจุดแข็งในการวัดประสิทธิภาพสำหรับงานเขียนโค้ด ดังที่แสดงในโค้ดต่อไปนี้:

instructions = [
{ "role": "user", "content": "In Bash, how do I list all text files in the current directory (excluding subdirectories) that have been modified in the last month?",
}
]
prompt = format_instructions(instructions)
payload = { "inputs": prompt, "parameters": {"max_new_tokens": 256, "do_sample": True, "temperature": 0.2}
}
response=predictor.predict(payload)
print_instructions(prompt, response)

คุณได้รับผลลัพธ์ต่อไปนี้:

> Input
<s>[INST] In Bash, how do I list all text files in the current directory (excluding subdirectories) that have been modified in the last month? [/INST]</s>
> Output
ef{0.15cm} To list all text files in the current directory that have been modified in the last month, you can use a combination of the `find` and `grep` commands in Bash. Here's the command you're looking for: ```bash
find . -maxdepth 1 -type f -name "*.txt" -mtime -30
``` Let's break down this command: - `find .` starts a search in the current directory.
- `-maxdepth 1` limits the search to the current directory only (excluding subdirectories).
- `-type f` specifies that you're looking for files.
- `-name "*.txt"` filters the results to only include files with a `.txt` extension.
- `-mtime -30` filters the results to only include files modified within the last 30 days. This command will output the paths of all text files in the current directory that have been modified in the last month.

คณิตศาสตร์และการให้เหตุผล

แบบจำลอง Mixtral ยังรายงานจุดแข็งในด้านความแม่นยำทางคณิตศาสตร์ด้วย:

instructions = [
{ "role": "user", "content": "I bought an ice cream for 6 kids. Each cone was $1.25 and I paid with a $10 bill. How many dollars did I get back? Explain first before answering.",
}
]
prompt = format_instructions(instructions)
payload = { "inputs": prompt, "parameters": {"max_new_tokens": 600, "do_sample": True, "temperature": 0.2}
}
response=predictor.predict(payload)
print_instructions(prompt, response)

แบบจำลอง Mixtral สามารถให้ความเข้าใจดังที่แสดงในผลลัพธ์ต่อไปนี้พร้อมกับตรรกะทางคณิตศาสตร์:

> Input
<s>[INST] I bought an ice cream for 6 kids. Each cone was $1.25 and I paid with a $10 bill. How many dollars did I get back? Explain first before answering. [/INST] </s>
> Output
First, let's calculate the total cost of the ice cream cones. Since each cone costs $1.25 and you bought 6 cones, the total cost would be: Total cost = Cost per cone * Number of cones
Total cost = $1.25 * 6
Total cost = $7.50 Next, subtract the total cost from the amount you paid with the $10 bill to find out how much change you got back: Change = Amount paid - Total cost
Change = $10 - $7.50
Change = $2.50 So, you got $2.50 back.

ทำความสะอาด

หลังจากที่คุณเรียกใช้สมุดบันทึกเสร็จแล้ว ให้ลบทรัพยากรทั้งหมดที่คุณสร้างขึ้นในกระบวนการ เพื่อหยุดการเรียกเก็บเงินของคุณ ใช้รหัสต่อไปนี้:

predictor.delete_model()
predictor.delete_endpoint()

สรุป

ในโพสต์นี้ เราได้แสดงให้คุณเห็นถึงวิธีเริ่มต้นใช้งาน Mixtral-8x7B ใน SageMaker Studio และปรับใช้โมเดลเพื่อการอนุมาน เนื่องจากโมเดลพื้นฐานได้รับการฝึกอบรมล่วงหน้า จึงสามารถช่วยลดต้นทุนการฝึกอบรมและโครงสร้างพื้นฐาน และเปิดใช้งานการปรับแต่งสำหรับกรณีการใช้งานของคุณได้ ไปที่ SageMaker JumpStart ใน SageMaker Studio ตอนนี้เพื่อเริ่มต้น

แหล่งข้อมูล


เกี่ยวกับผู้แต่ง

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.รจนาชาดา เป็น Principal Solution Architect AI/ML ในบัญชีเชิงกลยุทธ์ที่ AWS Rachna เป็นคนมองโลกในแง่ดีที่เชื่อว่าการใช้ AI อย่างมีจริยธรรมและมีความรับผิดชอบสามารถปรับปรุงสังคมในอนาคตและนำความเจริญทางเศรษฐกิจและสังคมมาให้ ในเวลาว่าง รัชนาชอบใช้เวลาอยู่กับครอบครัว เดินป่า และฟังเพลง

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.ดร.ไคล์ อูลริช เป็นนักวิทยาศาสตร์ประยุกต์กับ อัลกอริทึมในตัวของ Amazon SageMaker ทีม. งานวิจัยที่เขาสนใจ ได้แก่ อัลกอริธึมแมชชีนเลิร์นนิงที่ปรับขนาดได้ คอมพิวเตอร์วิทัศน์ อนุกรมเวลา เบส์ที่ไม่ใช่พารามิเตอร์ และกระบวนการเกาส์เซียน ปริญญาเอกของเขามาจาก Duke University และเขาได้ตีพิมพ์บทความใน NeurIPS, Cell และ Neuron

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.คริสโตเฟอร์ วิตเทน เป็นผู้พัฒนาซอฟต์แวร์ในทีม JumpStart เขาช่วยปรับขนาดการเลือกโมเดลและบูรณาการโมเดลเข้ากับบริการ SageMaker อื่นๆ Chris มีความหลงใหลในการเร่งให้ AI แพร่หลายครอบคลุมขอบเขตธุรกิจที่หลากหลาย

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.ดร.ฟาบิโอ โนนาโต เดอ เปาลา เป็นผู้จัดการอาวุโส ผู้เชี่ยวชาญ GenAI SA ที่ช่วยผู้ให้บริการโมเดลและลูกค้าปรับขนาด AI เชิงสร้างสรรค์ใน AWS Fabio มีความหลงใหลในการเข้าถึงเทคโนโลยี AI เชิงสร้างสรรค์ให้เป็นประชาธิปไตย นอกเหนือจากงาน คุณสามารถพบ Fabio ขี่มอเตอร์ไซค์ของเขาบนเนินเขาของ Sonoma Valley หรืออ่านหนังสือ ComiXology

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.ดร. Ashish Khetan เป็นนักวิทยาศาสตร์ประยุกต์อาวุโสที่มีอัลกอริทึมในตัวของ Amazon SageMaker และช่วยพัฒนาอัลกอริทึมการเรียนรู้ของเครื่อง เขาได้รับปริญญาเอกจาก University of Illinois Urbana-Champaign เขาเป็นนักวิจัยที่กระตือรือร้นในด้านแมชชีนเลิร์นนิงและการอนุมานทางสถิติ และได้ตีพิมพ์บทความจำนวนมากในการประชุม NeurIPS, ICML, ICLR, JMLR, ACL และ EMNLP

Mixtral-8x7B พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.คาร์ล อัลเบิร์ตเซ่น เป็นผู้นำด้านผลิตภัณฑ์ วิศวกรรม และวิทยาศาสตร์สำหรับ Amazon SageMaker Algorithms และ JumpStart ซึ่งเป็นฮับแมชชีนเลิร์นนิงของ SageMaker เขาหลงใหลเกี่ยวกับการใช้แมชชีนเลิร์นนิงเพื่อปลดล็อกมูลค่าทางธุรกิจ

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS