Nvidia เพิ่งฆ่า AI – คนอื่นอยู่ที่ไหน?

Nvidia เพิ่งฆ่า AI – คนอื่นอยู่ที่ไหน?

Nvidia เพิ่งฆ่า AI – คนอื่นอยู่ที่ไหน? PlatoBlockchain ข้อมูลอัจฉริยะ ค้นหาแนวตั้ง AI.

Comment ไตรมาสล่าสุดของ Nvidia ถือเป็นช่วงเวลาสำคัญสำหรับการนำ AI มาใช้

ความต้องการ GPU ของบริษัทยักษ์ใหญ่ด้านเทคโนโลยีผลักดันรายได้ให้สูงขึ้น ความสูงใหม่ในขณะที่องค์กรต่างๆ ผู้ให้บริการคลาวด์ และไฮเปอร์สเกลเลอร์ต่างก็แย่งชิงกันเพื่อให้ยังคงเกี่ยวข้องภายใต้ระเบียบโลก AI ใหม่ 

แต่ในขณะที่ผู้บริหารของ Nvidia คาดว่าจะดึงกำไรหลายพันล้านดอลลาร์จากความต้องการนี้ในอีกไม่กี่ไตรมาสข้างหน้า คำถามที่อยู่ในใจของหลาย ๆ คนก็คือ Nvidia และพันธมิตรสามารถสร้าง GPU เพียงพอต่อความต้องการได้จริงหรือไม่ และจะเกิดอะไรขึ้นหากไม่สามารถทำได้

ในการโทรกับนักวิเคราะห์ทางการเงิน Colette Kress CFO ของ Nvidia มั่นใจ Wall Street ที่ยักษ์ใหญ่ด้านโปรเซสเซอร์กราฟิกทำงานอย่างใกล้ชิดกับพันธมิตรเพื่อลดเวลาการทำงานและเพิ่มความสามารถในการจัดหา เมื่อกดดันให้ต้องการข้อมูลเฉพาะเจาะจง Kress หลบเลี่ยงคำถามซ้ำแล้วซ้ำอีก โดยอ้างว่าอุปกรณ์ของ Nv เกี่ยวข้องกับซัพพลายเออร์จำนวนมาก เป็นการยากที่จะบอกว่าพวกเขาจะสามารถรองรับกำลังการผลิตได้มากเพียงใดและเมื่อใด

ไฟแนนเชียลไทมส์ รายงานในขณะเดียวกัน แนะนำให้ Nvidia วางแผนอย่างน้อยที่สุดจะเพิ่มการผลิตตัวเร่ง H100 รุ่นท็อปสามเท่าในปี 2024 เป็นระหว่าง 1.5 ถึง 2 ล้านหน่วย เพิ่มขึ้นจากประมาณครึ่งล้านในปีนี้ แม้ว่านี่จะเป็นข่าวดีสำหรับผลกำไรของ Nvidia แต่หากเป็นจริง บางบริษัทก็ไม่รอให้ Nvidia ตามทัน และมองหาสถาปัตยกรรมทางเลือกแทน

ความต้องการที่ไม่ได้รับการตอบสนองทำให้เกิดโอกาส

หนึ่งในตัวอย่างที่น่าสนใจที่สุดคือ United Arab Emirates G42 Cloud ซึ่ง เคาะ Cerebras Systems จะสร้างซูเปอร์คอมพิวเตอร์ AI เก้าเครื่องที่มีความสามารถรวม 36 exaflops ของประสิทธิภาพ FP16 แบบเบาบางในราคาเพียง 100 ล้านเหรียญสหรัฐต่อชิ้น

เซบราส เร่ง แตกต่างอย่างมากจาก GPU ที่ขับเคลื่อนระบบ HGX และ DGX ของ Nvidia แทนที่จะบรรจุ GPU สี่หรือแปดตัวลงในแชสซีแบบติดตั้งบนแร็ค ตัวเร่งความเร็วของ Cerebra นั้นเป็นแผ่นซิลิคอนขนาดมหึมาขนาดจานอาหารเย็นที่บรรจุแกน 850,000 คอร์และ SRAM ขนาด 40GB ผู้ผลิตชิปอ้างว่าต้องใช้ตัวเร่งความเร็วเพียง 16 ตัวเพื่อให้ได้ประสิทธิภาพ FP1 ที่กระจัดกระจาย 16 exaflop ซึ่งเป็นความสำเร็จที่เราประมาณการว่าต้องใช้ Nvidia H500 มากกว่า 100 ตัว

และสำหรับคนอื่นๆ ที่เต็มใจที่จะออกไปผจญภัยนอกสวนที่มีกำแพงล้อมรอบของ Nvidia ก็ไม่มีทางเลือกอื่นขาดแคลน ล่าสุดที่เราได้ยินมาคืออเมซอน การใช้ ตัวเร่งการฝึกอบรม Gaudi AI ของ Intel เพื่อเสริมชิป Trainium แบบกำหนดเองของตัวเอง แม้ว่าจะยังไม่ชัดเจนว่ามีปริมาณเท่าใด

เมื่อเปรียบเทียบกับ A100 ของ Nvidia โปรเซสเซอร์ Gaudi2 ของ Intel ซึ่ง เปิดตัว เมื่อเดือนพฤษภาคมปีที่แล้ว อ้างว่ามีประสิทธิภาพมากกว่าประมาณสองเท่า อย่างน้อยก็ในรูปแบบการจัดหมวดหมู่ภาพ ResNet-50 และโมเดลการประมวลผลภาษาธรรมชาติของ BERT และสำหรับผู้ที่อยู่ในประเทศจีนนั้น Intel เมื่อเร็ว ๆ นี้ แนะนำ ชิปรุ่นที่ตัดจำหน่ายในภูมิภาค Intel คาดว่าจะเปิดตัวโปรเซสเซอร์เวอร์ชันที่ทรงพลังยิ่งขึ้น ซึ่งคาดการณ์ว่าเรียกว่า Gaudi3 เพื่อแข่งขันกับ H100 รุ่นปัจจุบันของ Nvidia ในปีหน้า

แน่นอนว่า มี AMD ผู้ซึ่งได้รับชัยชนะอย่างสูงในวงการซูเปอร์คอมพิวเตอร์มาโดยตลอด และได้หันความสนใจไปที่ตลาด AI

ที่งาน Datacenter และ AI ในเดือนมิถุนายน AMD รายละเอียด Instinct MI300X ซึ่งมีกำหนดจะเริ่มจัดส่งภายในสิ้นปีนี้ ตัวเร่งความเร็วบรรจุหน่วยความจำ HBM192 ความเร็ว 3GB และ GPU CDNA 3 แปดตัวไว้ในแพ็คเกจเดียว

ไซต์น้องสาวของเรา แพลตฟอร์มถัดไป ประมาณการ ชิปจะให้ประสิทธิภาพ FP3 ประมาณ 8 petaflops ในขณะที่ 75 เปอร์เซ็นต์ของ H100 ของ Nvidia ในแง่ของประสิทธิภาพ MI300X มีความจุหน่วยความจำสูงกว่า 2.4 เท่า ซึ่งอาจทำให้ลูกค้าไม่ต้องใช้ GPU น้อยลงในการฝึกโมเดลของพวกเขา

ความคาดหวังของ GPU ที่ไม่เพียงแต่สามารถมอบประสิทธิภาพที่น่าสนใจเท่านั้น แต่ยังทำให้คุณทำได้อีกด้วย ซื้อจริงเห็นได้ชัดว่ากระตุ้นความสนใจบางอย่าง ในระหว่างการรายงานผลประกอบการไตรมาสที่ 2 ของ AMD ในเดือนนี้ CEO Lisa Su Boasted การมีส่วนร่วมด้าน AI ของบริษัทเพิ่มขึ้นเจ็ดเท่าในระหว่างไตรมาสดังกล่าว “เฉพาะในศูนย์ข้อมูล เราคาดว่าตลาดสำหรับเครื่องเร่งความเร็ว AI จะมีมูลค่าสูงถึง 150 พันล้านดอลลาร์ภายในปี 2027” เธอกล่าว

อุปสรรคในการรับเลี้ยงบุตรบุญธรรม

ดังนั้นหาก Nvidia คิดว่าตอนนี้กำลังตอบสนองความต้องการเพียงหนึ่งในสามของซิลิคอนที่เน้น AI ทำไมคู่แข่งจึงไม่ก้าวเข้ามาเติมเต็มช่องว่างและเงินสดจากการโฆษณาเกินจริง?

ปัญหาที่ชัดเจนที่สุดคือเรื่องจังหวะเวลา ทั้ง AMD และ Intel จะไม่มีตัวเร่งความเร็วที่สามารถท้าทาย H100 ของ Nvidia อย่างน้อยก็ในแง่ของประสิทธิภาพและพร้อมสำหรับเดือน อย่างไรก็ตาม แม้หลังจากนั้น ลูกค้าก็ยังคงต้องต่อสู้กับซอฟต์แวร์ที่ยังไม่บรรลุนิติภาวะ

มีความจริงที่ว่าคู่แข่งของ Nvidia จะต่อสู้เพื่ออุปทานและกำลังการผลิตเดียวกันกับที่ Nv ต้องการรักษาความปลอดภัยหรือได้รับความปลอดภัยแล้ว ตัวอย่างเช่น เอเอ็มดี ต้องอาศัย TSMC เช่นเดียวกับที่ Nvidia ทำเพื่อการผลิตชิป แม้ว่าความต้องการเซมิคอนดักเตอร์ อยู่ในภาวะตกต่ำ เนื่องจากมีคนสนใจที่จะหยิบพีซี โทรศัพท์ และอื่นๆ น้อยลงในช่วงหลังๆ นี้ จึงมีความต้องการอย่างมากสำหรับตัวเร่งความเร็วเซิร์ฟเวอร์เพื่อฝึกฝนโมเดลและขับเคลื่อนแอปพลิเคชันการเรียนรู้ของเครื่อง

แต่กลับมาที่โค้ด: ระบบนิเวศฮาร์ดแวร์และซอฟต์แวร์ที่ใกล้ชิดของ Nvidia มีมานานหลายปีแล้ว ด้วยเหตุนี้ จึงมีโค้ดจำนวนมาก รวมถึงโมเดล AI ที่ได้รับความนิยมสูงสุดจำนวนมาก ซึ่งได้รับการปรับให้เหมาะกับเฟรมเวิร์ก CUDA ที่ครองอุตสาหกรรมของ Nv

ไม่ได้หมายความว่าบริษัทชิปคู่แข่งไม่ได้พยายามเปลี่ยนแปลงไดนามิกนี้ OneAPI ของ Intel มีเครื่องมือเพื่อช่วยเหลือผู้ใช้ แปลง รหัสที่เขียนสำหรับ CUDA ของ Nvidia ถึง SYCL ซึ่งสามารถทำงานบนชุดแพลตฟอร์ม AI ของ Intel มีความพยายามที่คล้ายกันในการแปลงปริมาณงาน CUDA ให้ทำงานบนตระกูล Instinct GPU ของ AMD โดยใช้ HIP API

ผู้ผลิตชิปเดียวกันหลายรายยังขอความช่วยเหลือจากบริษัทอย่าง Hugging Face ซึ่งพัฒนาเครื่องมือสำหรับการสร้างแอป ML เพื่อลดอุปสรรคในการใช้งานโมเดลยอดนิยมบนฮาร์ดแวร์ของตน การลงทุนเหล่านี้ ล่าสุดทำให้การประเมินมูลค่าของ Hugging มีมูลค่ามากกว่า 4 พันล้านดอลลาร์

ชุดชิปอื่นๆ เช่น Cerebras ได้มองข้ามปัญหานี้โดยการพัฒนาโมเดล AI แบบกำหนดเองสำหรับฮาร์ดแวร์ ซึ่งลูกค้าสามารถใช้ประโยชน์ได้ แทนที่จะต้องเริ่มต้นจากศูนย์ ย้อนกลับไปในเดือนมีนาคม เซเรบราส ประกาศ Cerebras-GPT คือชุดของ LLM เจ็ดรายการที่มีขนาดพารามิเตอร์ตั้งแต่ 111 ล้านถึง 13 พันล้าน

สำหรับลูกค้าด้านเทคนิคที่มีทรัพยากรในการพัฒนา เพิ่มประสิทธิภาพ หรือย้ายโค้ดเดิมไปยังสถาปัตยกรรมที่ใหม่กว่าและยังไม่บรรลุนิติภาวะ การเลือกใช้แพลตฟอร์มฮาร์ดแวร์สำรองอาจคุ้มค่ากับการประหยัดต้นทุนหรือลดเวลาในการผลิตลง ทั้ง Google และ Amazon ได้ใช้เส้นทางนี้แล้วด้วยตัวเร่งความเร็ว TPU และ Trainium ตามลำดับ

อย่างไรก็ตาม สำหรับผู้ที่ขาดทรัพยากรเหล่านี้ การเปิดรับโครงสร้างพื้นฐานโดยไม่มีชุดซอฟต์แวร์ที่ได้รับการพิสูจน์แล้ว ไม่ว่าจะมีประสิทธิภาพเพียงใด ก็อาจถูกมองว่าเป็นความรับผิดชอบ ในกรณีนั้น Nvidia น่าจะยังคงเป็นเดิมพันที่ปลอดภัย ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน