Meta เปิดตัว AI Image Segmentation Model, SAM

Meta เปิดตัว AI Image Segmentation Model, SAM

Meta เปิดตัวโมเดลการแบ่งส่วนรูปภาพ AI, SAM PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

Alphabet Inc ของ Google ได้แบ่งปันข้อมูลเกี่ยวกับซูเปอร์คอมพิวเตอร์ที่ใช้ในการฝึกโมเดล AI โดยอ้างว่ามีประสิทธิภาพด้านพลังงานและเร็วกว่า ของ Nvidia ชิป A100 Google ได้ผลิตชิปแบบกำหนดเองที่เรียกว่า Tensor Processing Unit (TPU) ซึ่งอยู่ในรุ่นที่สี่

บริษัทใช้ชิปมากกว่า 90% ของงานฝึกอบรม AI ของบริษัท Google เพิ่มชิปฟีดข้อมูลผ่านโมเดลเพื่อให้ใช้งานได้จริงกับงานต่างๆ เช่น ข้อความเหมือนมนุษย์หรือเพื่อสร้างรูปภาพ

จะเป็นการดี TPU ได้รับการออกแบบ เพื่อเร่งขั้นตอนการอนุมานของ Deep Neural Network (DNNs) ซึ่งใช้ในแอปพลิเคชันการเรียนรู้ของเครื่องมากมาย เช่น การจดจำภาพ การรู้จำเสียง การประมวลผลภาษาธรรมชาติ และอื่นๆ TPU ยังใช้สำหรับการฝึกอบรม DNN

อ่านเพิ่มเติม: Twitter ใน Hot Water ถูกกฎหมายเนื่องจากเยอรมนีขู่ว่าจะปรับ

ในวันอังคาร Google ตีพิมพ์บทความทางวิทยาศาสตร์ อธิบายว่ามันร้อยชิปมากกว่า 4 ชิ้นได้อย่างไร บริษัทกล่าวว่าใช้สวิตช์ออปติคัลที่พัฒนาขึ้นเองเพื่อรับเครื่องแต่ละเครื่องในที่เดียว

ในรายงานทางวิทยาศาสตร์ Google กล่าวว่าสำหรับระบบที่มีขนาดใกล้เคียงกัน ชิปของมันจะเร็วกว่าถึง 1.7 เท่าและประหยัดพลังงานมากกว่าระบบที่ใช้ชิป A1.9 ของ Nvidia ในตลาดเวลาเดียวกับ TPU รุ่นที่สี่ถึง 100 เท่า

ต้องการการปรับปรุงเพิ่มเติม

นักวิเคราะห์มีความเห็นว่าตลาดสำหรับชิปอนุมานข้อมูลจะเติบโตอย่างรวดเร็วตามที่ธุรกิจวางไว้ เทคโนโลยี AI ลงในผลิตภัณฑ์ของตน อย่างไรก็ตาม บริษัทต่างๆ เช่น Google กำลังดำเนินการหาวิธีรักษาค่าใช้จ่ายเพิ่มเติมที่จะทำเช่นนั้น และหนึ่งในค่าใช้จ่ายคือค่าไฟฟ้า

โมเดลภาษาขนาดใหญ่ที่ขับเคลื่อนผลิตภัณฑ์ เช่น ของ Google Bard หรือ OpenAI ChatGPT มีขนาดโตขึ้นอย่างมากมาย ในความเป็นจริงมันใหญ่เกินไปที่จะเก็บไว้ในชิปตัวเดียว

ด้วยเหตุนี้ การปรับปรุงการเชื่อมต่อเหล่านี้จึงกลายเป็นประเด็นสำคัญสำหรับการแข่งขันระหว่างบริษัทต่างๆ ที่สร้างซูเปอร์คอมพิวเตอร์ AI

นอกจากนี้ โมเดลเหล่านี้ยังแบ่งออกเป็นชิปนับพันตัวและทำงานร่วมกันเป็นเวลาหลายสัปดาห์หรือนานกว่านั้นเพื่อฝึกโมเดล

PaLM ซึ่งเป็นโมเดลภาษาที่เปิดเผยต่อสาธารณะที่สำคัญที่สุดของ Google ได้รับการฝึกอบรมโดยแยกออกเป็นซูเปอร์คอมพิวเตอร์สองชิปจากทั้งหมด 4 ตัวในระยะเวลา 000 วัน

บริษัทระบุว่าซูเปอร์คอมพิวเตอร์ทำให้การกำหนดค่าการเชื่อมต่อระหว่างชิปเป็นเรื่องง่าย

“การสลับวงจรทำให้ง่ายต่อการกำหนดเส้นทางไปยังส่วนประกอบที่ล้มเหลว” Google Fellow Norm Jouppi และ David Patterson วิศวกรผู้มีชื่อเสียงของ Google กล่าวในบล็อกโพสต์เกี่ยวกับระบบ

“ความยืดหยุ่นนี้ทำให้เราสามารถเปลี่ยนโทโพโลยีของการเชื่อมต่อระหว่างซูเปอร์คอมพิวเตอร์เพื่อเร่งประสิทธิภาพของโมเดล ML (แมชชีนเลิร์นนิง)”

ไม่มีการเปรียบเทียบตาม Google

Nvidia ครองตลาดสำหรับการฝึกอบรมโมเดล AI ด้วยข้อมูลจำนวนมหาศาล อย่างไรก็ตาม หลังจากที่โมเดลเหล่านั้นได้รับการฝึกฝนแล้ว พวกมันจะถูกนำไปใช้อย่างกว้างขึ้นในสิ่งที่เรียกว่า "การอนุมาน" โดยทำงานต่างๆ เช่น สร้างข้อความตอบกลับพร้อมท์ และตัดสินใจว่ารูปภาพมีแมวหรือไม่

ซอฟต์แวร์หลัก สตูดิโอกำลังใช้โปรเซสเซอร์ A100 ของ Nvidia ชิป A100 เป็นชิปที่ใช้บ่อยที่สุดที่สตูดิโอพัฒนาใช้สำหรับเวิร์กโหลด AI แมชชีนเลิร์นนิง

พื้นที่ A100 เหมาะ สำหรับโมเดลแมชชีนเลิร์นนิงที่เครื่องมือไฟฟ้าอย่าง ChatGPT บิง เอไอหรือการแพร่ที่เสถียร สามารถทำการคำนวณง่ายๆ ได้หลายอย่างพร้อมกัน ซึ่งเป็นสิ่งสำคัญสำหรับการฝึกอบรมและการใช้โมเดลโครงข่ายประสาทเทียม

ในขณะที่ Nvidia ปฏิเสธคำขอความคิดเห็นโดย รอยเตอร์สGoogle กล่าวว่าพวกเขาไม่ได้เปรียบเทียบเจเนอเรชันที่สี่กับชิป H100 เรือธงปัจจุบันของ Nvidia เพราะมันออกสู่ตลาดหลังจากชิปของ Google และผลิตด้วยเทคโนโลยีที่ใหม่กว่า

Google ยังกล่าวอีกว่า บริษัทมี “คำแนะนำที่ดีในอนาคต” โดยไม่ได้ให้รายละเอียดปลีกย่อย แต่บอกใบ้ว่าอาจทำงานกับ TPU ใหม่ที่จะแข่งขันกับ Nvidia H100

แม้ว่าตอนนี้ Google จะเปิดเผยรายละเอียดเกี่ยวกับซูเปอร์คอมพิวเตอร์ของตนเท่านั้น แต่ได้ออนไลน์ภายในบริษัทตั้งแต่ปี 2020 ที่ศูนย์ข้อมูลใน Mayes County รัฐโอคลาโฮมา

Google กล่าวว่าการเริ่มต้น Midjourney ใช้ระบบเพื่อฝึกโมเดลซึ่งสร้างภาพใหม่หลังจากป้อนข้อความไม่กี่คำ

ประทับเวลา:

เพิ่มเติมจาก เมตานิวส์