엔비디아, 첨단 AI 기능 탑재한 'H200' 공개

엔비디아, 첨단 AI 기능 탑재한 'H200' 공개

엔비디아, 고급 AI 기능 PlatoBlockchain Data Intelligence 탑재한 'H200' 공개 수직 검색. 일체 포함.

칩 제조업체인 Nvidia는 LLM(대형 언어 모델)의 성능을 향상하고 더 큰 AI 시스템을 처리할 H200 칩셋을 출시했습니다.

새로운 칩은 H100에서 크게 업그레이드되었으며 거의 ​​두 배에 달하는 성능 속도와 더 높은 기능을 제공합니다. Nvidia는 업그레이드된 칩이 2024년에 출시되기 시작할 것이라고 밝혔습니다.

세부 사항

새로운 칩이 현재 칩을 대체합니다. H100 특히 데이터 처리 속도를 결정하는 중요한 요소인 고대역폭 메모리를 대폭 업그레이드한 칩셋입니다.

H200은 메모리 형태로 출시됩니다. 최초의 GPU가 되다 HBM3e 기술과 함께 제공됩니다. 초당 141테라바이트의 속도로 4.8GB의 메모리가 내장되어 있는데, 이는 100GB 용량의 H80.

에 따르면 엔비디아, 더 큰 메모리 공간과 고속 처리 요소는 AI 서비스의 더 좋고 빠른 응답을 가능하게 하기 위한 것입니다.

엔비디아는 새 칩셋의 메모리 공급업체를 밝히지 않았지만 마이크론 테크놀로지(Micron Technology)와 같은 경쟁업체가 메모리를 제공했을 수도 있다고 합니다. 영어 자그란.

AI 경쟁이 계속됨에 따라 H200 칩은 더 나은 효율성과 더 강력한 기능에 대한 높은 요구를 충족하도록 설계되었습니다.

파이프라인에 있는 큰 이름

Microsoft Azure, Oracle 클라우드 인프라, Google Cloud 및 Amazon Web Services는 200년 2024분기에 HXNUMX 기반 칩에 대한 액세스를 제공할 초기 클라우드 서비스 제공업체를 구성합니다. 이는 전문 AI 클라우드 제공업체인 Lambda, CoreWeave에 추가됩니다. , 및 Vultr.

"시장에서 무슨 일이 일어나고 있는지 살펴보면 모델 크기가 급속히 확대되고 있습니다... 이는 우리 중 또 다른 하나로서 최고의 최신 기술을 신속하게 도입하는 것입니다."라고 데이터 센터 제품 마케팅 책임자인 Dion Harris는 말합니다. 엔비디아, 말로 인용했다.

칩 제조업체에 따르면 새로운 H200은 "Meta의 Llama 2에서 간섭 속도를 거의 두 배로 늘리는 것을 포함하는 성능 향상"을 가져올 것이라고 합니다.

또한 읽기 : 중국국제수입박람회, AI와 메타버스 장치 선보여

중요성

새로운 H200은 다음과 같습니다. 미국 수출 제한 이는 칩 제조 대기업에 영향을 미칠 수 있는 고급 칩입니다.

이는 Nvidia의 데이터 센터 수익의 약 20~25%가 중국에서 발생하기 때문입니다. 하지만 회사에는 새로운 AI 칩 주문 일시 중지 아시아 경제에서 시스템을 다른 시장으로 리디렉션했습니다.

H200 칩셋 발표 이후 엔비디아의 주가는 1.5월 486일 13달러에 도달해 12%나 급등했는데, 이는 사상 최고치인 502달러보다 XNUMX달러 낮은 수치입니다.

올해 초부터 현재까지 카운터는 250% 이상 증가했습니다. 회사의 성장 궤적도 탄탄하게 유지되었으며 회계연도 16분기에 XNUMX억 달러의 매출을 예상하고 있습니다. 170 % 증가 전년도에

엔비디아는 약 80%의 지분을 보유하고 있습니다. 글로벌 시장 AI 칩용. ChatGPT 제조업체인 OpenAI 및 Stability AI와 같은 회사는 Nvidia 기술에 크게 의존합니다.

[포함 된 콘텐츠]

타임 스탬프 :

더보기 메타뉴스