Sürdürülebilir AI/ML'de CPU'nun rolü

Sürdürülebilir AI/ML'de CPU'nun rolü

Sürdürülebilir AI/ML PlatoBlockchain Veri Zekasında CPU'nun rolü. Dikey Arama. Ai.

Advertorial Yapay zeka, iş bilişimi ortamlarında erişimini genişlettikçe, etkisi bazı beklenmedik zincirleme etkilere neden oluyor. IDC'nin son durumu Gelecek Manzarası Örneğin rapor, şirketlerin yapay zeka destekli ürün/hizmetler sunmak ve müşterilerine yapay zeka uygulamaları konusunda yardımcı olmak için yarıştıkça teknolojinin inovasyon için önemli bir motivasyon kaynağı haline geleceğini öngörüyor.

Yapay zeka odaklı bir başka değişiklik, yapay zeka geliştiricilerinin istediği yüksek performanslı bilgi işlem yeteneklerini sağlamak için veri merkezlerinin CPU'ları GPU'lar veya özel mimariler gibi ayrı Yapay Zeka Hızlandırıcılarla dengelemek zorunda kalabileceği boyuta odaklanıyor.

Bu, veri merkezi sahipleri için hem ek CAPEX yatırımı hem de (ölçüm yöntemleri kesin olmasa da) tipik GPU odaklı yapay zeka operasyonlarının geleneksel BT iş yüklerinden daha fazla güç tüketme olasılığı açısından yüksek riskli sorunları gündeme getiren bir tartışmadır.

Yapay zekanın daha yüksek güç/karbon ek yüküyle uğraşmak, veri merkezi operasyonları için ek bir sıkıntı noktasıdır; bu aynı zamanda yapay zeka için optimize edilmiş yükseltilmiş bilgi işlem mimarilerinin, mevcut teknoloji veya tesisleri aşırı yükleme riski olmadan artan güç taleplerini yönetebilmesini de sağlamalıdır.

Sürdürülebilirlik yönetişimi ve karbon yönetimine ilişkin genişletilmiş düzenlemeler, operasyonları BT donanımı ve yazılımı yelpazesinde enerji kullanımını azaltmaya zorlarken, yapay zeka hem fırsatı hem de engeli temsil ediyor.

Yapay Zeka güç tüketimini azaltma

Intel'in Yapay Zeka Mükemmeliyet Merkezi Yapay Zeka GTM Direktörü Stephan Gillich, artan güç tüketimi ve yapay zeka ve Makine Öğrenimi iş yüklerini karşılamak için gereken mimari yeniden yapılandırmaların, veri merkezleri için amansız bir zorluk oluşturduğunu açıklıyor.

“Yapay Zeka/Makine Öğrenimi uygulamalarının ve hizmetlerinin geliştirildiği, eğitildiği ve çalıştırıldığı dikey sektörler ve endüstriler genelinde, şirket içi ve bulutta barındırılan BT tesislerinin yeteneklerinin, artan veri hacimleriyle başa çıkabilmek için yükseltmelerden geçmesi gerekeceği oldukça açık. -yoğun iş yükleri," diyor Gillich. "Ayrıca bu yükseltmelerin bilgi işlem kapasitesini artırmaktan daha fazlasını gerektireceği de açık."

Gillich, yapay zeka/Makine Öğrenimi ortamı etrafındaki bazı varsayımların yeniden değerlendirilmesinden başlayarak, yapay zeka odaklı veri merkezlerinin sürdürülebilirliğini artırmak için çok şey yapılabileceğine inanıyor. İşleme birimleri, özellikle CPU'ların mı yoksa GPU'ların mı göreve daha uygun olduğuna karar verirken başlamak için iyi bir yerdir.

Çünkü yapay zekaya özgü bilgi işlem yoğunluklu iş yükleri artıyor gibi görünse de (hiç kimse hangi hızda olduğundan tam olarak emin değil) veri merkezi işlerinin (AI olmayan iş yükleri) büyük kısmının gün be gün azalmaya devam etmesi ve istikrarlı bir uygulama sunması gerekiyor. ve hizmet gelir akışlarının kesintiye uğramaması.

Bunların çoğu şu anda CPU'lar tarafından yönetiliyor ve standart bir veri merkezini daha maliyetli GPU'larla yeniden donatmak, pek çok tesis için ihtiyaç fazlası olacaktır. Genel anlamda GPU, benzer bir görevi gerçekleştirmek için CPU'dan daha fazla watt tüketir. Belirli bir raf konfigürasyonunun güç kaynağına bağlı olarak, GPU'ların veri merkezi altyapısına entegre edilmesi, örneğin güç dağıtım sistemlerinde yükseltmeler gerektirir; bu, çalıştırıldıktan sonra daha yüksek enerji faturalarına ek olarak ekstra ön maliyetlere yol açar.

Dahası, Intel'in CPU gelişimi yeniliklere devam ediyor. Gillich, birden fazla kullanım durumunda bir CPU'nun GPU kadar iyi, hatta bazen daha iyi bir genel performansa ulaştığının kanıtlanabileceğini savunuyor. Performansları, 4'üncü nesil Intel Xeon CPU'larda yerleşik bir hızlandırıcı olan Intel® AMX (Gelişmiş Matris Uzantıları) gibi çığır açan teknolojilerle artırılabilir.

Gillich, "Intel Xeon işlemciler, bir veri merkezinin, Makine Öğrenimi, eğitim ve çıkarım için CPU performansını artıran yerleşik yapay zeka hızlandırma yoluyla yapay zekayı benimsemesini ölçeklendirmesine olanak sağlayabilir" diye belirtiyor. "Bu şekilde, mevcut Intel Xeon işlem ortamlarından yararlanırken CAPEX'i en aza indirmek ve performansı en üst düzeye çıkarmak için ayrı hızlandırıcıları benimseyebilirler."

Yapay zeka ile yapay zeka dışı iş yüklerinin karıştırılması gerekiyor

Intel AMX, Intel Xeon Ölçeklenebilir işlemci çekirdeği üzerinde bulunan özel bir donanım bloğudur ve yapay zeka iş yüklerini ayrı bir hızlandırıcıya aktarmak yerine CPU üzerinde çalıştırarak önemli bir performans artışı sağlar. Matris matematiğine dayanan Makine Öğrenimi öneri sistemleri, görüntü tanıma ve doğal dil işleme gibi yapay zeka iş yüklerine uygundur.

Artırılmış CPU'ların lehine olan diğer bir argüman da, veri merkezi operatörlerinin mevcut CPU taahhütlerinden daha fazlasını yapmaları, varlıklarını geleceğe hazır hale getirmeleri ve böylece karma iş yüklerini üstlenebilmeleri ve onları daha iyi performans gösterebilecek bir konuma yerleştirmeleri için uygun maliyetli bir yol sağlamasıdır. genel güç kullanımını kontrol edin.

Bu da veri merkezi hizmetleri sağlayıcılarının (ve müşterilerinin) sürdürülebilirlik hedeflerini karşılamalarına yardımcı olabilir ve kodlamalarının enerji verimliliğini sergilemek için optimize edilmiş bir platform arayan yazılım geliştiriciler (kurumsal veya üçüncü taraf) için bir satış noktası sağlayabilir. çıktılar.

Gillich, "Gerçek şu ki, veri merkezi operatörleri, yapay zeka iş yüklerinin vaat edebileceği fırsatlara koşmak yerine, teknolojik tercihler kadar ticari kaygılardan da kaynaklanan bir dizi zorunluluğu dikkate almaları gerektiğinin farkına varıyor" diyor.

Bu zorunluluklar şunları içerebilir: Yapay zeka iş yüklerinin yapay zeka olmayan iş yükleriyle entegrasyonu; farklı donanım ve yazılım yığınlarının entegrasyonu; ve birden fazla farklı iş yüküne uygun bir mimariye sahip olduklarından ve farklı iş akışı türlerinin entegrasyonundan emin olmak istedikleri için.

Gillich, "Bu sorular karmaşık zorluklara işaret ediyor, çünkü bunları doğru şekilde yanıtlamak, optimum teknoloji ve enerji verimliliğiyle bağlantılıdır; enerji verimliliği artık bir veri merkezinin ticari sürdürülebilirliğini giderek daha fazla etkileyecek temel bir performans ölçütü haline geliyor" diyor. "Yani yine söylüyorum, bu son derece önemli."

Gillich'in bakış açısına göre, ortaya çıkan bu gerçekliğe uyum sağlamanın anahtarı 'Yapay Zeka asimilasyonu' olarak adlandırılabilecek adımlı bir süreçtir. Burada birinci nokta, yapay zeka iş yüklerinin diğer iş yükü türlerinden ayrı tutulmamasıdır; ayrı olarak çalıştırılmak yerine geleneksel iş yüklerine entegre edilecektir.

Gillich, bu aşamalı entegrasyonun bir örneği olarak video konferansı veriyor: “Zaten standart uygulamalar arasında standart ses/video trafiğini aktarırken, özetleme, çeviri, transkripsiyon gibi eşzamanlı görevleri gerçekleştirmek için yapay zeka entegre ediliyor. Bu tür özellikler yapay zeka tarafından çok iyi destekleniyor.

Uçtan uca enerji tasarrufu

Gillich, enerji verimliliğine ulaşmanın gerçekten uçtan uca stratejik bir girişim olması gerektiğini savunuyor. “Belirli bir iş akışı sürecini mümkün kılan eksiksiz mekanizma olan donanım mimarilerinin yanı sıra yazılım tarafını da kapsıyor. Erişimi en verimli (bilgi işlem açısından ve dolayısıyla enerji açısından) hale getirmek için veriler nerede depolanıyor? Enerji verimliliği için en iyi yer burası mı?

Bu değerlendirmeye dahil edilecek diğer faktör iş yükünün nerede çalıştığını belirlemektir. Örneğin, veri merkezindeki sunucular yerine istemciler (örneğin, Intel Core Ultra işlemcilerle donatılmış AI PC) üzerinde mi çalışıyor? Bu AI iş yüklerinden bazıları aslında istemcilerde (sunucuların yanı sıra) çalıştırılabilir mi?

Gillich, yapay zeka-bilgi işlem/güç tüketimi dengesini daha iyi hizalamaya yardımcı olacaksa her seçeneğin dikkate alınmaya değer olduğunu savunuyor: "Bu, neredeyse eski tarz dağıtılmış bilgi işlem kavramına geri dönüş gibi."

Gillich şunları ekliyor: "Bazen müşterilerimiz 'Yapay zeka nerede oynayacak?' diye soruyor. – cevap şu: Yapay zeka her yerde oynayacak. Bu nedenle Intel olarak amacımız, yapay zekanın evrensel uyumu olarak adlandırılabilecek şeye odaklanmış durumda çünkü onun tüm uygulama alanlarına gireceğine inanıyoruz."

Intel'de bu, yazılım yığınının diğer tüm bölümlerinde olduğu gibi mümkün olduğunca verimli olması gereken API'ler gibi ara yazılımları da kapsar. 'API'nin yayılması' gereksiz işlemlere, altyapı ayak izinin en aza indirilmesine ve izleme ve kontrol eksikliğine yol açabilir.

"With Intel oneAPIsayesinde kuruluşlar donanım değerlerinin tamamını gerçekleştirebilir, yüksek performanslı mimariler arası kod geliştirebilir ve uygulamalarını gelecekteki ihtiyaçlara hazır hale getirebilir," diye açıklıyor Gillich.

“Intel oneAPI, daha hızlı uygulama performansı ve gelişmiş üretkenlik için hızlandırıcı mimarilerde ortak bir geliştirici deneyimi sunan açık, sektörler arası, standartlara dayalı, birleşik, çok mimarili, çok sağlayıcılı bir programlama modelidir. oneAPI girişimi, ekosistem genelinde oneAPI spesifikasyonu ve uyumlu oneAPI uygulamaları üzerinde iş birliğini teşvik ediyor."

Gillich şunları ekliyor: "oneAPI, Pytorch veya TensorFlow (Yapay Zeka ve Makine Öğrenimi için açık kaynaklı yazılım platformu) gibi AI Çerçeveleri gibi standart şeyleri alan ve bunları makine düzeyinde çeviren bir ara katman yazılımı yığını sağlıyor ve oneAPI, yap bunu. Kullanıcılar, AI çerçeve düzeyinde ortak bir API kullanabilir ve farklı donanım türlerine hitap eden bir API'ye (oneAPI) sahibiz." Dolayısıyla ortak bir API, kullanıcıların açık bir yazılım yığınında desteklenebilecek açık yazılım oluşturabileceği anlamına gelir.

CPU düzeyindeki fiyat noktalarında GPU düzeyinde performans

BT'deki ilerleme, büyük ölçüde dağıtım stratejilerindeki içgörü odaklı iyileştirmelerle birlikte sürekli teknolojik ilerleme beklentisinden kaynaklanmaktadır. Bu, bütçe harcamaları ile iş yatırım getirisi arasında ulaşılabilir en iyi dengeyi bulmaya ve her zaman çabalanacak daha fazla yeniliğin olduğu beklentisine dayanan bir modeldir. Yapay zeka bu idealin zirvesini temsil ediyor; sürekli kendini geliştirme yoluyla kendi değer önerisini yeniden keşfedecek kadar akıllı.

Intel, AMX hızlandırıcıyı 4. nesil Intel Xeon CPU'larına yerleştirerek, CPU düzeyindeki fiyat noktalarında GPU düzeyindeki performansın nasıl elde edilebileceğini gösteriyor. Bu, veri merkezlerinin mevcut Intel Xeon destekli işleme tesislerinin getiri değerini en üst düzeye çıkarırken ölçeklenmesine olanak tanır, ancak aynı zamanda yapay zeka iş yüküne sahip ancak bütçeleri sınırlı olan müşteriler için giriş maliyetini düşüren bir fiyatlandırma modeli de sağlar.

CPU'ların daha düşük güç tüketimi, bir veri merkezi tesisinin soğutma ve havalandırma gibi tüm operasyonları boyunca enerji verimliliğinin bütünsel olarak elde edilebileceği anlamına gelir ve bu, sürdürülebilirliğe duyarlı yazılım mimarları ve AL çözümleri geliştiricileri için bir başka kazançlı çekiciliktir.

Intel'in katkılarıyla.

Zaman Damgası:

Den fazla Kayıt