Rola procesora w zrównoważonej sztucznej inteligencji/ML

Rola procesora w zrównoważonej sztucznej inteligencji/ML

Rola procesora w zrównoważonej inteligencji danych AI/ML PlatoBlockchain. Wyszukiwanie pionowe. AI.

artykuł sponsorowany W miarę jak sztuczna inteligencja rozszerza swój zasięg na środowiska komputerowe w przedsiębiorstwach, jej wpływ powoduje nieprzewidziane skutki domina. Najnowsza wersja IDC PrzyszłośćScape raport przewiduje na przykład, że w miarę jak firmy będą ścigać się we wprowadzaniu produktów/usług wzmocnionych sztuczną inteligencją i pomaganiu swoim klientom we wdrożeniach sztucznej inteligencji, technologia stanie się kluczowym czynnikiem motywującym innowacje.

Kolejna zmiana oparta na sztucznej inteligencji dotyczy zakresu, w jakim centra danych mogą być zmuszone do równoważenia procesorów z dyskretnymi akceleratorami AI, takimi jak procesory graficzne lub wyspecjalizowane architektury, aby zapewnić możliwości obliczeniowe o wysokiej wydajności, których oczekują twórcy sztucznej inteligencji.

Jest to debata, która podnosi kwestie niezwykle istotne dla właścicieli centrów danych, zarówno pod względem dodatkowych inwestycji CAPEX, jak i prawdopodobieństwa, że ​​(chociaż metody pomiaru są nieprecyzyjne) typowe operacje sztucznej inteligencji oparte na procesorach graficznych zużywają więcej energii niż konwencjonalne obciążenia IT.

Radzenie sobie z większym obciążeniem AI/emisją dwutlenku węgla stanowi dodatkowy problem w przypadku operacji w centrach danych, które muszą również zapewniać, że ulepszone architektury obliczeniowe zoptymalizowane pod kątem sztucznej inteligencji będą w stanie sprostać zwiększonemu zapotrzebowaniu na energię bez ryzyka przeciążenia istniejącej technologii lub obiektów.

Tak więc, ponieważ rozszerzone regulacje dotyczące zarządzania zrównoważonym rozwojem i zarządzania emisjami dwutlenku węgla wymuszają na operacjach ograniczanie zużycia energii w całej gamie sprzętu i oprogramowania IT, sztuczna inteligencja stanowi zarówno szansę, jak i przeszkodę.

Ograniczanie zużycia energii przez sztuczną inteligencję

Podsumowując, zwiększone zużycie energii i niezbędne rekonfiguracje architektury wymagane do obsługi obciążeń AI i uczenia maszynowego stanowią nieubłagane wyzwanie dla centrów danych, wyjaśnia Stephan Gillich, dyrektor ds. sztucznej inteligencji GTM w Centrum doskonałości AI firmy Intel.

„Jest całkiem jasne, że we wszystkich sektorach i branżach wertykalnych, niezależnie od tego, gdzie są opracowywane, szkolone i uruchamiane aplikacje i usługi AI/uczenia maszynowego, że możliwości lokalnych i hostowanych w chmurze obiektów IT będą musiały zostać zmodernizowane, aby poradzić sobie ze zwiększonymi ilościami danych – intensywne obciążenia” – mówi Gillich. „Jest również jasne, że te ulepszenia będą musiały obejmować coś więcej niż tylko zwiększenie możliwości obliczeniowych”.

Gillich uważa, że ​​wiele można zrobić, aby zwiększyć zrównoważony rozwój centrów danych zorientowanych na sztuczną inteligencję, zaczynając od ponownej oceny niektórych założeń dotyczących krajobrazu sztucznej inteligencji/uczenia się maszynowego. Jednostki przetwarzające są dobrym punktem wyjścia, szczególnie przy podejmowaniu decyzji, czy procesory czy karty graficzne będą lepiej dostosowane do danego zadania.

Ponieważ chociaż wydaje się, że obciążenia wymagające dużej mocy obliczeniowej związane ze sztuczną inteligencją rosną (nikt nie jest do końca pewien, w jakim tempie), większość pracy w centrum danych (obciążenia niezwiązane ze sztuczną inteligencją) musi w dalszym ciągu pochłaniać energię dzień po dniu – zapewniając stabilną aplikację a strumienie przychodów z usług nie powinny zostać zakłócone.

Większość z nich jest obecnie obsługiwana przez procesory, a wyposażenie standardowego centrum danych w droższe procesory graficzne w przypadku wielu obiektów byłoby nadwyżką w stosunku do wymagań. Ogólnie rzecz biorąc, procesor graficzny zużywa więcej mocy niż procesor do wykonania podobnego zadania. W zależności od zasilania danej konfiguracji szafy, integracja procesorów graficznych z infrastrukturą centrum danych wymaga na przykład modernizacji systemów dystrybucji zasilania, co wiąże się z dodatkowymi kosztami początkowymi, a także wyższymi rachunkami za energię po ich uruchomieniu.

Co więcej, rozwój procesorów Intela stale wprowadza innowacje. Gillich twierdzi, że w wielu przypadkach użycia procesor może osiągnąć równie dobrą – a czasem lepszą – ogólną wydajność co procesor graficzny. Ich wydajność można zwiększyć dzięki przełomowej technologii, takiej jak Intel® AMX (Advanced Matrix Extensions), akcelerator wbudowany w procesory Intel Xeon czwartej generacji.

„Procesory Intel Xeon mogą umożliwić centrum danych skalowanie wykorzystania sztucznej inteligencji poprzez wbudowaną akcelerację sztucznej inteligencji, która zwiększa wydajność procesora na potrzeby uczenia maszynowego, szkolenia i wnioskowania” – podkreśla Gillich. „W ten sposób mogą zastosować oddzielne akceleratory, aby zminimalizować nakłady inwestycyjne i zmaksymalizować wydajność, jednocześnie wykorzystując istniejące środowiska przetwarzania Intel Xeon”.

Należy mieszać obciążenia AI i inne niż AI

Intel AMX to dedykowany blok sprzętowy w rdzeniu procesora Intel Xeon Scalable, który umożliwia uruchamianie zadań AI na procesorze zamiast przerzucania ich do oddzielnego akceleratora, zapewniając znaczny wzrost wydajności. Nadaje się do obciążeń AI, takich jak systemy rekomendacji uczenia maszynowego, rozpoznawanie obrazów i przetwarzanie języka naturalnego, które opierają się na matematyce macierzowej.

Kolejnym argumentem przemawiającym za procesorami o zwiększonej wydajności jest to, że zapewniają one operatorom centrów danych opłacalną drogę do wykorzystania w większym stopniu istniejących zasobów procesora, zabezpieczenia swoich zasobów na przyszłość, dzięki czemu będą w stanie wytrzymać mieszane obciążenia i zapewnić im możliwość lepszego kontrolować całkowite zużycie energii.

To z kolei może pomóc dostawcom usług dla centrów danych (i ich klientom) osiągnąć cele w zakresie zrównoważonego rozwoju i stanowić zaletę dla twórców oprogramowania (w przedsiębiorstwach lub na zewnątrz), którzy szukają zoptymalizowanej platformy do zaprezentowania efektywności energetycznej swojego kodowania wyjścia.

„Rzeczywistość jest taka, że ​​zamiast spieszyć się z wykorzystaniem możliwości, jakie mogą oferować obciążenia AI, operatorzy centrów danych zdają sobie sprawę, że powinni wziąć pod uwagę szereg imperatywów, które w równym stopniu wynikają z obaw komercyjnych, jak i wyborów technologicznych” – mówi Gillich.

Imperatywy te mogą obejmować: integrację obciążeń związanych ze sztuczną inteligencją z obciążeniami niezwiązanymi ze sztuczną inteligencją; integracja różnych stosów sprzętu i oprogramowania; oraz dlatego, że chcą mieć pewność, że mają architekturę odpowiednią dla wielu różnych obciążeń, integrację różnych typów strumieni pracy.

„Te pytania wskazują na złożone wyzwania, ponieważ ich właściwe rozwiązanie ma wpływ na optymalną efektywność technologiczną i energetyczną – przy czym efektywność energetyczna jest obecnie głównym punktem odniesienia w zakresie wydajności, który będzie w coraz większym stopniu wpływać na rentowność komercyjną centrum danych” – mówi Gillich. „A więc jeszcze raz: jest to sprawą najwyższej wagi.”

Z punktu widzenia Gillicha kluczem do przystosowania się do tej wyłaniającej się rzeczywistości jest etapowy proces, który można nazwać „asymilacją sztucznej inteligencji”. Po pierwsze, obciążenia AI nie są oddzielone od innych typów obciążeń – zostaną zintegrowane z konwencjonalnymi obciążeniami, a nie uruchamiane oddzielnie.

Gillich jako przykład tej etapowej integracji podaje wideokonferencje: „Już podczas przesyłania strumieniowego standardowego ruchu audio/wideo do standardowych aplikacji sztuczna inteligencja jest integrowana w celu wykonywania równoległych zadań, takich jak podsumowywanie, tłumaczenie i transkrypcja. Takie funkcje są bardzo dobrze wspierane przez sztuczną inteligencję.

Kompleksowa oszczędność energii

Gillich twierdzi, że osiągnięcie efektywności energetycznej musi być naprawdę kompleksowym przedsięwzięciem strategicznym. „Obejmuje zarówno stronę programową, jak i architekturę sprzętową – kompletny mechanizm umożliwiający dany proces przepływu pracy. Gdzie są przechowywane dane, aby dostęp był jak najbardziej efektywny – pod względem obliczeniowym, a zatem i energetycznym – czy to najlepsze miejsce pod względem efektywności energetycznej?”

Innym czynnikiem, który należy uwzględnić w tej ocenie, jest określenie, gdzie działa obciążenie. Na przykład, czy działa na klientach (takich jak komputery AI wyposażone w procesory Intel Core Ultra, a nie na serwerach w centrum danych? Czy niektóre z tych obciążeń AI faktycznie można uruchamiać na klientach (obok serwerów)?

Każda opcja jest warta rozważenia, jeśli ma pomóc w lepszym wyrównaniu równowagi między mocą obliczeniową AI a zużyciem energii, twierdzi Gillich: „To prawie jak powrót do starej szkoły przetwarzania rozproszonego”.

Gillich dodaje: „Czasami nasi klienci pytają: «Gdzie będzie grać sztuczna inteligencja?». – odpowiedź jest taka, że ​​AI zagra wszędzie. Dlatego w Intelu nasze ambicje skupiają się na czymś, co można nazwać uniwersalnym przystosowaniem sztucznej inteligencji, ponieważ wierzymy, że znajdzie ona zastosowanie we wszystkich obszarach zastosowań”.

W firmie Intel obejmuje to oprogramowanie pośrednie, takie jak interfejsy API, które, podobnie jak każda inna część stosu oprogramowania, musi być możliwie jak najbardziej wydajne. „Rozwój interfejsów API” może skutkować niepotrzebnym przetwarzaniem, minimalizacją zasięgu infrastruktury oraz brakiem monitorowania i kontroli.

"Z Intel OneAPIprzedsiębiorstwa mogą w pełni wykorzystać swoją wartość sprzętową, opracować wysokowydajny kod obejmujący wiele architektur i przygotować swoje aplikacje na przyszłe potrzeby” – wyjaśnia Gillich.

„Intel oneAPI to otwarty, międzybranżowy, oparty na standardach, ujednolicony, wieloarchitekturowy model programowania wielu dostawców, który zapewnia programistom wspólne doświadczenia w różnych architekturach akceleratorów – w celu szybszego działania aplikacji i lepszej produktywności. Inicjatywa oneAPI zachęca do współpracy nad specyfikacją oneAPI i kompatybilnymi implementacjami oneAPI w całym ekosystemie.

Gillich dodaje: „oneAPI zapewnia stos oprogramowania pośredniego, który wykorzystuje standardowe elementy, takie jak struktury AI – takie jak Pytorch lub TensorFlow [platforma oprogramowania typu open source dla sztucznej inteligencji i uczenia maszynowego] – i tłumaczy je na poziomie maszynowym, a oneAPI umożliwia skuteczny sposób Zrób to. Użytkownicy mogą korzystać ze wspólnego interfejsu API na poziomie platformy AI, a my posiadamy interfejs API (oneAPI), który obsługuje różne wersje sprzętu”. Zatem wspólny interfejs API oznacza, że ​​użytkownicy mogą tworzyć otwarte oprogramowanie, które może być obsługiwane na otwartym stosie oprogramowania.

Wydajność na poziomie procesora graficznego w cenach na poziomie procesora

Postęp w informatyce jest w dużej mierze napędzany oczekiwaniem ciągłego postępu technologicznego w połączeniu z udoskonaleniami strategii wdrażania opartymi na wiedzy. Jest to model oparty na znalezieniu najlepszej możliwej do osiągnięcia równowagi pomiędzy wydatkami budżetowymi a zwrotem z inwestycji w biznesie oraz oczekiwaniu, że zawsze będzie można szukać dalszych innowacji. Sztuczna inteligencja reprezentuje apogeum tego ideału – jest na tyle inteligentna, że ​​może na nowo wymyślić własną propozycję wartości poprzez ciągłe samodoskonalenie.

Wbudowując akcelerator AMX w procesory Intel Xeon czwartej generacji, Intel pokazuje, jak można osiągnąć wydajność na poziomie procesora graficznego przy cenie odpowiadającej procesorowi. Umożliwia to centrom danych skalowanie przy jednoczesnej maksymalizacji wartości zwrotu z istniejących zestawów procesorów wyposażonych w procesory Intel Xeon, ale zapewnia także model cenowy, który obniża koszty wejścia na rynek klientom z obciążeniami AI, ale ograniczonymi budżetami.

Niższe zużycie energii przez procesory oznacza, że ​​efektywność energetyczną można osiągnąć całościowo podczas wszystkich operacji centrum danych – takich jak chłodzenie i wentylacja – i to kolejna zwycięska zaleta dla świadomych zrównoważonego rozwoju architektów oprogramowania i twórców rozwiązań AL.

Dostarczone przez firmę Intel.

Znak czasu:

Więcej z Rejestr