Zasil ogień AI dzięki centralizacji PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Podsycaj ogień AI dzięki centralizacji

Sponsorowana funkcja Nieustający strumień rewolucyjnych technologii i odkryć – ogień, rolnictwo, koło, prasa drukarska i internet, by wymienić tylko kilka – głęboko ukształtował rozwój ludzkości i cywilizację. I ten cykl innowacji jest kontynuowany w przypadku sztucznej inteligencji (AI). 

Firma badawcza IDC posunęła się tak daleko, że stwierdziła, że ​​sztuczna inteligencja jest naprawdę odpowiedzią na niemal „wszystko”. Rasmus Andsbjerg, zastępca wiceprezesa ds. danych i analiz w IDC, mówi: „W rzeczywistości sztuczna inteligencja oferuje rozwiązania wszystkiego, z czym mamy obecnie do czynienia. Sztuczna inteligencja może być źródłem szybkiej ścieżki transformacji cyfrowej, umożliwiać oszczędności w czasach oszałamiających stóp inflacji i wspierać działania automatyzacyjne w czasach niedoboru siły roboczej”.

Z pewnością we wszystkich branżach i funkcjach organizacje użytkowników końcowych zaczynają odkrywać zalety sztucznej inteligencji, ponieważ pojawiają się coraz potężniejsze algorytmy i podstawowa infrastruktura, aby umożliwić lepsze podejmowanie decyzji i wyższą produktywność. 

Światowe przychody rynku sztucznej inteligencji (AI), w tym powiązanego oprogramowania, sprzętu i usług zarówno dla aplikacji opartych na sztucznej inteligencji, jak i nie, wyniosły łącznie 383.3 miliarda dolarów w 2021 roku. To wzrost o 20.7% w porównaniu z poprzednim rokiem, według najbardziej ostatni International Data Corporation (IDC) Światowy półroczny system śledzenia sztucznej inteligencji.

Podobnie, wdrażanie oprogramowania AI w chmurze nadal wykazuje stały wzrost. IDC spodziewa się, że wersje chmurowe nowo zakupionego oprogramowania AI przewyższą wdrożenia lokalne w 2022 r.

Niebo jest granicą sztucznej inteligencji

Dr Ronen Dar, dyrektor ds. technologii w firmie Run:ai, specjalizującej się w sztucznej inteligencji, która stworzyła platformę do zarządzania obliczeniami dla sztucznej inteligencji, uważa, że ​​niebo jest granicą rodzącego się sektora sztucznej inteligencji w przedsiębiorstwach. 

„AI to rynek, który, jak widzimy, rozwija się bardzo szybko. Jeśli chodzi o przedsiębiorstwa, widzimy popyt i adopcję uczenia maszynowego i sztucznej inteligencji. Myślę, że w tej chwili pojawiła się nowa technologia, która daje nowe możliwości, które zmienią świat; które zrewolucjonizują biznes” — zauważa Dar. 

Istnieje również coraz wyraźniejsze zrozumienie potrzeby rozpoczęcia eksploracji i eksperymentowania ze sztuczną inteligencją oraz zrozumienia, jak zintegrować sztuczną inteligencję z modelami biznesowymi.

Dar uważa, że ​​sztuczna inteligencja może przynieść „niesamowite korzyści” w usprawnianiu istniejących procesów biznesowych w przedsiębiorstwie: „Jeśli chodzi o optymalizację i sprawdzanie obecnego biznesu, widzimy wiele przypadków użycia sztucznej inteligencji i uczenia maszynowego, które poprawiają operacje i sposób podejmowania decyzji wokół podaży i popytu”.

Wskazuje, że nowe modele głębokiego uczenia oparte na sieciach neuronowych mogą usprawnić procesy, podejmowanie decyzji i dokładność krytycznych procesów biznesowych, takich jak wykrywanie oszustw w branży usług finansowych. Opieka zdrowotna to kolejny sektor, w którym potencjał sztucznej inteligencji jest „ogromny”, szczególnie jeśli chodzi o pomoc lekarzom w podejmowaniu lepszych decyzji klinicznych oraz pomoc w odkrywaniu i opracowywaniu nowych leków. 

Patrząc dalej w przyszłość, Dar przewiduje, że technologia sztucznej inteligencji pomoże zapewnić zupełnie nowe możliwości komercyjne, które obecnie nie istnieją w sektorach takich jak pojazdy samojezdne i wciągające gry. 

Infrastrukturalne przeszkody do pokonania

Pomimo oczywistego potencjału sztucznej inteligencji i uczenia maszynowego w przedsiębiorstwie, Dar przyznaje, że komercyjne wdrażanie sztucznej inteligencji jest hamowane przez problemy związane z zapewnieniem infrastruktury. Radzi, aby firmy przede wszystkim przyjrzały się sposobowi, w jaki sztuczna inteligencja dostaje się do organizacji.

Zwykle wiąże się to z nieskoordynowanym procesem realizowanym w poszczególnych działach, w ramach którego różne zespoły niezależnie udostępniają technologię i zasoby, co prowadzi do wdrożeń silosowych. Dział IT nie może skutecznie kontrolować tych doraźnych projektów i nie ma wglądu w to, co się dzieje. A to utrudnia, jeśli nie uniemożliwia, obliczenie zwrotu z inwestycji w infrastrukturę AI. 

„To klasyczny problem: kiedyś był to cień IT, a teraz cień sztucznej inteligencji” — mówi Dar. 

Ponadto najnowocześniejsza infrastruktura potrzebna do sztucznej inteligencji/uczenia maszynowego jest inwestycją, ponieważ przedsiębiorstwa potrzebują wydajnego sprzętu obliczeniowego z akceleracją GPU do przetwarzania bardzo złożonych danych i uczenia modeli. 

„Zespoły sztucznej inteligencji potrzebują dużej mocy obliczeniowej do trenowania modeli, zazwyczaj przy użyciu procesorów graficznych, które są najwyższej klasy zasobami centrum danych, które można wyciszyć i nie wykorzystywać efektywnie” — mówi Dar. „Z pewnością może to spowodować zmarnowanie dużej ilości pieniędzy”. 

Taka silosowa infrastruktura może na przykład skutkować niższym niż 10% poziomem wykorzystania.

Według sondażu Run:ai, Badanie stanu infrastruktury AI z 2021 r, opublikowanym w październiku 2021 r., 87 procent respondentów stwierdziło, że doświadcza pewnego poziomu problemów z alokacją zasobów GPU/obliczeniowych, a 12 procent twierdzi, że zdarza się to często. W rezultacie 83 procent ankietowanych firm zgłosiło, że nie wykorzystuje w pełni swojego sprzętu GPU i AI. W rzeczywistości prawie dwie trzecie (61 procent) wskazało, że ich GPU i sprzęt AI są w większości na „umiarkowanym” poziomie wykorzystania.

Centralizacja AI

Aby rozwiązać te problemy, Dar opowiada się za centralizacją zasobów sztucznej inteligencji. Firma Run:AI opracowała platformę do zarządzania obliczeniami dla sztucznej inteligencji, która właśnie to robi, centralizując i wirtualizując zasoby obliczeniowe GPU. Łącząc procesory graficzne w jedną wirtualną warstwę i automatyzując planowanie obciążenia w celu 100-procentowego wykorzystania, podejście to oferuje korzyści w porównaniu z systemami silosowymi na poziomie działów. 

Scentralizowanie infrastruktury przywraca kontrolę i widoczność, jednocześnie uwalniając analityków danych od narzutów związanych z zarządzaniem infrastrukturą. Zespoły sztucznej inteligencji współdzielą uniwersalne zasoby obliczeniowe sztucznej inteligencji, które można dynamicznie zwiększać i zmniejszać w miarę wzrostu lub spadku zapotrzebowania, eliminując wąskie gardła popytu i okresy niedostatecznego wykorzystania. 

Takie podejście, argumentuje Dar, może pomóc organizacjom w maksymalnym wykorzystaniu posiadanego sprzętu i uwolnić analityków danych od ograniczeń wynikających z ograniczeń zasobów. Wszystko to oznacza, że ​​mogą wykonywać więcej zadań i wprowadzać do produkcji więcej modeli AI. 

Przykład pochodzi z London Medical Imaging & Artificial Intelligence Centre for Value Based Healthcare, kierowanego przez King's College London i mieszczącego się w St. Thomas' Hospital. Wykorzystuje obrazy medyczne i elektroniczne dane dotyczące opieki zdrowotnej do trenowania zaawansowanych algorytmów głębokiego uczenia się do widzenia komputerowego i przetwarzania języka naturalnego. Algorytmy te służą do tworzenia nowych narzędzi do skutecznych badań przesiewowych, szybszej diagnozy i spersonalizowanych terapii.

Centrum zdało sobie sprawę, że jego starsza infrastruktura sztucznej inteligencji miała problemy z wydajnością: całkowite wykorzystanie procesora graficznego wynosiło poniżej 30 procent, przy „znaczących” okresach bezczynności niektórych komponentów. Po przejściu do rozwiązania tych problemów poprzez przyjęcie scentralizowanego modelu udostępniania zasobów obliczeniowych AI opartego na platformie Run:ai, wykorzystanie GPU wzrosło o 110 procent, przy jednoczesnej poprawie szybkości eksperymentów i ogólnej wydajności badań.

„Nasze eksperymenty mogą trwać kilka dni lub minut, przy użyciu strużki mocy obliczeniowej lub całego klastra” — mówi dr M. Jorge Cardoso, profesor nadzwyczajny i starszy wykładowca sztucznej inteligencji w King's College London oraz CTO w AI Centre. „Skracanie czasu uzyskiwania wyników gwarantuje, że możemy zadawać i odpowiadać na bardziej krytyczne pytania dotyczące zdrowia i życia ludzi” 

Scentralizowanie zasobów procesorów graficznych AI przyniosło również cenne korzyści komercyjne Wayve, londyńskiej firmie, która opracowuje oprogramowanie AI dla samojezdnych samochodów. Jego technologia została zaprojektowana tak, aby nie polegać na czujnikach, ale zamiast tego skupiać się na większej inteligencji, aby zapewnić lepszą autonomiczną jazdę w gęsto zaludnionych obszarach miejskich.

Pętla uczenia się floty firmy Wayve obejmuje ciągły cykl gromadzenia danych, kuracji, szkolenia modeli, ponownej symulacji i licencjonowania modeli przed wdrożeniem do floty. Główne zużycie mocy obliczeniowej GPU firmy pochodzi ze szkolenia produkcyjnego Fleet Learning Loop. Szkoli linię bazową produktu z pełnym zestawem danych i nieustannie szkoli się, aby zbierać nowe dane poprzez iteracje pętli uczenia się floty.

Firma zaczęła zdawać sobie sprawę, że cierpi z powodu „horroru” planowania GPU: chociaż prawie 100 procent jej dostępnych zasobów GPU zostało przydzielonych naukowcom, mniej niż 45 procent zostało wykorzystanych podczas początkowego przeprowadzania testów. 

„Ponieważ procesory graficzne były statycznie przydzielane naukowcom, kiedy badacze nie korzystali z przypisanych im procesorów graficznych, inni nie mieli do nich dostępu, co stwarzało złudzenie, że procesory graficzne do szkolenia modeli są pełne, nawet jeśli wiele procesorów graficznych pozostaje bezczynnych” — zauważa Wayve. 

Praca z Run:ai rozwiązała ten problem, usuwając silosy i eliminując statyczną alokację zasobów. Utworzono pule współdzielonych procesorów graficznych, umożliwiając zespołom dostęp do większej liczby procesorów graficznych i wykonywanie większej liczby zadań, co doprowadziło do poprawy ich wykorzystania o 35%. 

Lustrzane ulepszenia wydajności procesora

Odzwierciedlając sposób, w jaki firma VMware w ostatnich latach wniosła znaczną poprawę wydajności do maksymalnego wykorzystania procesorów serwerów, teraz pojawiają się nowe innowacje optymalizujące efektywność wykorzystania procesorów graficznych dla obciążeń obliczeniowych AI. 

„Jeśli pomyślisz o stosie oprogramowania, który działa na procesorach, to został zbudowany z dużą ilością oprogramowania VMware i wirtualizacji” — wyjaśnia Dar. „GPU są stosunkowo nowe w centrach danych, a oprogramowanie do sztucznej inteligencji i wirtualizacji – takie jak Przedsiębiorstwo oparte na sztucznej inteligencji NVIDIA – jest również ostatnim osiągnięciem.” 

„Wprowadzamy w tym obszarze zaawansowaną technologię z takimi możliwościami, jak ułamkowy GPU, zamiana zadań i. umożliwiając obciążeniom efektywne współdzielenie procesorów graficznych” — mówi Dar, dodając, że planowane są dalsze udoskonalenia.

Run:ai ściśle współpracuje z firmą NVIDIA, aby usprawnić i uprościć korzystanie z procesorów graficznych w przedsiębiorstwach. Najnowsza współpraca obejmuje umożliwienie firmom korzystającym z procesorów graficznych w chmurze elastyczności wielu chmur oraz integrację z Serwer wnioskowania NVIDIA Triton oprogramowanie upraszczające proces wdrażania modeli w produkcji.

W sposób, w jaki główne innowacje na przestrzeni dziejów miały głęboki wpływ na rasę ludzką i świat, Dar zauważa, że ​​moc sztucznej inteligencji będzie musiała być wykorzystana ostrożnie, aby zmaksymalizować jej potencjalne korzyści, jednocześnie radząc sobie z potencjalnymi wadami. Porównuje sztuczną inteligencję do najbardziej pierwotnej innowacji ze wszystkich: ognia. 

„Jest jak ogień, który przyniósł wiele wspaniałych rzeczy i zmienił ludzkie życie. Niebezpieczeństwo niósł także ogień. Więc istoty ludzkie zrozumiały, jak żyć z ogniem” — mówi Dar. „Myślę, że jest to również obecne w sztucznej inteligencji”. 

Sponsorowane przez Run:ai.

Znak czasu:

Więcej z Rejestr