Роль центрального процесора в стабільному штучному інтелекті/ML

Роль центрального процесора в стабільному штучному інтелекті/ML

The role of the CPU in sustainable AI/ML PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Рекламний Оскільки штучний інтелект розширює своє охоплення в бізнес-комп’ютерних середовищах, його вплив викликає деякі непередбачені побічні ефекти. Останнє від IDC FutureScape Доповідь, наприклад, передбачає, що в міру того, як компанії прагнуть представити продукти/послуги з розширеним штучним інтелектом і допомагати своїм клієнтам у впровадженні штучного інтелекту, ця технологія стане ключовим мотиватором для інновацій.

Ще одна зміна, спричинена штучним інтелектом, пов’язана з тим, наскільки центрам обробки даних, можливо, доведеться збалансувати ЦП із дискретними прискорювачами штучного інтелекту, такими як графічні процесори або спеціалізовані архітектури, щоб забезпечити високопродуктивні обчислювальні можливості, яких хочуть розробники ШІ.

Це дискусія, яка піднімає важливі питання для власників центрів обробки даних, як з точки зору додаткових капіталовкладень, так і ймовірності того, що (хоча методи вимірювання є неточними) типові операції штучного інтелекту, керовані GPU, споживають більше енергії, ніж звичайні ІТ-робочі навантаження.

Робота з вищими накладними витратами електроенергії/вуглецю ШІ є додатковою проблемною точкою для операцій центру обробки даних, які також повинні гарантувати, що оновлена ​​обчислювальна архітектура, оптимізована для ШІ, зможе керувати підвищеними вимогами до електроенергії без ризику перевантаження існуючих технологій або засобів.

Отже, оскільки розширене регулювання в управлінні сталим розвитком і управлінні викидами вуглецю спонукає до скорочення споживання енергії всіма ІТ-обладнанням і програмним забезпеченням, штучний інтелект представляє як можливість, так і перешкоду.

Зменшення енергоспоживання ШІ

У сукупності підвищене енергоспоживання та необхідні зміни конфігурації архітектури, необхідні для роботи з ШІ та машинним навчанням, створюють невблаганний виклик для центрів обробки даних, пояснює Стефан Гілліх, директор відділу штучного інтелекту GTM у Центрі передового досвіду AI Intel.

«У вертикальних секторах і галузях, де б не розроблялися, навчалися та запускалися додатки та послуги штучного інтелекту/машинного навчання, цілком зрозуміло, що можливості локальних і хмарних ІТ-об’єктів потребуватимуть модернізації для роботи зі збільшенням обсягів даних. - інтенсивні робочі навантаження, - каже Гілліх. «Також зрозуміло, що ці оновлення передбачатимуть більше, ніж просто збільшення обчислювальних можливостей».

Гілліх вважає, що можна багато зробити для підвищення стійкості центрів обробки даних, орієнтованих на штучний інтелект, починаючи з переоцінки деяких припущень щодо ландшафту ШІ/машинного навчання. Процесори — гарне місце для початку, особливо коли вирішуєш, які процесори чи графічні процесори краще підходять для завдання.

Тому що хоча навантаження, пов’язані зі штучним інтелектом, здається, зростають (ніхто точно не впевнений, якими темпами), основна частина роботи в центрі обробки даних (робочі навантаження, не пов’язані зі штучним інтелектом) має продовжувати виконуватися день у день, забезпечуючи стабільну роботу програми і потоки доходів від послуг не повинні бути порушені.

Більшість із них наразі обслуговуються центральними процесорами, і переоснащення стандартного центру обробки даних дорожчими графічними процесорами для багатьох об’єктів було б непотрібним. Загалом, графічний процесор споживає більше потужності, ніж центральний процесор для виконання аналогічного завдання. Залежно від джерела живлення певної конфігурації стійки, інтеграція графічних процесорів в інфраструктуру центру обробки даних вимагає, наприклад, модернізації систем розподілу електроенергії, які обов’язково призведуть до додаткових початкових витрат на додаток до вищих рахунків за електроенергію після запуску.

Більше того, розробка процесорів Intel продовжує вдосконалюватись. Гілліх стверджує, що в багатьох випадках використання центрального процесора можна досягти такої ж хорошої, а іноді й кращої загальної продуктивності, ніж графічний процесор. Їхню продуктивність можна підвищити за допомогою таких передових технологій, як Intel® AMX (Advanced Matrix Extensions), прискорювача, вбудованого в процесори Intel Xeon 4-го покоління.

«Процесори Intel Xeon можуть дозволити центру обробки даних масштабувати впровадження штучного інтелекту за допомогою вбудованого прискорення штучного інтелекту, яке підвищує продуктивність ЦП для машинного навчання, навчання та висновків», — зазначає Гілліх. «Таким чином вони можуть застосувати дискретні прискорювачі, щоб мінімізувати капітальні витрати та максимізувати продуктивність, одночасно використовуючи існуючі процесорні середовища Intel Xeon».

Необхідно поєднувати робочі навантаження зі штучним інтелектом і без них

Intel AMX — це спеціальний апаратний блок на процесорному ядрі Intel Xeon Scalable, який дозволяє виконувати робочі навантаження AI на ЦП замість того, щоб перевантажувати їх на дискретний прискорювач, забезпечуючи значне підвищення продуктивності. Він підходить для робочих навантажень ШІ, таких як системи рекомендацій машинного навчання, розпізнавання зображень і обробка природної мови, які покладаються на матричну математику.

Ще одним аргументом на користь доповнених ЦП є те, що вони забезпечують економічно ефективний шлях для операторів центрів обробки даних, щоб більше використовувати існуючі ЦП, підготувати свої активи до майбутнього, щоб вони могли виконувати змішані навантаження, і надати їм можливість краще контролювати загальне споживання електроенергії.

Це, у свою чергу, може допомогти постачальникам послуг центрів обробки даних (та їхнім клієнтам) досягти цілей сталого розвитку та надати перевагу розробникам програмного забезпечення (корпоративним або стороннім), які шукають оптимізовану платформу для демонстрації енергоефективності свого кодування. виходи.

«Реальність така, що замість того, щоб поспішати з можливостями, які може обіцяти робоче навантаження штучного інтелекту, оператори центрів обробки даних усвідомлюють, що їм слід розглянути низку обов’язкових вимог, які ґрунтуються як на комерційних інтересах, так і на технологічному виборі», — говорить Гілліх.

Ці вимоги можуть включати: інтеграцію робочих навантажень штучного інтелекту з робочими навантаженнями, не пов’язаними з штучним інтелектом; інтеграція різних апаратних і програмних стеків; і оскільки вони хочуть переконатися, що вони мають архітектуру, яка підходить для багатьох різних робочих навантажень, інтеграція різних типів робочих потоків.

«Ці запитання вказують на складні проблеми, оскільки їхнє правильне вирішення має вплив на оптимальну технологічну та енергоефективність – енергоефективність тепер є основним критерієм ефективності, який дедалі більше впливатиме на комерційну життєздатність центру обробки даних», – каже Гілліх. «Знову ж таки, це надзвичайно важливо».

З точки зору Гілліча, ключем до адаптації до цієї нової реальності є поетапний процес того, що можна назвати «асиміляцією ШІ». Перший момент полягає в тому, що робочі навантаження ШІ не відокремлені від інших типів робочих навантажень – вони будуть інтегровані в звичайні робочі навантаження, а не виконуватимуться окремо.

Гілліх наводить відеоконференції як приклад такої поетапної інтеграції: «Уже під час потокової передачі стандартного аудіо/відео трафіку через стандартні програми AI інтегрується для виконання супутніх завдань, таких як підсумовування, переклад, транскрипція. Такі функції дуже добре підтримуються ШІ.

Наскрізне енергозбереження

Досягнення енергоефективності має бути справді наскрізним стратегічним заходом, стверджує Гілліх. «Це охоплює як програмне забезпечення, так і апаратну архітектуру – повний механізм, що забезпечує певний робочий процес. Де зберігаються дані, щоб зробити доступ найбільш ефективним – з точки зору обчислень і, отже, з точки зору енергоефективності – це найкраще місце для енергоефективності?»

Інший фактор, який слід враховувати в цій оцінці, полягає в тому, щоб визначити, де виконується робоче навантаження. Наприклад, чи працює він на клієнтах (таких як комп’ютер зі штучним інтелектом, оснащений процесорами Intel Core Ultra, а не на серверах у центрі обробки даних? Чи можуть деякі з цих робочих навантажень штучного інтелекту справді запускатися на клієнтах (поряд із серверами)?

Гілліх стверджує, що кожен варіант заслуговує на розгляд, якщо він допоможе привести баланс штучного інтелекту в обчислення та енергоспоживання у краще узгодження: «Це майже як повернення до старої школи розподілених обчислень».

Гілліх додає: «Іноді наші клієнти запитують: «Де буде грати ШІ?» – відповідь полягає в тому, що штучний інтелект гратиме скрізь. Тому в Intel наші амбіції зосереджені на тому, що можна назвати універсальним пристосуванням штучного інтелекту, тому що ми віримо, що він ввійде в усі сфери застосування».

У Intel це охоплює проміжне програмне забезпечення, таке як API, яке, як і будь-яка інша частина програмного стеку, має бути максимально ефективним. «Розростання API» може призвести до непотрібної обробки, мінімізації їхньої інфраструктури та відсутності моніторингу та контролю.

Intel oneAPI, підприємства можуть реалізувати повну вартість апаратного забезпечення, розробити високопродуктивний крос-архітектурний код і підготувати свої програми для майбутніх потреб», — пояснює Гілліх.

«Intel oneAPI — це відкрита, міжгалузева, заснована на стандартах, уніфікована модель програмування з кількома архітектурами та різними постачальниками, яка забезпечує загальний досвід розробника на архітектурах прискорювачів — для швидшої роботи додатків і підвищення продуктивності. Ініціатива oneAPI заохочує співпрацю над специфікацією oneAPI та сумісними реалізаціями oneAPI в усій екосистемі».

Ґілліх додає: «oneAPI надає стек проміжного програмного забезпечення, який використовує такі стандартні речі, як AI Frameworks, такі як Pytorch або TensorFlow [платформа програмного забезпечення з відкритим кодом для штучного інтелекту та машинного навчання], і перекладає їх на рівні машини, а oneAPI забезпечує ефективний спосіб зробити це. Користувачі можуть використовувати загальний API на рівні фреймворку Ai, і ми маємо API (oneAPI), який підходить для різних варіантів апаратного забезпечення». Таким чином, загальний API означає, що користувачі можуть створювати відкрите програмне забезпечення, яке може підтримуватися у стеку відкритого програмного забезпечення.

Продуктивність на рівні графічного процесора за ціною на рівні процесора

Прогрес в ІТ здебільшого обумовлений очікуванням постійного технологічного прогресу в поєднанні з інтуїтивними вдосконаленнями стратегій розгортання. Це модель, яка базується на пошуку найкращого балансу між бюджетними витратами та рентабельністю інвестицій, а також на очікуванні того, що завжди є нові інновації, до яких варто прагнути. ШІ представляє апогей цього ідеалу – він достатньо розумний, щоб заново винайти власну ціннісну пропозицію шляхом постійного самовдосконалення.

Вбудувавши прискорювач AMX у свої процесори Intel Xeon 4-го покоління, Intel показує, як можна досягти продуктивності на рівні графічного процесора за ціною на рівні процесора. Це дозволяє центрам обробки даних масштабуватися, максимізуючи віддачу від існуючих процесорів Intel Xeon, а також забезпечує модель ціноутворення, яка знижує вартість входу для клієнтів із робочим навантаженням ШІ, але з обмеженим бюджетом.

А менше енергоспоживання ЦП означає, що енергоефективність може бути досягнута цілісно в усіх операціях центру обробки даних, таких як охолодження та вентиляція, і це ще одна перевага для архітекторів програмного забезпечення, які сумлінно піклуються про сталість, і розробників рішень AL.

Надано Intel.

Часова мітка:

Більше від Реєстр