Що таке GPU? Чіпи, які сприяють буму ШІ, і чому вони коштують трильйони

Що таке GPU? Чіпи, які сприяють буму ШІ, і чому вони коштують трильйони

What Is a GPU? The Chips Powering the AI Boom, and Why They’re Worth Trillions PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Оскільки світ поспішає використовувати новітню хвилю технологій штучного інтелекту, одна частина високотехнологічного апаратного забезпечення стала напрочуд популярним товаром: графічний процесор, або GPU.

Найкращий графічний процесор може продаватися за ціну десятки тисяч доларів, і провідний виробник Nvidia побачив його ринкову оцінку перевищить 2 трильйони доларів оскільки попит на її продукцію різко зростає.

Графічні процесори – це не просто високоякісні продукти ШІ. У телефонах, ноутбуках та ігрових приставках також є менш потужні графічні процесори.

Зараз ви, мабуть, задаєтеся питанням: що таке графічний процесор? І що робить їх такими особливими?

Що таке GPU?

Графічні процесори спочатку були розроблені в основному для швидкого створення та відображення складних 3D-сцен і об’єктів, таких як ті, що використовуються у відеоіграх і комп'ютерний дизайн програмне забезпечення. Сучасні графічні процесори також вирішують такі завдання, як декомпресія відео потоки.

«Мозком» більшості комп’ютерів є чіп, який називається центральним процесором (CPU). ЦП можна використовувати для створення графічних сцен і розпакування відео, але зазвичай вони набагато повільніші та менш ефективні у цих завданнях порівняно з графічним процесором. ЦП краще підходять для загальних обчислювальних завдань, таких як обробка текстів і перегляд веб-сторінок.

Чим графічні процесори відрізняються від центральних процесорів?

Типовий сучасний процесор складається з 8-16 дюймівсердечники”, кожна з яких може послідовно обробляти складні завдання.

Графічні процесори, з іншого боку, мають тисячі відносно невеликих ядер, які розроблені для роботи одночасно («паралельно») для досягнення швидкої загальної обробки. Завдяки цьому вони добре підходять для завдань, які потребують великої кількості простих операцій, які можна виконувати одночасно, а не одну за одною.

Традиційні графічні процесори бувають двох основних типів.

По-перше, існують автономні мікросхеми, які часто постачаються в якості додаткових плат для великих настільних комп’ютерів. По-друге, це графічні процесори, об’єднані з центральним процесором в одній мікросхемі, які часто зустрічаються в ноутбуках та ігрових консолях, таких як PlayStation 5. В обох випадках центральний процесор контролює роботу графічного процесора.

Чому графічні процесори такі корисні для ШІ?

Виявляється, графічні процесори можна перепрофілювати, щоб робити більше, ніж генерувати графічні сцени.

Багато методів машинного навчання позаду штучний інтелект, Такі, як глибокі нейронні мережі, значною мірою покладаються на різні форми множення матриць.

Це математична операція, у якій дуже великі набори чисел множаться та підсумовуються. Ці операції добре підходять для паралельної обробки і, отже, можуть виконуватися GPU дуже швидко.

Що далі для графічних процесорів?

Спроможність графічних процесорів неухильно зростати завдяки збільшенню кількості ядер та їх робочих швидкостей. Ці вдосконалення в першу чергу обумовлені вдосконаленням у виробництві чіпів такими компаніями, як TSMC в Тайвані.

Розмір окремих транзисторів — базових компонентів будь-якого комп’ютерного чіпа — зменшується, що дозволяє розміщувати більше транзисторів у тому самому фізичному просторі.

Однак це ще не вся історія. Хоча традиційні графічні процесори корисні для обчислювальних завдань, пов’язаних зі штучним інтелектом, вони не є оптимальними.

Подібно до того, як графічні процесори спочатку були розроблені для прискорення роботи комп’ютерів, забезпечуючи спеціалізовану обробку графіки, існують прискорювачі, призначені для прискорення завдань машинного навчання. Ці прискорювачі часто називають графічним процесором центру обробки даних.

Деякі з найпопулярніших прискорювачів, створених такими компаніями, як AMD і Nvidia, починалися як традиційні графічні процесори. Згодом їхні конструкції вдосконалювалися, щоб краще справлятися з різними завданнями машинного навчання, наприклад, підтримуючи ефективнішу “мозковий поплавок” формат числа.

Інші прискорювачі, наприклад Google блоки обробки тензорів і Tenstorrent Ядра Tensix, були розроблені з нуля для прискорення глибоких нейронних мереж.

Графічні процесори центрів обробки даних та інші прискорювачі штучного інтелекту зазвичай мають значно більше пам’яті, ніж традиційні додаткові карти GPU, що має вирішальне значення для навчання великих моделей штучного інтелекту. Чим більша модель ШІ, тим вона ефективніша та точніша.

Для подальшого прискорення навчання та обробки навіть більших моделей штучного інтелекту, таких як ChatGPT, багато графічних процесорів центру обробки даних можна об’єднати в суперкомп’ютер. Для цього потрібне більш складне програмне забезпечення, щоб належним чином використовувати доступну потужність обробки чисел. Інший підхід полягає в тому, щоб створити один дуже великий прискорювач, наприклад "пластинчастий процесор» виробництва Cerebras.

Майбутнє за спеціалізованими мікросхемами?

Процесори теж не стояли на місці. Останні процесори AMD і Intel мають вбудовані низькорівневі інструкції, які прискорюють обробку чисел, необхідну глибоким нейронним мережам. Ця додаткова функціональність головним чином допомагає із завданнями «виведення», тобто з використанням моделей AI, які вже були розроблені в інших місцях.

Перш за все, для навчання моделей AI все ще потрібні великі прискорювачі, схожі на GPU.

Можна створювати все більше спеціалізованих прискорювачів для конкретних алгоритмів машинного навчання. Нещодавно, наприклад, компанія під назвою Groq випустила «блок обробки мови” (LPU), спеціально розроблений для запуску великих мовних моделей на основі ChatGPT.

Однак створення цих спеціалізованих процесорів вимагає значних інженерних ресурсів. Історія показує, що використання та популярність будь-якого певного алгоритму машинного навчання має тенденцію досягати піку, а потім спадати, тому дороге спеціалізоване обладнання може швидко застаріти.

Однак для звичайного споживача це навряд чи буде проблемою. Графічні процесори та інші мікросхеми в продуктах, якими ви користуєтеся, ймовірно, тихенько будуть ставати швидшими.

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.

Зображення Фото: Nvidia

Часова мітка:

Більше від Хаб сингулярності