A nyílt forráskódú mesterséges intelligencia relevánssá teszi a modern számítógépeket, és az előfizetések kopottnak tűnnek

A nyílt forráskódú mesterséges intelligencia relevánssá teszi a modern számítógépeket, és az előfizetések kopottnak tűnnek

Open source AI makes modern PCs relevant, and subscriptions seem shabby PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Oszlop Tavaly ezúttal lehetetlenné vált figyelmen kívül hagyni a számítástechnika legújabb trendjét: hatalmas szilíciumlapok több százmilliárd tranzisztorral – ez egy újabb megoldás elkerülhetetlen következménye, amely megóvta Moore törvényét a feledéstől.

A PC-eladások visszaesése azonban azt sugallja, hogy nincs szükségünk ezekre a szörnyű számítógépekre – és nem csak a COVID által vetett értékesítési árnyék miatt.

2022 első felében a vállalati számítástechnika nagyjából ugyanúgy nézett ki, mint az elmúlt évtizedben: alapvető irodai alkalmazások, csapatkommunikációs alkalmazások és a kreatív osztály számára néhány multimédiás eszköz. Természetesen a játékosok mindig megtalálták a módját, hogy működésbe hozzák ezeket a tranzisztorokat, de a hardverek túlnyomó többsége már túlterhelt és aluldolgozott volt. Miért pazarolja a tranzisztorokat a megoldott problémákra?

Aztán megváltozott a világ. Egy évvel ezelőtt az OpenAI piacra dobta a DALL-E-t, a széles körben elérhető generatív AI-eszközök közül az elsőt – egy „diffúzort”, amely a zajt, a szöveges promptokat és a súlyozások hatalmas adatbázisát képekké alakítja. Szinte varázslatnak tűnt. Nem sokkal később a Midjourney nagyjából ugyanezt kínálta – bár határozottan a '70-es évek Prog Rock albumborítójára hangolva. Úgy tűnt, hogy a felhőalapú számítástechnika iránti kereslet az egekbe fog szökni, ahogy ezek az eszközök bekerültek a Microsoft, a Canva, az Adobe és mások termékeibe.

Aztán a világ újra megváltozott. Augusztusban a Stability AI bevezette a diffúzor súlyozásának nyílt forráskódú adatbázisát. Kezdetben a Stable Diffusion csúcstechnológiás GPU-t követelt, de a nyílt forráskódú közösség hamar rájött, hogy képes optimalizálni a diffúzort, nos, nagyjából bármire. Nem feltétlenül lenne gyors, de működne – és a hardverrel együtt bővülne.

Ahelyett, hogy hatalmas felhő-erőforrásokat igényelne, ezek az újabb AI-eszközök helyben futnak. És ha vásárolna egy szörnyeteg számítógépet, az legalább olyan gyorsan futna, mint az OpenAI vagy a Midjourney minden kínálata – előfizetés nélkül.

Az állandóan izgalmas, nyílt forráskódú közösség, amely a Stable Diffusion-t vezérli, lenyűgöző sorozatot hozott létre új diffúzorsúlyozásokkal, amelyek mindegyike egy adott esztétikai szempontot céloz meg. A Stable Diffusion nem pusztán olyan gyors, mint bármi, amit egy kereskedelmi mesterségesintelligencia-cég kínál, hanem hasznosabb és bővíthetőbb is.

És akkor – igen, kitaláltad – a világ ismét megváltozott. December elején az OpenAI's ChatGPT teljesen átírta a mesterséges intelligenciával kapcsolatos elvárásainkat, így a leggyorsabban 100 millió felhasználót elérő webalkalmazás lett. Egy nagy nyelvi modell (LLM), amelyet „generatív előképzett transzformátor” hajt – hányan felejtettük el, hogy ezt jelenti a GPT? –, amely az interneten elérhető hatalmas mennyiségű szövegre gyakorolt ​​súlyozást.

Ez a képzési erőfeszítés a becslések szerint milliókba (esetleg tízmilliókba) került az Azure felhőalapú számítástechnikai erőforrásaiban. Ez a belépési költség várhatóan elegendő volt ahhoz, hogy a versenytársakat távol tartsa – kivéve talán a Google-t és a Metát.

Amíg a világ ismét meg nem változott. Márciusban Meta megjelent a LLaMA – egy sokkal kompaktabb és hatékonyabb nyelvi modell, viszonylag kicsi súlyozási adatbázissal, ugyanakkor a válasz minősége megközelíti az OpenAI GPT-4-ét.

A mindössze harmincmilliárd paraméteres modellel a LLaMA kényelmesen elfér egy 32 GB RAM-mal rendelkező PC-ben. Valami nagyon hasonló a ChatGPT-hez – amely az Azure Cloudban fut a tömeges súlyozási adatbázisa miatt – nagyjából bárhol futtatható.

A Meta kutatói ingyenesen letölthetően felajánlották súlyozásukat tudományos társaiknak. Mivel a LLaMA futhatott laboratóriumi számítógépeiken, a stanfordi kutatók azonnal továbbfejlesztették a LLaMA-t új képzési technikájuk, az úgynevezett. Alpaka-Lora, amely több százezer dollárról néhány száz dollárra csökkentette a meglévő súlyzókészlet edzésének költségeit. Megosztották a kódjukat is.

Ahogy a DALL-E a használhatóság és a bővíthetőség tekintetében kikapott a Stable Diffusion-tól, úgy tűnik, hogy a ChatGPT újabb versenyt veszít, mivel a kutatók számos modellt gyártanak – mint például az Alpaca, Vicuna, Koala, és mások menazsériája – amelyek gyorsan és olcsón képeznek és újra képeznek.

Sokkal gyorsabban fejlődnek, mint azt bárki várta. Részben ennek az az oka, hogy sok ChatGPT „beszélgetésen” edzenek, amelyeket olyan webhelyeken osztottak meg, mint a Reddit, és a legtöbb PC-n jól működnek. Ha van egy szörny számítógéped, azok nagyon jól működnek.

Azok a gépek, amelyeknek alig egy éve még nem tudtuk elképzelni a felhasználást, megtalálták a céljukat: minden generatív AI-feladatunk igáslovaivá válnak. Segítenek a kódolásban, tervezésben, írásban, rajzolásban, modellezésben és még sok minden másban.

És nem leszünk kötve az előfizetésekhez, hogy ezek az új eszközök működjenek. A Tt úgy tűnik, hogy a nyílt forráskód már megelőzte a diffúzorok és a transzformátorok kereskedelmi fejlesztését.

A nyílt forráskódú mesterséges intelligencia arra is emlékeztetett bennünket, hogy miért terjedt el a PC: azáltal, hogy lehetővé vált az egykor csak az irodában elérhető eszközök hazahozatala.

Ez nem zárja be a kaput a kereskedelem előtt. Ha valami, akkor ez azt jelenti, hogy a vállalkozók számára több lehetőség nyílik új termékek létrehozására, anélkül, hogy azon kell aggódniuk, hogy megsértik-e a Google, a Microsoft, a Meta vagy bárki más alapjául szolgáló üzleti modelleket. A technológia mindent átható zavarainak korszaka felé tartunk – és úgy tűnik, hogy a méret nem jár sok előnnyel.

A szörnyek szabadlábon vannak. Szerintem ez jó dolog. ®

Időbélyeg:

Még több A regisztráció