Open-Source-KI macht moderne PCs relevant und Abonnements wirken schäbig

Open-Source-KI macht moderne PCs relevant und Abonnements wirken schäbig

Open-Source-KI macht moderne PCs relevant und Abonnements wirken schäbig. PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Kolonne Letztes Jahr um diese Zeit war der neueste Trend im Computerbereich unübersehbar: riesige Siliziumblöcke mit Hunderten von Milliarden Transistoren – die unvermeidliche Folge einer weiteren Reihe von Problemumgehungen, die das Mooresche Gesetz vor dem Vergessen bewahrten.

Aber sinkende PC-Verkäufe deuten darauf hin, dass wir diese Monster-Computer nicht brauchen – und das nicht nur wegen des Umsatzschattens von COVID.

In der ersten Hälfte des Jahres 2022 sah das Corporate Computing im Großen und Ganzen so aus wie im letzten Jahrzehnt: einfache Office-Apps, Team-Kommunikations-Apps und für die kreative Klasse ein paar Rich-Media-Tools. Natürlich würden Gamer immer einen Weg finden, diese Transistoren zum Laufen zu bringen, aber die überwiegende Mehrheit der Hardware war bereits überlastet und unterausgelastet. Warum Transistoren für gelöste Probleme verschwenden?

Dann veränderte sich die Welt. Vor einem Jahr brachte OpenAI DALL-E auf den Markt, das erste der weit verbreiteten generativen KI-Tools – einen „Diffusor“, der Rauschen, eine Textaufforderung und eine riesige Datenbank mit Gewichtungen in Bilder umwandelt. Es schien fast wie Magie. Nicht lange danach bot „Midjourney“ das Gleiche – wenn auch deutlich auf die Cover-Ästhetik des Prog-Rock-Albums der 70er Jahre abgestimmt. Es schien, als würde die Nachfrage nach Cloud Computing sprunghaft ansteigen, da diese Tools ihren Weg in Produkte von Microsoft, Canva, Adobe und anderen fanden.

Dann veränderte sich die Welt erneut. Im August führte Stability AI eine Open-Source-Datenbank mit Diffusorgewichtungen ein. Zu Beginn erforderte Stable Diffusion eine hochmoderne GPU, aber die Open-Source-Community stellte bald fest, dass sie den Diffusor so optimieren konnte, dass er auf so ziemlich allem läuft. Es wäre nicht unbedingt schnell, aber es würde funktionieren – und es würde sich mit Ihrer Hardware skalieren lassen.

Anstatt riesige Cloud-Ressourcen zu fordern, Diese neueren KI-Tools werden lokal ausgeführt. Und wenn Sie einen Monstercomputer kaufen würden, würden diese mindestens so schnell laufen wie alles, was OpenAI oder Midjourney anbieten – und das ohne Abonnement.

Die stets aufgeregte Open-Source-Community, die Stable Diffusion vorantreibt, hat eine beeindruckende Reihe neuer Diffusorgewichtungen geschaffen, die jeweils auf eine bestimmte Ästhetik abzielen. Stable Diffusion ist nicht nur so schnell wie alles, was ein kommerzielles KI-Unternehmen anbietet – es ist sowohl nützlicher als auch erweiterbarer.

Und dann – ja, Sie haben es erraten – veränderte sich die Welt erneut. Anfang Dezember wurde OpenAI's ChatGPT hat unsere Erwartungen an künstliche Intelligenz völlig neu definiert und ist zur schnellsten Web-App geworden, die 100 Millionen Nutzer erreicht. Ein großes Sprachmodell (LLM), das von einem „generativen vorab trainierten Transformator“ angetrieben wird – wie viele von uns haben vergessen, wofür GPT steht? – das seine Gewichtung auf den riesigen Textbeständen im Internet aufbaute.

Es wird geschätzt, dass dieser Schulungsaufwand Millionen (möglicherweise mehrere zehn Millionen) an Azure-Cloud-Computing-Ressourcen gekostet hat. Es wurde erwartet, dass diese Eintrittskosten ausreichen würden, um die Konkurrenz in Schach zu halten – außer vielleicht Google und Meta.

Bis sich die Welt erneut veränderte. Im März, Meta veröffentlichte LLaMA – ein viel kompakteres und effizienteres Sprachmodell mit einer vergleichsweise kleinen Gewichtungsdatenbank, aber mit einer Antwortqualität, die sich der GPT-4 von OpenAI nähert.

Mit einem Modell von nur 32 Milliarden Parametern kann LLaMA bequem auf einem PC mit XNUMX GB RAM installiert werden. So etwas wie ChatGPT – das aufgrund seiner riesigen Gewichtungsdatenbank in der Azure Cloud läuft – kann praktisch überall ausgeführt werden.

Die Forscher von Meta stellten ihre Gewichtungen ihren akademischen Kollegen kostenlos zum Download zur Verfügung. Da LLaMA auf ihren Laborcomputern laufen konnte, verbesserten Forscher in Stanford LLaMA sofort durch ihre neue Trainingstechnik namens „ Alpaka-Lora, wodurch die Kosten für das Training eines vorhandenen Satzes von Gewichtungen von Hunderttausenden Dollar auf einige Hundert Dollar gesenkt wurden. Sie haben auch ihren Code geteilt.

So wie DALL-E hinsichtlich Benutzerfreundlichkeit und Erweiterbarkeit gegen Stable Diffusion verloren hat, scheint ChatGPT ein weiteres Rennen zu verlieren, da Forscher eine Reihe von Modellen produzieren – wie Alpaca, Vicuña, Koalaund eine Vielzahl anderer – die sich schnell und kostengünstig ausbilden und umschulen lassen.

Sie verbessern sich viel schneller, als irgendjemand erwartet hätte. Das liegt zum Teil daran, dass sie auf vielen ChatGPT-„Gesprächen“ trainieren, die auf Websites wie Reddit geteilt wurden, und dass sie auf den meisten PCs gut laufen. Wenn Sie einen Monstercomputer haben, laufen diese tatsächlich sehr gut.

Die Maschinen, für die wir uns noch vor einem Jahr keinen Einsatz vorstellen konnten, haben ihren Zweck gefunden: Sie werden zu Arbeitspferden für alle unsere generativen KI-Aufgaben. Sie helfen uns beim Programmieren, Planen, Schreiben, Zeichnen, Modellieren und vielem mehr.

Und wir sind nicht an Abonnements gebunden, damit diese neuen Tools funktionieren. Es sieht so aus, als ob Open Source die kommerzielle Entwicklung sowohl von Diffusoren als auch von Transformatoren bereits überholt hat.

Open-Source-KI hat uns auch daran erinnert, warum sich der PC verbreitet hat: indem er es ermöglicht hat, Tools mit nach Hause zu nehmen, die früher nur im Büro verfügbar waren.

Dies wird die Tür zum Handel nicht verschließen. Wenn überhaupt, bedeutet dies, dass Unternehmer mehr Spielraum haben, neue Produkte zu entwickeln, ohne sich Gedanken darüber machen zu müssen, ob sie die Geschäftsmodelle von Google, Microsoft, Meta oder anderen verletzen. Wir stehen vor einer Zeit tiefgreifender technologischer Umwälzungen – und die Größe scheint nicht viele Vorteile zu bringen.

Die Monster sind auf freiem Fuß. Ich denke, das ist eine gute Sache. ®

Zeitstempel:

Mehr von Das Register