Füttern Sie das KI-Feuer mit zentralisierter PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Füttern Sie das KI-Feuer mit Zentralisierung

Gesponserte Funktion Ein stetiger Strom revolutionärer Technologien und Entdeckungen – Feuer, Landwirtschaft, das Rad, die Druckerpresse und das Internet, um nur einige zu nennen – haben die menschliche Entwicklung und Zivilisation tiefgreifend geprägt. Und dieser Innovationszyklus setzt sich mit Künstlicher Intelligenz (KI) fort. 

Das Forschungsunternehmen IDC ist so weit gegangen, zu dem Schluss zu kommen, dass KI wirklich die Antwort auf so ziemlich „alles“ ist. Rasmus Andsbjerg, Associate Vice President, Data and Analytics bei IDC, sagt: „Die Realität ist, dass KI Lösungen für alles bietet, mit dem wir derzeit konfrontiert sind. KI kann eine Quelle für schnelle digitale Transformationswege sein, Kosteneinsparungen in Zeiten schwankender Inflationsraten ermöglichen und Automatisierungsbemühungen in Zeiten von Arbeitskräftemangel unterstützen.“

Sicherlich beginnen Endbenutzerorganisationen in allen Branchen und Funktionen, die Vorteile der KI zu entdecken, da immer leistungsfähigere Algorithmen und zugrunde liegende Infrastrukturen entstehen, die eine bessere Entscheidungsfindung und höhere Produktivität ermöglichen. 

Die weltweiten Einnahmen für den Markt für künstliche Intelligenz (KI), einschließlich zugehöriger Software, Hardware und Dienstleistungen für KI-zentrische und KI-nicht-zentrische Anwendungen, beliefen sich im Jahr 383.3 auf insgesamt 2021 Milliarden US-Dollar. Das war laut den meisten ein Anstieg von 20.7 % gegenüber dem Vorjahr jüngste Weltweiter halbjährlicher Artificial Intelligence Tracker der International Data Corporation (IDC)..

In ähnlicher Weise zeigt die Bereitstellung von KI-Software in der Cloud weiterhin ein stetiges Wachstum. IDC erwartet, dass Cloud-Versionen neu erworbener KI-Software im Jahr 2022 die Bereitstellung vor Ort übertreffen werden.

Der Himmel ist die Grenze für KI

Dr. Ronen Dar, Chief Technology Officer des KI-Spezialisten Run:ai, der eine Computing-Management-Plattform für KI geschaffen hat, glaubt, dass dem aufstrebenden Unternehmens-KI-Sektor keine Grenzen gesetzt sind. 

„KI ist ein Markt, der unseres Erachtens sehr schnell wächst. Und in Bezug auf Unternehmen sehen wir Nachfrage und Akzeptanz für maschinelles Lernen und KI. Und ich denke, im Moment gibt es hier eine neue Technologie, die neue Fähigkeiten mit sich bringt, die die Welt verändern werden; die Unternehmen revolutionieren werden“, bemerkt Dar. 

Es wird auch immer klarer, dass es notwendig ist, mit der Erforschung und dem Experimentieren mit KI zu beginnen und zu verstehen, wie KI in Geschäftsmodelle integriert werden kann.

Dar glaubt, dass KI „erstaunliche Vorteile“ bringen kann, um bestehende Unternehmensprozesse zu verbessern: „In Bezug auf die Optimierung und den Nachweis des aktuellen Geschäfts sehen wir viele Anwendungsfälle rund um KI und maschinelles Lernen, die den Betrieb und die Entscheidungsfindung verbessern um Angebot und Nachfrage.“

Er weist darauf hin, dass neue Deep-Learning-Modelle, die auf neuronalen Netzen basieren, Prozesse, Entscheidungsfindung und die Genauigkeit kritischer Geschäftsprozesse wie die Betrugserkennung in der Finanzdienstleistungsbranche verbessern können. Das Gesundheitswesen ist ein weiterer Sektor, in dem das Potenzial der KI „riesig“ ist, insbesondere in Bezug auf die Unterstützung von Ärzten bei besseren klinischen Entscheidungen und die Unterstützung bei der Entdeckung und Entwicklung neuer Medikamente. 

Und mit Blick auf die Zukunft prognostiziert Dar, dass die KI-Technologie dazu beitragen wird, brandneue kommerzielle Möglichkeiten zu schaffen, die derzeit in Sektoren wie selbstfahrenden Fahrzeugen und immersiven Spielen nicht existieren. 

Infrastrukturhürden zu überwinden

Trotz des offensichtlichen Potenzials für KI und maschinelles Lernen im Unternehmen räumt Dar ein, dass der kommerzielle Einsatz von KI durch Probleme bei der Bereitstellung der Infrastruktur gehemmt wird. Er rät Unternehmen, zu prüfen, wie KI überhaupt in eine Organisation gelangt.

Typischerweise beinhaltet dies einen unkoordinierten Prozess von Abteilung zu Abteilung, bei dem verschiedene Teams Technologie und Ressourcen unabhängig voneinander bereitstellen, was zu isolierten Bereitstellungen führt. Die IT kann diese Ad-hoc-Projekte nicht effektiv kontrollieren und hat keinen Einblick in die Vorgänge. Und das macht es schwierig, wenn nicht sogar unmöglich, den ROI der Ausgaben für die KI-Infrastruktur zu berechnen. 

„Das ist das klassische Problem: Früher war es Schatten-IT und jetzt ist es Schatten-KI“, sagt Dar. 

Darüber hinaus ist die für KI/ML erforderliche hochmoderne Infrastruktur eine Investition, da Unternehmen leistungsstarke GPU-beschleunigte Computerhardware benötigen, um sehr komplexe Daten zu verarbeiten und Modelle zu trainieren. 

„KI-Teams benötigen viel Rechenleistung, um Modelle zu trainieren, typischerweise mit GPUs, bei denen es sich um erstklassige Rechenzentrumsressourcen handelt, die isoliert und nicht effizient genutzt werden können“, sagt Dar. „Es kann mit Sicherheit dazu führen, dass viel Geld verschwendet wird.“ 

Diese isolierte Infrastruktur kann beispielsweise zu einer Auslastung von weniger als 10 % führen.

Laut der Run:ai-Umfrage Die Umfrage zum Stand der KI-Infrastruktur 2021, veröffentlicht im Oktober 2021, gaben 87 Prozent der Befragten an, dass sie ein gewisses Maß an Problemen mit der Zuweisung von GPU-/Rechenressourcen haben, wobei 12 Prozent angaben, dass dies häufig vorkommt. Infolgedessen gaben 83 Prozent der befragten Unternehmen an, dass sie ihre GPU- und KI-Hardware nicht vollständig ausnutzen. Tatsächlich gaben fast zwei Drittel (61 Prozent) an, dass ihre GPU- und KI-Hardware überwiegend „mäßig“ ausgelastet ist.

Die Zentralisierung der KI

Um diese Probleme zu lösen, plädiert Dar dafür, die Bereitstellung von KI-Ressourcen zu zentralisieren. Run:AI hat eine Computing-Management-Plattform für KI entwickelt, die genau dies tut, indem es die GPU-Rechenressource zentralisiert und virtualisiert. Durch das Zusammenfassen von GPUs in einer einzigen virtuellen Schicht und das Automatisieren der Arbeitslastplanung für eine 100-prozentige Auslastung bietet dieser Ansatz Vorteile im Vergleich zu isolierten Systemen auf Abteilungsebene. 

Die Zentralisierung der Infrastruktur gibt Kontrolle und Transparenz zurück und befreit Data Scientists vom Overhead der Infrastrukturverwaltung. KI-Teams teilen sich eine universelle KI-Rechenressource, die dynamisch an- und abgewählt werden kann, wenn die Nachfrage steigt oder sinkt, wodurch Nachfrageengpässe und Zeiten der Unterauslastung beseitigt werden. 

Dieser Ansatz, so argumentiert Dar, kann Unternehmen dabei helfen, das Beste aus ihrer Hardware herauszuholen und Data Scientists von den Einschränkungen der zugrunde liegenden Ressourcenbeschränkung zu befreien. All dies bedeutet, dass sie mehr Jobs ausführen und mehr KI-Modelle in die Produktion bringen können. 

Ein Beispiel liefert das London Medical Imaging & Artificial Intelligence Centre for Value Based Healthcare, das vom King's College London geleitet wird und seinen Sitz im St. Thomas' Hospital hat. Es verwendet medizinische Bilder und elektronische Gesundheitsdaten, um ausgeklügelte Deep-Learning-Algorithmen für Computer Vision und Verarbeitung natürlicher Sprache zu trainieren. Diese Algorithmen werden verwendet, um neue Werkzeuge für effektives Screening, schnellere Diagnose und personalisierte Therapien zu entwickeln.

Das Zentrum erkannte, dass seine veraltete KI-Infrastruktur unter Effizienzproblemen litt: Die GPU-Gesamtauslastung lag unter 30 Prozent mit „erheblichen“ Leerlaufzeiten für einige Komponenten. Nachdem diese Probleme durch die Einführung eines zentralisierten KI-Rechenbereitstellungsmodells auf der Grundlage der Plattform von Run:ai angegangen wurden, stieg die GPU-Auslastung um 110 Prozent, mit parallelen Verbesserungen der Experimentgeschwindigkeit und der allgemeinen Forschungseffizienz.

„Unsere Experimente können Tage oder Minuten dauern, wobei ein Rinnsal Rechenleistung oder ein ganzer Cluster verwendet wird“, sagt Dr. M. Jorge Cardoso, außerordentlicher Professor und Dozent für KI am King's College London und CTO des AI Centre. „Die Verkürzung der Zeit bis zu Ergebnissen stellt sicher, dass wir kritischere Fragen zur Gesundheit und zum Leben der Menschen stellen und beantworten können“, 

Die Zentralisierung von KI-GPU-Ressourcen brachte auch Wayve, einem in London ansässigen Unternehmen, das KI-Software für selbstfahrende Autos entwickelt, wertvolle kommerzielle Vorteile. Seine Technologie ist so konzipiert, dass sie nicht auf Sensorik angewiesen ist, sondern sich stattdessen auf mehr Intelligenz für besseres autonomes Fahren in dicht besiedelten städtischen Gebieten konzentriert.

Der Fleet Learning Loop von Wayve umfasst einen kontinuierlichen Zyklus aus Datenerfassung, Kuration, Training von Modellen, Resimulation und Lizenzierung von Modellen vor dem Einsatz in der Flotte. Der primäre GPU-Rechenverbrauch des Unternehmens stammt aus dem Fleet Learning Loop-Produktionstraining. Es trainiert die Produkt-Baseline mit dem vollständigen Datensatz und trainiert kontinuierlich neu, um neue Daten durch Iterationen der Flotten-Lernschleife zu sammeln.

Das Unternehmen begann zu erkennen, dass es unter dem „Horror“ der GPU-Planung litt: Obwohl fast 100 Prozent seiner verfügbaren GPU-Ressourcen Forschern zugewiesen wurden, waren weniger als 45 Prozent genutzt, als die Tests anfänglich durchgeführt wurden. 

„Da GPUs den Forschern statisch zugewiesen wurden, konnten andere nicht auf sie zugreifen, wenn Forscher ihre zugewiesenen GPUs nicht verwendeten, was die Illusion erzeugte, dass GPUs für das Modelltraining ausgelastet waren, selbst wenn viele GPUs im Leerlauf waren“, bemerkt Wayve. 

Die Arbeit mit Run:ai hat dieses Problem angegangen, indem Silos entfernt und die statische Zuweisung von Ressourcen eliminiert wurden. Es wurden Pools gemeinsam genutzter GPUs erstellt, die es Teams ermöglichten, auf mehr GPUs zuzugreifen und mehr Workloads auszuführen, was zu einer Verbesserung ihrer Auslastung um 35 % führte. 

Verbesserungen der CPU-Effizienz widerspiegeln

In Anlehnung an die Art und Weise, in der VMware in den letzten Jahren erhebliche Effizienzverbesserungen bei der Nutzung von Server-CPUs bis zur maximalen Kapazität erzielt hat, kommen jetzt neue Innovationen auf den Markt, um die Effizienz der GPU-Nutzung für KI-Rechen-Workloads zu optimieren. 

„Wenn Sie an den Software-Stack denken, der auf CPUs läuft, wurde er mit viel VMware und Virtualisierung erstellt“, erklärt Dar. „GPUs sind relativ neu im Rechenzentrum und Software für KI und Virtualisierung – wie z NVIDIA AI Enterprise – ist ebenfalls eine neuere Entwicklung.“ 

„Wir bringen fortschrittliche Technologie in diesen Bereich mit Funktionen wie Fractional GPU, Job-Swapping und. Workloads können GPUs effizient teilen“, sagt Dar und fügt hinzu, dass weitere Verbesserungen geplant sind.

Run:ai arbeitet eng mit NVIDIA zusammen, um die Nutzung von GPUs in Unternehmen zu verbessern und zu vereinfachen. Die jüngste Zusammenarbeit umfasst die Ermöglichung von Multi-Cloud-GPU-Flexibilität für Unternehmen, die GPUs in der Cloud verwenden, und die Integration mit NVIDIA Triton-Inferenzserver Software zur Vereinfachung des Bereitstellungsprozesses von Modellen in der Produktion.

So wie große Innovationen im Laufe der Geschichte tiefgreifende Auswirkungen auf die Menschheit und die Welt hatten, stellt Dar fest, dass die Macht der KI mit Sorgfalt genutzt werden muss, um ihre potenziellen Vorteile zu maximieren und gleichzeitig potenzielle Nachteile zu bewältigen. Er vergleicht KI mit der urtümlichsten Innovation überhaupt: dem Feuer. 

„Es ist wie ein Feuer, das viele großartige Dinge gebracht und Menschenleben verändert hat. Feuer brachte auch Gefahr. Die Menschen haben also verstanden, wie man mit dem Feuer lebt“, sagt Dar. „Ich denke, das ist heutzutage auch in der KI so.“ 

Gesponsert von Run:ai.

Zeitstempel:

Mehr von Das Register