Der Wettlauf um KI-gestützte Sicherheitsplattformen verschärft sich

Der Wettlauf um KI-gestützte Sicherheitsplattformen verschärft sich

The Race for AI-Powered Security Platforms Heats Up PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Wenn eine große Sicherheitslücke die Welt der Cybersicherheit erschüttert – wie die jüngste XZ-Hintertür oder die Log4j2-Schwachstellen von 2021 – ist die erste Frage, die die meisten Unternehmen stellen: „Sind wir betroffen?“ In Abwesenheit von gut geschriebene Spielbücher, kann die Beantwortung der einfachen Frage einen großen Aufwand erfordern.

Microsoft und Google investieren stark in Systeme der generativen künstlichen Intelligenz (GenAI), die große Sicherheitsfragen in konkrete Maßnahmen umwandeln, Sicherheitsabläufe unterstützen und zunehmend automatisierte Maßnahmen ergreifen können. Microsoft bietet überlastete Sicherheitsbetriebszentren mit Sicherheits-Copilot, ein GenAI-basierter Dienst, der das kann Identifizieren Sie Verstöße, verknüpfen Sie Bedrohungssignale und analysieren Sie Daten. Und Googles Zwillinge in Sicherheit ist eine Sammlung von Sicherheitsfunktionen, die auf der Gemini GenAI des Unternehmens basieren.

Startup Simbian nimmt am Rennen teil mit seiner neuen GenAI-basierten Plattform, die Unternehmen bei der Bewältigung ihrer Sicherheitsmaßnahmen unterstützt. Das System von Simbian kombiniert große Sprachmodelle (LLMs) zum Zusammenfassen von Daten und zum Verstehen von Muttersprachen, andere Modelle des maschinellen Lernens zum Verbinden unterschiedlicher Datenpunkte und ein softwarebasiertes Expertensystem, das auf Sicherheitsinformationen aus dem Internet basiert.

Wo die Konfiguration eines Security Information and Event Management Systems (SIEM) oder eines Security Orchestration, Automation and Response (SOAR)-Systems Wochen oder Monate dauern könnte, verkürzt der Einsatz von KI die Zeit auf – in manchen Fällen – Sekunden, sagt Ambuj Kumar, Co- Gründer und CEO von Simbian.

„Mit Simbian sind diese Dinge im wahrsten Sinne des Wortes in Sekundenschnelle erledigt“, sagt er. „Sie stellen eine Frage, Sie drücken Ihr Ziel in natürlicher Sprache aus, wir unterteilen die Codeausführung in Schritte, und das alles geschieht automatisch. Es ist autark.“

Überlasteten Sicherheitsanalysten und Vorfallhelfern dabei zu helfen, ihre Arbeit zu rationalisieren, ist eine perfekte Anwendung für die leistungsstärkeren Funktionen von GenAI, sagt Eric Doerr, Vice President of Engineering bei Google Cloud.

„Die Chance im Bereich Sicherheit ist angesichts der erhöhten Bedrohungslage, der weithin bekannten Talentlücke bei Cybersicherheitsexperten und der in den meisten Sicherheitsteams vorherrschenden Mühen besonders groß“, sagt Doerr. „Die Steigerung der Produktivität und die Verkürzung der Zeit zum Erkennen, Reagieren und Eindämmen [oder] Abmildern von Bedrohungen durch den Einsatz von GenAI werden es Sicherheitsteams ermöglichen, aufzuholen und ihre Organisationen erfolgreicher zu verteidigen.“

Unterschiedliche Ausgangspunkte, unterschiedliche „Vorteile“

Die Marktvorteile von Google liegen auf der Hand. Der IT- und Internetriese verfügt über das Budget, um auf Kurs zu bleiben, über die technische Expertise in maschinellem Lernen und KI aus seinen DeepMind-Projekten, um Innovationen voranzutreiben, und über Zugriff auf zahlreiche Trainingsdaten – ein entscheidender Gesichtspunkt bei der Erstellung von LLMs.

„Wir verfügen über eine enorme Menge proprietärer Daten, die wir verwendet haben, um ein benutzerdefiniertes Sicherheits-LLM – SecLM – zu trainieren, das Teil von Gemini for Security ist“, sagt Doerr. „Dies ist die Zusammenfassung von 20 Jahren Mandiant-Intelligenz, VirusTotal und mehr, und wir sind die einzige Plattform, die über eine offene API verfügt – Teil von Gemini for Security –, die es Partnern und Unternehmenskunden ermöglicht, unsere Sicherheitslösungen zu erweitern und über eine zu verfügen.“ eine einzige KI, die mit dem gesamten Kontext des Unternehmens arbeiten kann.“

Wie Simbians Anleitung, Gemini in Security Operations – eine Fähigkeit unter dem Dach von Gemini in Security – wird ab Ende April bei den Untersuchungen behilflich sein, den Sicherheitsanalysten anleiten und Maßnahmen innerhalb von Chronicle Enterprise empfehlen.

Simbian verwendet Abfragen in natürlicher Sprache, um Ergebnisse zu generieren. Daher stellt sich die Frage: „Sind wir von der XZ-Sicherheitslücke betroffen?“ erstellt eine Tabelle mit IP-Adressen anfälliger Anwendungen. Das System nutzt außerdem kuratiertes Sicherheitswissen aus dem Internet, um Leitfäden für Sicherheitsanalysten zu erstellen, die ihnen ein Skript mit Eingabeaufforderungen zeigen, die sie dem System zur Ausführung einer bestimmten Aufgabe geben können.

„Der Reiseführer ist eine Möglichkeit, vertrauenswürdige Inhalte zu personalisieren oder zu erstellen“, sagt Kumar von Simbian. „Im Moment erstellen wir die Reiseführer, aber sobald … die Leute anfangen, sie zu nutzen, können sie ihre eigenen erstellen.“

Starke ROI-Ansprüche für LLMs

Die Kapitalrendite wird steigen, wenn Unternehmen von einem manuellen Prozess zu einem unterstützten Prozess zu einer autonomen Tätigkeit übergehen. Die meisten GenAI-basierten Systeme haben sich lediglich zu einem Assistenten oder Copiloten entwickelt, bei dem sie Aktionen vorschlagen oder nur eine begrenzte Reihe von Aktionen ausführen, nachdem sie die Berechtigungen des Benutzers erhalten haben.

Der tatsächliche Return on Investment werde sich später einstellen, sagt Kumar.

„Was uns am Bauen begeistert, ist die Autonomie – Autonomie bedeutet, in Ihrem Namen Entscheidungen zu treffen, die im Rahmen der von Ihnen gegebenen Anleitung liegen“, sagt er.

Auch Googles Gemini scheint die Lücke zwischen einem KI-Assistenten und einer automatisierten Engine zu schließen. Das Finanzdienstleistungsunternehmen Fiserv nutzt Gemini im Bereich Security Operations, um Erkennungen und Playbooks schneller und mit weniger Aufwand zu erstellen und um Sicherheitsanalysten mithilfe der Suche in natürlicher Sprache dabei zu helfen, schnell Antworten zu finden, was die Produktivität von Sicherheitsteams steigert, sagt Doerr.

Dennoch sei Vertrauen immer noch ein Problem und eine Hürde für eine stärkere Automatisierung, sagt er. Um das Vertrauen in das System und die Lösungen zu stärken, konzentriert sich Google weiterhin darauf, erklärbare KI-Systeme zu schaffen, die in ihrer Entscheidungsfindung transparent sind.

„Wenn Sie eine Eingabe in natürlicher Sprache verwenden, um eine neue Erkennung zu erstellen, zeigen wir Ihnen die Syntax der Erkennungssprache und Sie entscheiden sich dafür, diese auszuführen“, sagt er. „Dies ist Teil des Prozesses, Vertrauen und Kontext mit Gemini for Security aufzubauen.“

Zeitstempel:

Mehr von Dunkle Lektüre