Unternehmen verlassen sich auf mehrere Methoden zur Sicherung generativer KI-Tools

Unternehmen verlassen sich auf mehrere Methoden zur Sicherung generativer KI-Tools

Unternehmen verlassen sich auf mehrere Methoden zur Sicherung generativer KI-Tools PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Da immer mehr Organisationen generative KI-Technologien einsetzen – um Pitches zu erstellen, Zuschussanträge auszufüllen und zu schreiben Boilerplate-Code – Sicherheitsteams erkennen die Notwendigkeit, sich mit einer neuen Frage zu befassen: Wie sichert man KI-Tools?

Ein Drittel der Befragten einer aktuellen Umfrage von Gartner gaben beides an Verwendung oder Implementierung KI-basierter Anwendungssicherheitstools um die Risiken anzugehen, die der Einsatz generativer KI in ihrer Organisation mit sich bringt.

Datenschutzverbessernde Technologien (PETs) wurden derzeit am häufigsten von 7 % der Befragten genutzt, wobei ganze 19 % der Unternehmen sie implementieren. Diese Kategorie umfasst Möglichkeiten zum Schutz personenbezogener Daten, wie z homomorphe Verschlüsselung, KI-generierte synthetische Daten, sichere Mehrparteienberechnung, föderiertes Lernen und differenzierte Privatsphäre. Allerdings haben satte 17 % keine Pläne, PETs in ihrer Umgebung einzusetzen.

Nur 19 % verwenden oder implementieren Tools zur Erklärbarkeit von Modellen, aber es besteht ein erhebliches Interesse (56 %) unter den Befragten, diese Tools zu erkunden und zu verstehen, um Risiken durch generative KI zu bewältigen. Laut Gartner können Erklärbarkeits-, Modellüberwachungs- und KI-Anwendungssicherheitstools alle auf Open-Source- oder proprietären Modellen verwendet werden, um die Vertrauenswürdigkeit und Zuverlässigkeit zu erreichen, die Unternehmensbenutzer benötigen.

Zu den Risiken, über die sich die Befragten am meisten Sorgen machen, gehören falsche oder voreingenommene Ausgaben (58 %) sowie Schwachstellen oder durchgesickerte Geheimnisse in KI-generiertem Code (57 %). Bezeichnenderweise nannten 43 % potenzielle Urheberrechts- oder Lizenzprobleme, die sich aus KI-generierten Inhalten ergeben, als größte Risiken für ihr Unternehmen.

„Es gibt immer noch keine Transparenz über die Datenmodelle, auf denen trainiert wird, daher ist das mit Voreingenommenheit und Datenschutz verbundene Risiko sehr schwer zu verstehen und abzuschätzen“, schrieb ein Vorstandsvorsitzender als Antwort auf die Gartner-Umfrage.

Im Juni das National Institute of Standards and Technology (NIST) hat eine öffentliche Arbeitsgruppe ins Leben gerufen um diese Frage zu beantworten, basierend auf seinem AI Risk Management Framework vom Januar. Wie die Gartner-Daten zeigen, Unternehmen warten nicht für NIST-Richtlinien.

Zeitstempel:

Mehr von Dunkle Lektüre