At SambaSicherheitIhre Mission besteht darin, sicherere Gemeinschaften zu fördern, indem sie Risiken durch Dateneinblicke reduzieren. Seit 1998 ist SambaSafety der führende nordamerikanische Anbieter cloudbasierter Software für das Mobilitätsrisikomanagement für Unternehmen mit gewerblichen und nichtgewerblichen Fahrern. SambaSafety bedient mehr als 15,000 Arbeitgeber und Versicherungsträger weltweit mit Fahrerrisiko- und Compliance-Überwachung, Online-Schulungen und umfassenden Risikoanalysen sowie Risikopreislösungen. Durch die Erfassung, Korrelation und Analyse von Fahrerdaten, Telematik-, Unternehmens- und anderen Sensordaten hilft SambaSafety nicht nur Arbeitgebern, Sicherheitsrichtlinien besser durchzusetzen und Ansprüche zu reduzieren, sondern hilft auch Versicherern, fundierte Underwriting-Entscheidungen zu treffen und Hintergrundüberprüfungen genaue und effiziente Voreinstellungen durchzuführen Schecks.
Nicht alle Fahrer weisen das gleiche Risikoprofil auf. Je mehr Zeit Sie am Steuer verbringen, desto höher ist Ihr Risikoprofil. Das Datenwissenschaftlerteam von SambaSafety hat komplexe und geeignete Modellierungslösungen entwickelt, die darauf ausgelegt sind, dieses Risikoprofil genau zu quantifizieren. Sie suchten jedoch Unterstützung, um diese Lösung für Batch- und Echtzeit-Inferenz auf konsistente und zuverlässige Weise bereitzustellen.
In diesem Beitrag diskutieren wir, wie SambaSafety AWS-Tools für maschinelles Lernen (ML) und kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD) nutzte, um seine bestehende Data-Science-Anwendung für Batch-Inferenz bereitzustellen. SambaSafety arbeitete mit AWS Advanced Consulting Partner zusammen Feuergeist eine Lösung zu liefern, die verwendet wird AWS CodeStar, AWS Step-Funktionen und Amazon Sage Maker für diesen Arbeitsaufwand. Mit AWS CI/CD- und AI/ML-Produkten musste das Data-Science-Team von SambaSafety seinen bestehenden Entwicklungsworkflow nicht ändern, um von kontinuierlichem Modelltraining und Inferenz zu profitieren.
Anwendungsfall des Kunden
Das Data-Science-Team von SambaSafety nutzte schon lange die Macht der Daten, um sein Unternehmen zu informieren. Sie ließen mehrere erfahrene Ingenieure und Wissenschaftler aufschlussreiche Modelle entwickeln, die die Qualität der Risikoanalyse auf ihrer Plattform verbesserten. Die Herausforderungen, vor denen dieses Team stand, hatten nichts mit der Datenwissenschaft zu tun. Das Data-Science-Team von SambaSafety benötigte Hilfe bei der Verbindung seines bestehenden Data-Science-Workflows mit einer Continuous-Delivery-Lösung.
Das Datenwissenschaftsteam von SambaSafety pflegte im Rahmen seines Entwicklungsworkflows mehrere skriptähnliche Artefakte. Diese Skripte führten mehrere Aufgaben aus, darunter Datenvorverarbeitung, Feature-Engineering, Modellerstellung, Modelloptimierung sowie Modellvergleich und -validierung. Diese Skripte wurden alle manuell ausgeführt, wenn neue Daten für das Training in ihrer Umgebung eintrafen. Darüber hinaus führten diese Skripte keine Modellversionierung oder Hosting für Rückschlüsse durch. Das Data-Science-Team von SambaSafety hatte manuelle Problemumgehungen entwickelt, um neue Modelle in die Produktion zu bringen, aber dieser Prozess wurde zeit- und arbeitsintensiv.
Um dem hochqualifizierten Data-Science-Team von SambaSafety mehr Zeit für Innovationen bei neuen ML-Workloads zu geben, musste SambaSafety die manuellen Aufgaben im Zusammenhang mit der Pflege vorhandener Modelle automatisieren. Darüber hinaus musste die Lösung den vom Datenwissenschaftsteam von SambaSafety verwendeten manuellen Arbeitsablauf nachbilden und auf der Grundlage der Ergebnisse dieser Skripte Entscheidungen über das weitere Vorgehen treffen. Schließlich musste die Lösung in die vorhandene Codebasis integriert werden. Das Data-Science-Team von SambaSafety nutzte eine Code-Repository-Lösung außerhalb von AWS; Die endgültige Pipeline musste intelligent genug sein, um basierend auf Aktualisierungen ihrer Codebasis, die hauptsächlich in geschrieben wurde, auszulösen R.
Lösungsüberblick
Das folgende Diagramm veranschaulicht die Lösungsarchitektur, die auf einer der vielen Open-Source-Architekturen basiert, die vom Lieferpartner von SambaSafety verwaltet werden Feuergeist.
Die von Firemind für das Data-Science-Team von SambaSafety bereitgestellte Lösung basiert auf zwei ML-Pipelines. Die erste ML-Pipeline trainiert ein Modell mithilfe der benutzerdefinierten Datenvorverarbeitungs-, Trainings- und Testskripte von SambaSafety. Das resultierende Modellartefakt wird für Batch- und Echtzeit-Inferenzen auf von SageMaker verwalteten Modellendpunkten bereitgestellt. Die zweite ML-Pipeline erleichtert die Inferenzanforderung an das gehostete Modell. Auf diese Weise wird die Pipeline für das Training von der Pipeline für die Inferenz entkoppelt.
Eine der Komplexitäten dieses Projekts besteht darin, die manuellen Schritte der SambaSafety-Datenwissenschaftler zu replizieren. Das Team von Firemind nutzte Step Functions und SageMaker Processing, um diese Aufgabe abzuschließen. Mit Step Functions können Sie diskrete Aufgaben in AWS ausführen AWS Lambda Funktionen, Amazon Elastic Kubernetes-Service (Amazon EKS)-Mitarbeiter, oder in diesem Fall SageMaker. Mit SageMaker Processing können Sie Jobs definieren, die auf verwalteten ML-Instanzen innerhalb des SageMaker-Ökosystems ausgeführt werden. Für jede Ausführung eines Step Function-Jobs werden eigene Protokolle, ein eigener Ausführungsverlauf und Details zum Erfolg oder Misserfolg des Jobs verwaltet.
Das Team nutzte Step Functions und SageMaker zusammen mit Lambda, um die Automatisierung von Trainings-, Optimierungs-, Bereitstellungs- und Inferenz-Workloads zu bewältigen. Der einzige verbleibende Teil war die kontinuierliche Integration von Codeänderungen in diese Bereitstellungspipeline. Firemind implementierte ein CodeStar-Projekt, das eine Verbindung zum vorhandenen Code-Repository von SambaSafety aufrechterhielt. Wenn das fleißige Data-Science-Team von SambaSafety ein Update für einen bestimmten Zweig seiner Codebasis veröffentlicht, übernimmt CodeStar die Änderungen und löst die Automatisierung aus.
Zusammenfassung
Die neue serverlose MLOps-Pipeline von SambaSafety hatte erhebliche Auswirkungen auf ihre Lieferfähigkeit. Die Integration von Datenwissenschaft und Softwareentwicklung ermöglicht ihren Teams eine nahtlose Zusammenarbeit. Ihre automatisierte Modellbereitstellungslösung verkürzte die Zeit bis zur Auslieferung um bis zu 70 %.
SambaSafety hatte außerdem Folgendes zu sagen:
„Durch die Automatisierung unserer Data-Science-Modelle und deren Integration in den Softwareentwicklungslebenszyklus konnten wir ein neues Maß an Effizienz und Genauigkeit unserer Dienstleistungen erreichen. Dies hat es uns ermöglicht, der Konkurrenz einen Schritt voraus zu sein und unseren Kunden innovative Lösungen zu liefern. Davon werden unsere Kunden durch die schnelleren Durchlaufzeiten und die höhere Genauigkeit unserer Lösungen erheblich profitieren.“
SambaSafety kontaktierte die AWS-Kontoteams mit ihrem Problem. Die AWS-Konto- und Lösungsarchitekturteams arbeiteten daran, diese Lösung zu identifizieren, indem sie sie aus unserem robusten Partnernetzwerk bezogen. Nehmen Sie Kontakt zu Ihrem AWS-Account-Team auf, um ähnliche transformative Möglichkeiten für Ihr Unternehmen zu identifizieren.
Über die Autoren
Dan Ferguson ist AI/ML Specialist Solutions Architect (SA) für die Private-Equity-Lösungsarchitektur bei Amazon Web Services. Dan hilft Portfoliounternehmen, die von Private Equity unterstützt werden, KI/ML-Technologien zu nutzen, um ihre Geschäftsziele zu erreichen.
Khalil Adib ist Data Scientist bei Firemind und treibt die Innovationen voran, die Firemind seinen Kunden rund um die magischen Welten von KI und ML bieten kann. Khalil bastelt an den neuesten und besten Technologien und Modellen und stellt sicher, dass Firemind immer auf dem neuesten Stand ist.
Jason Mathew ist Cloud Engineer bei Firemind und leitet die komplette Bereitstellung von Projekten für Kunden, vom Schreiben von Pipelines mit IaC über den Aufbau von Data Engineering mit Python bis hin zur Erweiterung der Grenzen von ML. Jason leistet außerdem den Hauptbeitrag zu den Open-Source-Projekten von Firemind.
- SEO-gestützte Content- und PR-Distribution. Holen Sie sich noch heute Verstärkung.
- EVM-Finanzen. Einheitliche Schnittstelle für dezentrale Finanzen. Hier zugreifen.
- Quantum Media Group. IR/PR verstärkt. Hier zugreifen.
- PlatoAiStream. Web3-Datenintelligenz. Wissen verstärkt. Hier zugreifen.
- Quelle: https://aws.amazon.com/blogs/machine-learning/samba-safety-automates-custom-r-workload-improving-driver-safety-with-amazon-sagemaker-and-aws-step-functions/
- :hast
- :Ist
- :nicht
- $UP
- 000
- 100
- 15%
- 1998
- 7
- 9
- a
- Fähig
- Über uns
- Konto
- Genauigkeit
- genau
- genau
- Erreichen
- zusätzlich
- advanced
- Vorteil
- voraus
- AI
- AI / ML
- Alle
- erlaubt
- ebenfalls
- immer
- Amazon
- Amazon Sage Maker
- Amazon Web Services
- amerikanisch
- an
- Analyse
- Analytik
- und
- jedem
- Anwendung
- Architektur
- SIND
- um
- AS
- damit verbundenen
- At
- automatisieren
- Automatisiert
- Automatisches Erfassen:
- automatisieren
- Automation
- AWS
- AWS Maschinelles Lernen
- AWS Step-Funktionen
- unterstützt
- Hintergrund
- Base
- basierend
- BE
- wurde
- war
- hinter
- Nutzen
- Besser
- Blutung
- Grenzen
- Filiale
- Building
- erbaut
- Geschäft
- aber
- by
- CAN
- Träger
- Häuser
- Herausforderungen
- Übernehmen
- Änderungen
- Schecks
- aus aller Welt
- Kunden
- Cloud
- Code
- Codebasis
- Sammlung
- kommerziell
- Communities
- Unternehmen
- Vergleich
- Wettbewerb
- abschließen
- Komplex
- Komplexität
- Compliance
- Vernetz Dich
- Sie
- Sich zusammenschliessen
- Verbindung
- konsistent
- Consulting
- kontinuierlich
- Beiträger
- Unternehmen
- Korrelation
- Schaffung
- Original
- Kunden
- technische Daten
- Datenwissenschaft
- Datenwissenschaftler
- Entscheidungen
- entkoppelt
- tief
- Übergeben
- geliefert
- Lieferanten
- einsetzen
- Einsatz
- Einsatz
- entworfen
- Details
- entwickelt
- Entwicklung
- diskutieren
- Fahrer
- Treiber
- Fahren
- jeder
- Ökosystem
- Edge
- Effizienz
- effizient
- Arbeitgeber
- freigegeben
- ermöglicht
- End-to-End
- erzwingen
- Ingenieur
- Entwicklung
- Ingenieure
- genug
- Gewährleistung
- Arbeitsumfeld
- Gerechtigkeit
- vorhandenen
- extern
- konfrontiert
- erleichtert
- Scheitern
- beschleunigt
- Merkmal
- Finale
- Endlich
- Vorname
- Folgende
- Aussichten für
- Frei
- für
- Funktion
- Funktionen
- Außerdem
- Global
- größte
- sehr
- hätten
- Griff
- Haben
- Hilfe
- hilft
- höher
- hoch
- Geschichte
- gehostet
- Hosting
- Ultraschall
- aber
- HTML
- http
- HTTPS
- identifizieren
- zeigt
- Impact der HXNUMXO Observatorien
- umgesetzt
- verbessert
- Verbesserung
- in
- Einschließlich
- informieren
- informiert
- wir innovieren
- Innovation
- innovativ
- Einblicke
- Versicherung
- integrieren
- Integration
- Integration
- Intelligent
- in
- SEINE
- Job
- Jobs
- jpg
- Wesentliche
- Khalil
- neueste
- führenden
- lernen
- Niveau
- Hebelwirkung
- Lebenszyklus
- Lang
- Maschine
- Maschinelles Lernen
- Aufrechterhaltung
- unterhält
- um
- verwaltet
- Management
- Weise
- manuell
- manuell
- viele
- Ziel
- ML
- MLOps
- Mobilität
- Modell
- Modellieren
- für
- Überwachung
- mehr
- erforderlich
- Netzwerk
- Neu
- Norden
- of
- on
- EINEM
- Online
- einzige
- XNUMXh geöffnet
- Open-Source-
- Entwicklungsmöglichkeiten
- or
- Organisationen
- Andere
- UNSERE
- Ergebnisse
- besitzen
- Teil
- Partner
- Partnernetzwerk
- Ausführen
- durchgeführt
- Picks
- Stück
- Pipeline
- Plattform
- Plato
- Datenintelligenz von Plato
- PlatoData
- Politik durchzulesen
- Mappe
- Post
- BLOG-POSTS
- Werkzeuge
- Gegenwart
- gebühr
- in erster Linie
- privat
- Private Equity
- Aufgabenstellung:
- Prozessdefinierung
- Verarbeitung
- Produktion
- Produkte
- Profil
- Projekt
- Projekte
- fördern
- die
- Versorger
- Schieben
- Python
- Qualität
- Echtzeit
- Rekord
- Veteran
- Reduziert
- Reduzierung
- bezogene
- zuverlässig
- verbleibenden
- Quelle
- Anforderung
- was zu
- Risiko
- Risikomanagement
- robust
- Führen Sie
- SA
- Sicherheit
- Sicherheit
- sagemaker
- gleich
- Wissenschaft
- Wissenschaftler
- Wissenschaftler
- Skripte
- nahtlos
- Zweite
- Serverlos
- dient
- Dienstleistungen
- mehrere
- signifikant
- ähnlich
- da
- erfahren
- Software
- Software-Entwicklung
- Lösung
- Lösungen
- Quelle
- Sourcing
- Spezialist
- spezifisch
- verbrachte
- bleiben
- Schritt
- Shritte
- Erfolg
- Support
- Nehmen
- gemacht
- Aufgabe
- und Aufgaben
- Team
- Teams
- Tech
- Technologies
- Testen
- als
- zur Verbesserung der Gesundheitsgerechtigkeit
- Das
- ihr
- Sie
- Diese
- vom Nutzer definierten
- fehlen uns die Worte.
- Durch
- Zeit
- Zeitaufwendig
- mal
- zu
- gemeinsam
- Werkzeuge
- Ausbildung
- schult Ehrenamtliche
- Transformativ
- auslösen
- XNUMX
- Underwriting-
- Aktualisierung
- Updates
- us
- -
- benutzt
- Verwendung von
- Bestätigung
- wurde
- Weg..
- we
- Netz
- Web-Services
- GUT
- waren
- Rad
- wann
- welche
- werden wir
- mit
- .
- Arbeiten
- zusammenarbeiten
- gearbeitet
- Arbeiter
- Arbeitsablauf.
- weltweit
- Schreiben
- geschrieben
- Du
- Ihr
- Zephyrnet