Startups på tværs af AWS Accelerators bruger AI og ML til at løse missionskritiske kundeudfordringer

Nådeløse fremskridt inden for teknologi forbedrer både menneskers og virksomheders beslutningsevne. Digitalisering af den fysiske verden har accelereret de tre dimensioner af data: hastighed, variation og volumen. Dette har gjort information mere tilgængelig end før, hvilket giver mulighed for fremskridt inden for problemløsning. Nu, med cloud-aktiveret demokratiseret tilgængelighed, er teknologier som kunstig intelligens (AI) og machine learning (ML) i stand til at øge hastigheden og nøjagtigheden af ​​beslutningstagning af mennesker og maskiner.

Ingen steder er denne hurtighed og nøjagtighed af beslutninger vigtigere end i den offentlige sektor, hvor organisationer på tværs af forsvar, sundhedsvæsen, rumfart og bæredygtighed løser udfordringer, der påvirker borgere over hele verden. Mange offentlige kunder ser fordelene ved at bruge AI/ML til at løse disse udfordringer, men de kan blive overvældet af rækken af ​​løsninger. AWS lancerede AWS Accelerators for at finde og udvikle startups med teknologier, der imødekommer offentlige kunders unikke udfordringer. Læs videre for at lære mere om AI/ML-brugssager fra startups i AWS Accelerator, der gør en indvirkning for kunder i den offentlige sektor.

Medicinal

Pieces: Sundhedsudbydere ønsker at bruge mere tid på at pleje patienter og mindre tid på papirarbejde. Stykker, en AWS Healthcare Accelerator opstart, bruger AWS til at gøre det nemmere at indtaste, administrere, gemme, organisere og få indsigt fra EHR-data (Electronic Health Record) for at adressere sociale determinanter for sundhed og forbedre patientbehandlingen. Med AI, naturlig sprogbehandling (NLP) og klinisk reviderede algoritmer kan Pieces give forventede hospitalsudskrivningsdatoer, forventede kliniske og ikke-kliniske barrierer for udskrivelse og risiko for genindlæggelse. Pieces-tjenester giver også indsigt til sundhedsudbydere i almindeligt sprog og optimerer klarheden af ​​patienters kliniske problemer for at hjælpe plejeteam med at arbejde mere effektivt. Ifølge Stykker, leverer softwaren en 95 % positiv forudsigelse til at identificere barrierer for patientudskrivning, og på ét hospital har den vist sin evne til at reducere patientens indlæggelsesophold i gennemsnit med 2 dage.

Stykker bruger Amazon Elastic Compute Cloud (Amazon EC2), Amazon Relationel Database Service (Amazon RDS), og Amazon administrerede streaming til Apache Kafka (Amazon MSK) til indsamling og behandling af streamede kliniske data. Stykker bruger Amazon Elastic Kubernetes Service (Amazon EKS), Amazon OpenSearch Serviceog Amazon administrerede arbejdsgange til Apache Airflow (Amazon MWAA) til at køre flere ML-modeller på data i produktion i skala.

PEP sundhed: Patientoplevelse er en nøgleprioritet, men det kan være en udfordring at indsamle patientfeedback. PEP Health, en startup i AWS Healthcare Accelerator's britiske kohorte, bruger NLP-teknologi til at analysere millioner af online, offentligt udsendte patientkommentarer, generere resultater, der fremhæver områder til fest eller bekymring, og identificere årsagerne til at forbedre eller falde patienttilfredsheden. Disse data kan bruges til at forbedre oplevelser, skabe bedre resultater og demokratisere patientens stemme.

PEP Health bruger AWS Lambda, AWS Fargate, og Amazon EC2 til at indtage information i realtid fra hundredtusindvis af websider. Med proprietære NLP-modeller bygget og kørt på Amazon SageMaker, PEP Health identificerer og scorer temaer, der er relevante for kvaliteten af ​​plejen. Disse resultater leverer PEP Healths Patient Experience Platform og ML-algoritmer bygget og drevet af Lambda, Fargate, Amazon EC2, Amazon RDS, SageMaker og Amazon Cognito, som muliggør relationsanalyse og afdækker mønstre mellem mennesker, steder og ting, der ellers kan virke afbrudte.

"Gennem acceleratoren var PEP Health i stand til at skalere sine operationer betydeligt med introduktionen af ​​AWS Lambda for at indsamle flere kommentarer hurtigere og billigere. Derudover har vi været i stand til at bruge Amazon SageMaker til at udlede yderligere indsigt for kunderne."

– Mark Lomax, PEP Health CEO.

Forsvar og rum

Lunar Outpost: Lunar Outpost var en del af AWS Space Accelerator's første kohorte i 2021. Virksomheden deltager i missioner til Månen og udvikler Mobile Autonomous Platform (MAP) rovere, der vil være i stand til at overleve og navigere i de ekstreme miljøer af andre planetariske legemer. For at kunne navigere med succes under forhold, der ikke kan findes på Jorden, gør Lunar Outpost omfattende brug af robotsimuleringer til at validere AI-navigationsalgoritmer.

Lunar Outpost bruger AWS RoboMaker, Amazon EC2, Amazon Elastic Container Registry (Amazon ECR), Amazon Simple Storage Service (Amazon S3), Amazon Virtual Private Cloud (Amazon VPC), Lambda, AWS CodeBuildog Amazon QuickSight at teste rovere ved at implementere månesimuleringer. Efterhånden som Lunar Outpost udvikler navigationsteknologier til månens overflade, bliver simuleringsforekomster spundet op. Disse simuleringer vil blive brugt under månemissioner for at hjælpe menneskelige operatører og mindske risikoen. Data streamet tilbage fra månens overflade vil blive importeret til deres simulering, hvilket giver et realtidsbillede af roverens aktiviteter. Simulering af digitale MAP-rovere giver mulighed for prøvekørsler af navigationsbaner uden at flytte den fysiske rover, hvilket dramatisk reducerer risikoen for at flytte rovere i rummet.

Adarga: Adarga, en del af første AWS Defence Accelerator-kohorte, leverer en AI-drevet intelligensplatform til hurtigt at forstå risici og muligheder for forberedelse og implementering af teaterindgang. Adarga bruger kunstig intelligens til at finde indsigt begravet i store mængder af ustrukturerede data, såsom nyheder, præsentationer, rapporter, videoer og meget mere.

Adarga bruger Amazon EC2, OpenSearch Service, Amazon Aurora, Amazon DocumentDB (med MongoDB-kompatibilitet), Amazon Oversæt, og SageMaker. Adarga indtager information i realtid, oversætter fremmedsprogsdokumenter og transskriberer lyd- og videofiler til tekst. Ud over SageMaker bruger Adarga proprietære NLP-modeller til at udtrække og klassificere detaljer, såsom mennesker, steder og ting, ved at implementere disambigueringsteknikker for at kontekstualisere informationen. Disse detaljer er kortlagt til et dynamisk intelligensbillede for kunderne. Adargas ML-algoritmer, sammen med AWS AI/ML-tjenester, muliggør relationsanalyse og afdækker mønstre, der ellers kan virke afbrudte.

"Vi er stolte af at være en del af dette banebrydende initiativ, da vi fortsætter med at arbejde tæt sammen med AWS og et bredere økosystem af tekniske spillere for at levere spilskiftende kapaciteter til forsvar, muliggjort af hyperskala cloud."

– Robert Bassett-Cross, CEO, Adarga

Bæredygtige byer

SmartHelio: Inden for den kommercielle solfarmindustri er det afgørende at bestemme sundheden for installeret solcelleinfrastruktur. SmartHelio kombinerer fysik og SageMaker for at konstruere modeller, der bestemmer solaktivernes nuværende helbred, bygger forudsigelser om, hvilke aktiver der vil fejle, og bestemmer proaktivt, hvilke aktiver der skal serviceres først.

SmartHelios løsning, bygget på AWS, analyserer utroligt kompleks fotovoltaisk fysik og strømsystemer. En datasø på Amazon S3 gemmer milliarder af datapunkter streamet i realtid fra Supervisory Control and Data Acquisition (SCADA) servere på solfarme, Internet of Things (IoT) enheder eller tredjeparts Content Management Systems (CMS) platforme. SmartHelio bruger SageMaker til at køre deep learning-modeller til at genkende mønstre, kvantificere solfarmernes sundhed og forudsige bedriftstab på realtidsbasis, og levere intelligent indsigt øjeblikkeligt til sine kunder.

Efter at være blevet udvalgt til den første AWS Sustainable Cities Accelerator-kohorte, sikrede SmartHelio sig flere piloter med nye kunder. Med CEO Govinda Upadhyays ord: "AWS Accelerator gav os global eksponering til markeder, mentorer, potentielle kunder og investorer."

Automotive: Automotus bruger computer vision-teknologi til at give chaufførerne mulighed for i realtid at se, om der er plads til kantsten, hvilket reducerer den tid, der bruges på at søge efter parkering, markant. Automotus hjælper byer og lufthavne med at administrere og tjene penge på deres kantsten ved hjælp af en flåde af computersynssensorer drevet af AWS IoT Greengrass. Automotus's sensorer uploader træningsdata til Amazon S3, hvor en arbejdsgang drevet af Lambda indekserer eksempeldata for at skabe komplekse datasæt til træning af nye modeller og forbedring af eksisterende.

Automotus bruger SageMaker til at automatisere og containerisere sin computervisionsmodeltræningsproces, hvis output bliver implementeret tilbage til kanten ved hjælp af en simpel, automatiseret proces. Udstyret med disse trænede modeller sender Automotus-sensorer metadata til skyen vha AWS IoT Core, der afslører detaljeret indsigt om begrænsningsaktivitet og muliggør fuldautomatisk fakturering og håndhævelse ved tærsklen. Med én kunde, Automotus øgede håndhævelseseffektiviteten og omsætningen med mere end 500 %, hvilket resulterede i en stigning på 24 % i parkeringsomsætningen og en reduktion på 20 % i trafikken.

Hvad er det næste for AI/ML og startups

Kunder har taget AI/ML til sig for at løse et bredt spektrum af udfordringer, hvilket er et vidnesbyrd om teknologiens fremskridt og den øgede tillid, kunderne har til at bruge data til at forbedre beslutningstagningen. AWS Accelerators sigter mod at fortsætte accelerationen og adoptionen af ​​AI/ML-løsninger ved at hjælpe kunder med at brainstorme og dele kritiske problemformuleringer og finde og forbinde startups med disse kunder.

Interesseret i at fremme løsninger til offentligt gode gennem din startup? Eller har du en udfordring med behov for en disruptiv løsning? Forbind med AWS Worldwide Public Sector Venture Capital og Startups-teamet i dag for at lære mere om AWS Acceleratorer og andre tilgængelige ressourcer til at drive beslutningstagningsinnovationer.


Om forfatterne

Startups på tværs af AWS Accelerators bruger AI og ML til at løse missionskritiske kundeudfordringer PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Swami Sivasubramanian er Vice President for Data and Machine Learning hos AWS. I denne rolle overvåger Swami alle AWS-databaser, analyse- og AI- og maskinlæringstjenester. Hans teams mission er at hjælpe organisationer med at få deres data til at fungere med en komplet, end-to-end dataløsning til at gemme, få adgang til, analysere og visualisere og forudsige.

Startups på tværs af AWS Accelerators bruger AI og ML til at løse missionskritiske kundeudfordringer PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Manpreet Mattu er Global Head for Venture Capital og Startups Business Development for World Wide Public Sector hos Amazon Web Services (AWS). Han har 15 års erfaring med ventureinvesteringer og opkøb i førende teknologi og ikke-teknologiske segmenter. Ud over teknologi spænder Manpreets interesse over historie, filosofi og økonomi. Han er også en udholdenhedsløber.

Tidsstempel:

Mere fra AWS maskinindlæring