Startupy w akceleratorach AWS wykorzystują sztuczną inteligencję i ML do rozwiązywania krytycznych wyzwań klientów

Nieustanny postęp technologiczny poprawia zdolność podejmowania decyzji zarówno przez ludzi, jak i przedsiębiorstwa. Digitalizacja świata fizycznego przyspieszyła trzy wymiary danych: prędkość, różnorodność i objętość. Dzięki temu informacje są szerzej dostępne niż wcześniej, co pozwala na postęp w rozwiązywaniu problemów. Teraz, dzięki zdemokratyzowanej dostępności w chmurze, technologie takie jak sztuczna inteligencja (AI) i uczenie maszynowe (ML) są w stanie zwiększyć szybkość i dokładność podejmowania decyzji przez ludzi i maszyny.

Nigdzie ta szybkość i dokładność decyzji nie jest ważniejsza niż w sektorze publicznym, w którym organizacje zajmujące się obronnością, opieką zdrowotną, lotnictwem i zrównoważonym rozwojem rozwiązują wyzwania, które mają wpływ na obywateli na całym świecie. Wielu klientów z sektora publicznego dostrzega korzyści płynące z używania AI/ML w celu sprostania tym wyzwaniom, ale mogą być przytłoczeni szeroką gamą rozwiązań. AWS uruchomiło Akceleratory AWS, aby znaleźć i rozwijać startupy z technologiami, które spełniają unikalne wyzwania klientów z sektora publicznego. Czytaj dalej, aby dowiedzieć się więcej o przypadkach użycia AI/ML od startupów w Akceleratorze AWS, które mają wpływ na klientów z sektora publicznego.

Zdrowie

kawałki: Świadczeniodawcy chcą poświęcać więcej czasu na opiekę nad pacjentami, a mniej na papierkową robotę. Kawałki, i Akcelerator AWS Healthcare startup, wykorzystuje AWS, aby ułatwić wprowadzanie, zarządzanie, przechowywanie, organizowanie i uzyskiwanie wglądu w dane z elektronicznej dokumentacji medycznej (EHR) w celu uwzględnienia społecznych uwarunkowań zdrowia i poprawy opieki nad pacjentem. Dzięki sztucznej inteligencji, przetwarzaniu języka naturalnego (NLP) i klinicznie zweryfikowanym algorytmom, Pieces może zapewnić przewidywane daty wypisu ze szpitala, przewidywane kliniczne i niekliniczne bariery wypisu oraz ryzyko ponownej hospitalizacji. Usługi Pieces zapewniają również wgląd dla świadczeniodawców w prostym języku i optymalizują jasność problemów klinicznych pacjentów, aby pomóc zespołom opiekuńczym pracować wydajniej. Według Kawałków, oprogramowanie zapewnia 95% pozytywną prognozę w identyfikowaniu barier utrudniających wypisanie pacjenta, a w jednym szpitalu wykazał swoją zdolność do skrócenia pobytu pacjentów w szpitalu średnio o 2 dni.

Używa sztuk Elastyczna chmura obliczeniowa Amazon (Amazonka EC2), Usługa relacyjnych baz danych Amazon (Amazon RDS) i Przesyłanie strumieniowe zarządzane przez Amazon dla Apache Kafka (Amazon MSK) do gromadzenia i przetwarzania przesyłanych strumieniowo danych klinicznych. Używa sztuk Elastyczna usługa Amazon Kubernetes (Amazon EKS), Usługa Amazon OpenSearch, Przepływy pracy zarządzane przez Amazon dla Apache Airflow (Amazon MWAA) do uruchamiania wielu modeli ML na danych w produkcji na dużą skalę.

Zdrowie PEP: Doświadczenie pacjenta jest kluczowym priorytetem, ale zbieranie informacji zwrotnych od pacjentów może być wyzwaniem. PEP Health, startup w Kohorta AWS Healthcare Accelerator w Wielkiej Brytanii, wykorzystuje technologię NLP do analizowania milionów opublikowanych w Internecie komentarzy pacjentów, generując wyniki, które wskazują obszary do świętowania lub zaniepokojenia oraz identyfikując przyczyny poprawy lub spadku zadowolenia pacjentów. Dane te można wykorzystać do poprawy doświadczeń, uzyskania lepszych wyników i demokratyzacji głosu pacjenta.

Zastosowania PEP Zdrowie AWS Lambda, AWS-Fargate, a Amazon EC2 do pozyskiwania informacji w czasie rzeczywistym z setek tysięcy stron internetowych. Z zastrzeżonymi modelami NLP zbudowanymi i uruchomionymi Amazon Sage Maker, PEP Health identyfikuje i ocenia tematy istotne dla jakości opieki. Wyniki te zasilają platformę Patient Experience Platform i algorytmy ML firmy PEP Health zbudowane i obsługiwane przez Lambda, Fargate, Amazon EC2, Amazon RDS, SageMaker i Amazon Cognito, które umożliwiają analizę relacji i odkrywanie wzorców między ludźmi, miejscami i rzeczami, które w przeciwnym razie mogą wydawać się oderwane od siebie.

„Dzięki akceleratorowi firma PEP Health była w stanie znacznie skalować swoje operacje dzięki wprowadzeniu AWS Lambda, aby szybciej i taniej zbierać więcej komentarzy. Ponadto byliśmy w stanie wykorzystać Amazon SageMaker, aby uzyskać dodatkowe informacje dla klientów”.

– Mark Lomax, dyrektor generalny PEP Health.

Obrona i przestrzeń

Placówka księżycowa: Lunar Outpost był częścią Inauguracyjna kohorta AWS Space Accelerator w 2021 roku. Firma bierze udział w misjach na Księżyc i opracowuje łaziki Mobile Autonomous Platform (MAP), które będą w stanie przetrwać i nawigować w ekstremalnych środowiskach innych ciał planetarnych. Aby skutecznie nawigować w warunkach, których nie można znaleźć na Ziemi, Lunar Outpost szeroko wykorzystuje symulacje robotów do weryfikacji algorytmów nawigacji AI.

Używa księżycowej placówki RoboMaker AWS, Amazonka EC2, Rejestr elastycznego pojemnika Amazon (Amazon ECR), Usługa Amazon Simple Storage (Amazonka S3), Wirtualna prywatna chmura Amazon (Amazon VPC), Lambda, Tworzenie kodu AWS, Amazon QuickSight do testowania łazików poprzez wdrażanie symulacji księżycowych. W miarę jak Lunar Outpost opracowuje technologie nawigacyjne dla powierzchni Księżyca, instancje symulacji są uruchamiane. Symulacje te zostaną wykorzystane podczas misji księżycowych, aby pomóc operatorom i zmniejszyć ryzyko. Dane przesyłane strumieniowo z powierzchni Księżyca zostaną zaimportowane do ich symulacji, dając wgląd w aktywność łazika w czasie rzeczywistym. Symulacja cyfrowych łazików MAP pozwala na próbne przebiegi trajektorii nawigacyjnych bez poruszania łazikiem fizycznym, radykalnie zmniejszając ryzyko poruszania się łazików w kosmosie.

Adarga: Adarga, część pierwsza kohorta Akceleratora Obrony AWS, dostarcza platformę wywiadowczą opartą na sztucznej inteligencji, aby szybko zrozumieć zagrożenia i możliwości związane z przygotowaniem i wdrożeniem wejścia do teatru. Adarga wykorzystuje sztuczną inteligencję do wyszukiwania spostrzeżeń ukrytych w dużych ilościach nieustrukturyzowanych danych, takich jak wiadomości, prezentacje, raporty, filmy i inne.

Adarga korzysta z Amazon EC2, usługi OpenSearch, Amazonka Aurora, Amazon DocumentDB (z kompatybilnością MongoDB), Tłumacz Amazoni SageMaker. Adarga pozyskuje informacje w czasie rzeczywistym, tłumaczy dokumenty obcojęzyczne oraz transkrybuje pliki audio i wideo na tekst. Oprócz SageMaker, Adarga wykorzystuje zastrzeżone modele NLP do wyodrębniania i klasyfikowania szczegółów, takich jak ludzie, miejsca i rzeczy, stosując techniki ujednoznaczniania w celu kontekstualizacji informacji. Te szczegóły są mapowane na obraz dynamicznej inteligencji dla klientów. Algorytmy ML firmy Adarga, wraz z usługami AWS AI/ML, umożliwiają analizę relacji, odkrywając wzorce, które w przeciwnym razie mogą wydawać się rozłączne.

„Jesteśmy dumni, że możemy być częścią tej pionierskiej inicjatywy, ponieważ nadal ściśle współpracujemy z AWS i szerszym ekosystemem graczy technologicznych, aby zapewnić zmieniające zasady gry możliwości obrony, możliwe dzięki chmurze hiperskalowej”.

– Robert Bassett-Cross, dyrektor generalny Adarga

Miasta zrównoważone

Inteligentne Helio: W branży komercyjnych farm fotowoltaicznych bardzo ważne jest określenie stanu zainstalowanej infrastruktury fotowoltaicznej. SmartHelio łączy fizykę i program SageMaker w celu konstruowania modeli, które określają aktualny stan zasobów słonecznych, tworzą prognozy na podstawie tego, które zasoby ulegną awarii i proaktywnie określają, które zasoby należy najpierw obsłużyć.

Rozwiązanie SmartHelio, zbudowane na AWS, analizuje niezwykle złożoną fizykę fotowoltaiczną i systemy zasilania. Jezioro danych w Amazon S3 przechowuje miliardy punktów danych przesyłanych strumieniowo w czasie rzeczywistym z serwerów kontroli nadzorczej i pozyskiwania danych (SCADA) na farmach słonecznych, urządzeniach Internetu rzeczy (IoT) lub systemach zarządzania treścią (CMS) innych firm. platformy. SmartHelio wykorzystuje SageMaker do uruchamiania modeli głębokiego uczenia się, aby rozpoznawać wzorce, określać ilościowo stan farmy fotowoltaicznej i przewidywać straty w gospodarstwie w czasie rzeczywistym, zapewniając natychmiast inteligentny wgląd swoim klientom.

Po wybraniu do pierwszego Kohorta Akceleratora Zrównoważonych Miast AWS, SmartHelio pozyskało kilku pilotów z nowymi klientami. Według słów dyrektora generalnego Govindy Upadhyay, „akcelerator AWS dał nam globalną ekspozycję na rynki, mentorów, potencjalnych klientów i inwestorów”.

Automatyka: Automotus korzysta z technologii komputerowego widzenia, aby dać kierowcom możliwość podglądu w czasie rzeczywistym, czy jest dostępne miejsce na krawężniku, co znacznie skraca czas spędzony na szukaniu parkingu. Automotus pomaga miastom i portom lotniczym zarządzać i zarabiać na krawężnikach za pomocą floty komputerowych czujników wizyjnych zasilanych przez Zielona trawa AWS IoT. Czujniki Automotus przesyłają dane treningowe do Amazon S3, gdzie przepływ pracy obsługiwany przez Lambda indeksuje przykładowe dane w celu tworzenia złożonych zestawów danych do trenowania nowych modeli i ulepszania istniejących.

Firma Automotus korzysta z programu SageMaker do automatyzacji i konteneryzacji procesu uczenia modeli widzenia komputerowego, którego wyniki są wdrażane z powrotem do urządzeń brzegowych za pomocą prostego, zautomatyzowanego procesu. Wyposażone w te przeszkolone modele czujniki Automotus wysyłają metadane do chmury za pomocą Rdzeń IoT AWS, odkrywając szczegółowe informacje na temat aktywności na krawężnikach i umożliwiając w pełni zautomatyzowane rozliczanie i egzekwowanie przepisów przy krawężniku. Z jeden klientAutomotus zwiększył skuteczność egzekwowania prawa i przychody o ponad 500%, co zaowocowało 24% wzrostem obrotów parkingowych i 20% zmniejszeniem ruchu.

Co dalej z AI/ML i startupami

Klienci przyjęli sztuczną inteligencję/uczenie maszynowe, aby rozwiązywać szerokie spektrum wyzwań, co jest świadectwem zaawansowania technologii i większej pewności, jaką klienci mają do korzystania z danych w celu usprawnienia procesu podejmowania decyzji. Akceleratory AWS mają na celu dalsze przyspieszanie i wdrażanie rozwiązań AI/ML, pomagając klientom w przeprowadzaniu burzy mózgów i udostępnianiu krytycznych stwierdzeń problemów oraz znajdowaniu i łączeniu startupów z tymi klientami.

Zainteresowany rozwojem rozwiązań dla dobra publicznego za pośrednictwem swojego startupu? A może masz wyzwanie i potrzebujesz przełomowego rozwiązania? Połącz się z zespołem AWS Worldwide Public Sector Venture Capital and Startups już dziś, aby dowiedzieć się więcej o akceleratorach AWS i innych dostępnych zasobach, które napędzają innowacje decyzyjne.


O autorach

Startupy w ramach akceleratorów AWS wykorzystują sztuczną inteligencję i uczenie maszynowe do rozwiązywania kluczowych problemów klientów PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Swami Śiwasubramanian jest wiceprezesem ds. danych i uczenia maszynowego w AWS. W tej roli Swami nadzoruje wszystkie usługi AWS Database, Analytics oraz AI i Machine Learning. Misją jego zespołu jest pomoc organizacjom we wdrażaniu danych do pracy dzięki kompletnemu, kompleksowemu rozwiązaniu do przechowywania, uzyskiwania dostępu, analizowania, wizualizacji i przewidywania danych.

Startupy w ramach akceleratorów AWS wykorzystują sztuczną inteligencję i uczenie maszynowe do rozwiązywania kluczowych problemów klientów PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.Manpreeta Mattu jest Globalnym Szefem ds. Rozwoju Biznesu Venture Capital i Startupów dla Światowego Sektora Publicznego w Amazon Web Services (AWS). Posiada 15-letnie doświadczenie w inwestycjach venture i przejęciach w najnowocześniejszych segmentach technologii i non-tech. Poza technologią, Manpreet interesuje się historią, filozofią i ekonomią. Jest także biegaczem wytrzymałościowym.

Znak czasu:

Więcej z Uczenie maszynowe AWS