Badanie pokazuje powolne wdrażanie generatywnej sztucznej inteligencji w biznesie

Badanie pokazuje powolne wdrażanie generatywnej sztucznej inteligencji w biznesie

Ankieta pokazuje powolne wdrażanie generatywnej sztucznej inteligencji w biznesie PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Globalne badanie pokazuje, że tylko 9% firm w znacznym stopniu korzysta z generatywnej sztucznej inteligencji, wymieniając prywatność danych i wyzwania IT jako główne bariery wdrożeniowe.

Według niedawnego badania wskaźnik przyjęcia przez przedsiębiorstwa rozwiązań generatywnych AI nie nadąża za szumem wokół tej technologii. Prywatność danych, regulacje i infrastruktura IT to główne przeszkody uniemożliwiające szerokie zastosowanie tej technologii.

Przeczytaj także: Dyrektor generalny Leonardo podkreśla głupotę użytkowników w związku z zagrożeniami AI w Davos

Z badania przeprowadzonego przez australijską firmę Telstra i MIT Technology Review Insights wynika, że ​​tylko 9% z ponad 300 liderów biznesu na całym świecie intensywnie wykorzystuje sztuczną inteligencję.

Raport MIT

Chociaż większość liderów optymistycznie oceniała potencjał sztucznej inteligencji i spodziewała się szerszego jej wykorzystania, nawet pierwsi użytkownicy tej technologii wdrożyli ją w ograniczonych obszarach biznesowych. 

w ankiecie raportStela Solar, dyrektor inauguracyjna australijskiego Narodowego Centrum Sztucznej Inteligencji, stwierdziła, że ​​panuje błędne przekonanie na temat tego, jak łatwo jest prowadzić dojrzałe, gotowe do działania przedsiębiorstwo, generatywna sztuczna inteligencja. Dodała, że ​​jej przyjęcie może wymagać od firm poprawy jakości i możliwości danych, środków ochrony prywatności, umiejętności w zakresie sztucznej inteligencji oraz wdrożenia bezpiecznego i odpowiedzialnego zarządzania sztuczną inteligencją w całej organizacji. 

Stwierdziła również, że nadal potrzebne są dodatkowe elementy, takie jak projekt aplikacji, połączenie z danymi i procesami biznesowymi, zasady korporacyjne i inne.

Jednak większość liderów biznesowych stwierdziła, że ​​przewiduje, że do 2024 r. generatywna sztuczna inteligencja będzie wykorzystywana przez ponad dwukrotnie większą liczbę funkcji biznesowych lub celów ogólnych. 

Według Chrisa Levanesa, szefa marketingu Azji Południowej w firmie Telstra, pierwsi użytkownicy w 2023 r. korzystali z tej technologii przede wszystkim do automatyzacji powtarzalnych zadań o niskiej wartości, ponieważ wymagały mniejszego nadzoru ze strony człowieka.

Respondenci dodają swój głos

Do 2024 roku aż 85% respondentów przewiduje wykorzystanie generatywnej sztucznej inteligencji do zadań o niskiej wartości; 77% spodziewa się wdrożenia go w obsłudze klienta, a 74% w przypadku analizy strategicznej. 

Inne obszary potencjalnego wdrożenia obejmują innowacje produktowe, logistykę łańcucha dostaw i sprzedaż. 

W raporcie wskazano jednak pewne przeszkody na drodze do powszechnego wdrożenia generatywna sztuczna inteligencja przyszłym roku, zwłaszcza zasobów i możliwości IT, i określił te plany jako oparte na „ambicjach i pychie.

Mniej niż 30% respondentów stwierdziło, że cechy IT ich firmy pozwolą na szybkie wdrożenie generatywnej sztucznej inteligencji, a podmioty wdrażające generatywną sztuczną inteligencję mają jeszcze mniejsze zaufanie do swojej infrastruktury IT obsługującej nową technologię. 

Z drugiej strony 56% respondentów stwierdziło, że wdrożenie generatywnej sztucznej inteligencji jest ograniczone budżetem inwestycyjnym IT.

Aż 77% respondentów uznało regulacje, zgodność i prywatność danych za główne przeszkody w szybkim przyjęciu ekosystemu generatywnej sztucznej inteligencji. Kwestie te stanowią poważny problem, odkąd technologia zyskała rozgłos pod koniec 2022 r. wraz z wydaniem OpenAI's lubiany ChatGPT.

Laurence Liew, dyrektor ds. innowacji AI w AI Singapore, podczas poniedziałkowej publikacji raportu MIT podkreślił mediom, że aby ograniczyć te zagrożenia, konieczne jest ustanowienie jasnych ram zarządzania i procedur bezpieczeństwa dla modeli sztucznej inteligencji.

Liew powiedział, że firmy muszą zadać sobie pytanie, czy mają odpowiedni ład korporacyjny i czy ich dokumenty wewnętrzne są odpowiednio posegmentowane i bezpieczne. Zauważył, że firmy będą chciały unikać modeli sztucznej inteligencji, które można oszukać w celu ujawnienia prywatnych informacji, takich jak wynagrodzenia pracowników. 

Znak czasu:

Więcej z MetaWiadomości