Un sondaggio rivela una lenta adozione dell’intelligenza artificiale generativa nel mondo degli affari

Un sondaggio rivela una lenta adozione dell’intelligenza artificiale generativa nel mondo degli affari

Un sondaggio rivela una lenta adozione dell'intelligenza artificiale generativa nella business platoblockchain data intelligence. Ricerca verticale. Ai.

Un sondaggio globale mostra che solo il 9% delle aziende utilizza in modo significativo l’intelligenza artificiale generativa, citando la privacy dei dati e le sfide IT come principali ostacoli all’adozione.

Secondo un recente sondaggio, il tasso di adozione da parte delle aziende di soluzioni creative AI non ha tenuto il passo con l’hype che circonda la tecnologia. La privacy dei dati, le normative e l’infrastruttura IT sono i principali ostacoli che impediscono l’ampio utilizzo della tecnologia.

Leggi anche: L’amministratore delegato di Leonardo evidenzia la stupidità degli utenti rispetto alle minacce dell’intelligenza artificiale a Davos

Secondo un sondaggio condotto dall’australiana Telstra e dal MIT Technology Review Insights, solo il 9% degli oltre 300 leader aziendali in tutto il mondo utilizza pesantemente l’intelligenza artificiale.

Il rapporto del MIT

Sebbene la maggior parte dei leader fosse ottimista riguardo al potenziale dell’intelligenza artificiale e si aspettasse di ampliarne l’utilizzo, anche i primi ad adottare questa tecnologia l’hanno implementata per aree di business limitate. 

Nel sondaggio rapporto, Stela Solar, direttore inaugurale del National Artificial Intelligence Center australiano, ha affermato che esiste un'idea sbagliata su quanto sia facile gestire sistemi maturi, pronti per l'impresa, IA generativa. Ha aggiunto che la sua adozione potrebbe richiedere alle aziende di migliorare la qualità e la capacità dei dati, le misure sulla privacy, le competenze in materia di intelligenza artificiale e di implementare una governance dell’intelligenza artificiale sicura e responsabile a livello di organizzazione. 

Ha inoltre affermato che ci sono elementi circostanti come il design dell'app, la connessione ai dati e ai processi aziendali, le politiche aziendali e altro ancora che sono ancora necessari.

Tuttavia, la maggior parte dei leader aziendali prevede che l’intelligenza artificiale generativa verrà utilizzata da più del doppio delle funzioni aziendali o per scopi generali entro il 2024. 

Secondo Chris Levanes, responsabile del marketing per l’Asia meridionale presso Telstra, i primi utilizzatori nel 2023 hanno utilizzato la tecnologia principalmente per automatizzare attività ripetitive e di basso valore perché richiedevano meno supervisione umana.

Gli intervistati aggiungono la loro voce

Entro il 2024, ben l’85% degli intervistati prevede di utilizzare l’intelligenza artificiale generativa per questi compiti di basso valore; Il 77% prevede di implementarlo nel servizio clienti e il 74% nell'analisi strategica. 

Altre aree di potenziale implementazione includono l’innovazione di prodotto, la logistica della catena di fornitura e le vendite. 

Tuttavia, il rapporto ha rilevato alcuni ostacoli a un’implementazione diffusa di IA generativa l’anno prossimo, in particolare risorse e capacità IT, e ha etichettato questi piani come altamente “ambiziosi e arroganti”.

Meno del 30% degli intervistati ha affermato che le caratteristiche IT della propria azienda consentiranno una rapida adozione dell’IA generativa, e coloro che la implementano hanno ancora meno fiducia nella propria infrastruttura IT per supportare la nuova tecnologia. 

Al contrario, il 56% degli intervistati ha affermato che l’implementazione dell’IA generativa è stata limitata dai budget di investimento IT.

Fino al 77% degli intervistati ha identificato la regolamentazione, la conformità e la privacy dei dati come i principali ostacoli alla rapida adozione dell’ecosistema dell’intelligenza artificiale generativa. Questi problemi sono stati una delle principali preoccupazioni da quando la tecnologia ha acquisito notorietà alla fine del 2022 con il rilascio di OpenAI di ben voluto ChatGPT.

Laurence Liew, direttore dell'innovazione dell'intelligenza artificiale presso AI Singapore, ha sottolineato ai media durante il lancio del rapporto del MIT di lunedì che è necessario stabilire quadri di governance chiari e procedure di sicurezza per i modelli di intelligenza artificiale per mitigare questi rischi.

Liew ha affermato che le aziende devono chiedersi se dispongono di una governance adeguata e se i loro documenti interni sono adeguatamente segmentati o sicuri. Ha osservato che le aziende vorranno evitare di avere modelli di intelligenza artificiale che possano essere indotti con l’inganno a rivelare informazioni private come gli stipendi dei dipendenti. 

Timestamp:

Di più da MetaNotizie