Tutela dei consumatori e promozione dell'innovazione: regolamentazione dell'IA e creazione di fiducia nell'IA responsabile

L'intelligenza artificiale (AI) è una delle tecnologie più rivoluzionarie della nostra generazione e offre enormi opportunità per essere una forza positiva e guidare la crescita economica. Può aiutare gli scienziati a curare malattie terminali, gli ingegneri a costruire strutture inconcepibili e gli agricoltori a produrre più raccolti. L'intelligenza artificiale ci consente di dare un senso al nostro mondo come mai prima d'ora e di creare prodotti e servizi per affrontare alcuni dei nostri problemi più impegnativi, come il cambiamento climatico e la risposta ai disastri umanitari. L'intelligenza artificiale sta anche aiutando le industrie a innovare e superare sfide più comuni. I produttori stanno implementando l'intelligenza artificiale per evitare tempi di inattività delle apparecchiature attraverso la manutenzione predittiva e razionalizzando i loro canali logistici e di distribuzione attraverso l'ottimizzazione della supply chain. Le compagnie aeree stanno sfruttando le tecnologie AI per migliorare l'esperienza di prenotazione dei clienti, assistere con la programmazione dell'equipaggio e trasportare i passeggeri con una maggiore efficienza nei consumi, simulando rotte in base alla distanza, al peso dell'aeromobile e alle condizioni meteorologiche.

Mentre i vantaggi dell'IA sono già evidenti e migliorano le nostre vite ogni giorno, sbloccando l'IA pieno potenziale richiederà di costruire una maggiore fiducia tra i consumatori. Ciò significa guadagnare la fiducia del pubblico che l'intelligenza artificiale verrà utilizzata in modo responsabile e in modo coerente con lo stato di diritto, i diritti umani e i valori di equità, privacy ed equità.

Comprendendo l'importante esigenza di fiducia del pubblico, lavoriamo a stretto contatto con i responsabili politici in tutto il paese e in tutto il mondo mentre valutano se le protezioni dei consumatori esistenti rimangono adatte allo scopo in un'era dell'IA. Una linea di base importante per qualsiasi regolamentazione deve essere quella di distinguere tra applicazioni di intelligenza artificiale ad alto rischio e quelle che comportano un rischio basso o nullo. La grande maggioranza delle applicazioni di intelligenza artificiale rientra in quest'ultima categoria e la loro diffusa adozione offre opportunità per enormi guadagni di produttività e, in definitiva, miglioramenti nel benessere umano. Se vogliamo ispirare la fiducia del pubblico in ciò che è straordinariamente buono, le aziende devono dimostrare di poter mitigare con sicurezza i potenziali rischi dell'IA ad alto rischio. Il pubblico dovrebbe essere fiducioso che questo tipo di sistemi ad alto rischio siano sicuri, equi, opportunamente trasparenti, protettivi della privacy e soggetti a un'adeguata supervisione.

In AWS, riconosciamo di essere ben posizionati per realizzare questa visione e siamo orgogliosi di supportare i nostri clienti mentre inventano, costruiscono e distribuiscono sistemi di intelligenza artificiale per risolvere problemi del mondo reale. Poiché AWS offre il set più ampio e approfondito di servizi di intelligenza artificiale e l'infrastruttura cloud di supporto, ci impegniamo a sviluppare servizi di intelligenza artificiale equi e accurati e a fornire ai clienti gli strumenti e la guida necessari per creare applicazioni in modo responsabile. Riconosciamo che l'IA responsabile è responsabilità condivisa di tutte le organizzazioni che sviluppano e implementano sistemi di intelligenza artificiale.

Ci impegniamo a fornire strumenti e risorse per aiutare i clienti a utilizzare i nostri servizi di intelligenza artificiale e machine learning (ML). All'inizio di quest'anno, abbiamo lanciato il nostro Guida sull'uso responsabile dell'apprendimento automatico, fornendo considerazioni e raccomandazioni per l'utilizzo responsabile del machine learning in tutte le fasi del ciclo di vita del machine learning. Inoltre, alla nostra conferenza AWS re:Invent del 2020, abbiamo implementato Amazon SageMaker Chiarire, un servizio che fornisce agli sviluppatori maggiori informazioni sui loro dati e modelli, aiutandoli a capire perché un modello ML ha fatto una previsione specifica e anche se le previsioni sono state influenzate da bias. Sul nostro Pagina sull'uso responsabile dell'intelligenza artificiale e dell'apprendimento automatico.

Continuiamo a espandere gli sforzi per fornire guida e supporto ai clienti e alla comunità più ampia nello spazio di utilizzo responsabile. Questa settimana alla nostra conferenza re:Invent 2022, noi ha annunciato il lancio di AWS AI Service Cards, una nuova risorsa per la trasparenza per aiutare i clienti a comprendere meglio i nostri servizi AWS AI. Le nuove carte di servizio AI forniscono una forma di documentazione AI responsabile che fornisce ai clienti un unico posto dove trovare informazioni.

Ogni AI Service Card copre quattro argomenti chiave per aiutarti a comprendere meglio il servizio o le caratteristiche del servizio, inclusi i casi d'uso previsti e le limitazioni, considerazioni sulla progettazione responsabile dell'IA e indicazioni sull'implementazione e sull'ottimizzazione delle prestazioni. Il contenuto delle AI Service Card si rivolge a un vasto pubblico di clienti, tecnologi, ricercatori e altre parti interessate che cercano di comprendere meglio le considerazioni chiave nella progettazione e nell'uso responsabile di un servizio AI.

Le conversazioni tra i responsabili politici in merito alle normative sull'IA continuano man mano che le tecnologie diventano più consolidate. AWS si concentra non solo sull'offrire i migliori strumenti e servizi per fornire lo sviluppo responsabile e l'implementazione dei servizi di intelligenza artificiale, ma anche sul continuare il nostro impegno con i legislatori per promuovere una forte protezione dei consumatori incoraggiando al tempo stesso il rapido ritmo dell'innovazione.


L'autore

Protezione dei consumatori e promozione dell'innovazione: regolamentazione dell'intelligenza artificiale e creazione di fiducia nell'intelligenza artificiale responsabile dei dati PlatoBlockchain. Ricerca verticale. Ai.Nicola Foster è direttrice di AWS Global AI/ML e Canada Public Policy presso Amazon, dove guida la direzione e la strategia delle politiche pubbliche di intelligenza artificiale per Amazon Web Services (AWS) in tutto il mondo, nonché gli sforzi dell'azienda per le politiche pubbliche a sostegno di AWS affari in Canada. In questo ruolo, si concentra su questioni relative alle tecnologie emergenti, alla modernizzazione digitale, al cloud computing, alla sicurezza informatica, alla protezione dei dati e alla privacy, agli appalti pubblici, allo sviluppo economico, all'immigrazione qualificata, allo sviluppo della forza lavoro e alla politica delle energie rinnovabili.

Timestamp:

Di più da Apprendimento automatico di AWS