Salvaguardie obbligatorie dell'IA sulle carte in OZ

Salvaguardie obbligatorie dell'IA sulle carte in OZ

Salvaguardie obbligatorie dell'IA in OZ PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Mentre continuano i dibattiti sulla sicurezza dell’IA, l’Australia ha promesso di imporre garanzie obbligatorie per l’IA “ad alto rischio” con una mossa intesa a promuovere responsabile innovazione e utilizzo della tecnologia.

Ciò avviene in un momento in cui sono aumentate le preoccupazioni sugli aspetti negativi dell’intelligenza artificiale, in particolare per quanto riguarda la privacy e la sicurezza. Tuttavia, i governi di tutto il mondo concordano anche sul fatto che la tecnologia dell’intelligenza artificiale può trasformare le economie in tutti i settori, creando spazio per supportare ulteriori innovazioni legate all’intelligenza artificiale.

Gli australiani non si fidano dell’intelligenza artificiale

L’impegno del governo australiano fa seguito a una consultazione condotta lo scorso anno sugli sviluppi responsabili dell’IA. La consultazione ha ricevuto oltre 500 risposte, secondo a TechFinitivo rapporto.

Secondo il rapporto, le risposte hanno evidenziato che circa un terzo degli australiani ritiene che il paese non disponga di guardrail adeguati per garantire lo sviluppo, l’implementazione e l’uso sicuri dell’intelligenza artificiale.

“Mentre si prevede che l’intelligenza artificiale farà crescere la nostra economia, c’è una scarsa fiducia da parte del pubblico nel fatto che i sistemi di intelligenza artificiale vengano progettati, sviluppati, implementati e utilizzati in modo sicuro e responsabile”, afferma il documento.

“Ciò agisce come un freno a mano sull’adozione da parte delle imprese e sull’accettazione da parte del pubblico”.

Leggi anche: Evil Geniuses, ex campioni di Dota 2 TI5, abbandonano tutti gli eSport tranne Valorant

Il governo interviene

Anche se non ci sono ancora passi chiari da seguire, il governo sta prendendo atto delle preoccupazioni sollevate dagli australiani. Mentre il governo considera specifici guardrail obbligatori e, se implicano la modifica delle leggi esistenti, promette che il suo obiettivo è proteggere i cittadini da sviluppi irresponsabili dell’IA.

I guardrail mireranno a “promuovere la progettazione, lo sviluppo e l’implementazione sicuri dei sistemi di intelligenza artificiale” e ciò riguarderà i test e la responsabilità.

"Abbiamo sentito forte e chiaro che gli australiani vogliono guardrail più forti per gestire l'IA ad alto rischio", ha detto il ministro australiano dell'Industria e della Scienza Ed Husic sulla scia della risposta provvisoria del governo federale alla consultazione dell'industria.

Mentre sono in corso i piani per i guardrail obbligatori, il governo ha anche promesso l’uso continuato di quella che ha definito l’intelligenza artificiale “a basso rischio”.

Possibile linea d'azione

Il governo di Australia si è inoltre impegnata a collaborare con gli operatori del settore per elaborare tutele ideali. Ciò include l’etichettatura e il watermarking dei contenuti dell’IA, che vengono adottati anche in altri paesi come un passo verso la limitazione della disinformazione sull’IA e la possibilità di consentire agli utenti di distinguere tra il contenuto generato dall’IA e quello originale creato dall’uomo.

Inoltre, sarà istituito un comitato consultivo per assistere nella realizzazione dei pratici guardrail.

“Vogliamo che un pensiero sicuro e responsabile venga sviluppato fin dalle prime fasi di progettazione, sviluppo e implementazione dell’intelligenza artificiale”, ha affermato Husic.

Secondo TechFinitive, l’Australia osserverà attentamente anche il modo in cui altri paesi come Stati Uniti, Canada e UE stanno combattendo le sfide poste dall’intelligenza artificiale. L’UE ha già messo a punto un Legge sui servizi digitali che mira a creare uno spazio digitale più sicuro “dove i diritti fondamentali degli utenti siano protetti”.

Tra le altre questioni che la legge affronterà c’è il divieto di utilizzo dell’intelligenza artificiale per “attività ad alto rischio come la sorveglianza biometrica, il punteggio sociale e lo scraping non mirato di immagini facciali”.

I EU ha anche invitato le aziende tecnologiche a filigranare i contenuti dell'intelligenza artificiale, mentre queste organizzazioni si sono anche impegnate a farlo Casa Bianca per sviluppi, implementazione e utilizzo responsabili dell’IA. Uno dei loro impegni volontari è stato quello di accettare di filigranare i contenuti dell’intelligenza artificiale.

Timestamp:

Di più da MetaNotizie