I cani sono più intelligenti dell'IA generativa, afferma Meta AI Guru

I cani sono più intelligenti dell'IA generativa, afferma Meta AI Guru

I cani sono più intelligenti dell'IA generativa, afferma il guru di Meta AI PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Il Parlamento europeo, il principale organo legislativo dell'Unione europea (UE), ha approvato una proposta di legge che regolerebbe l'IA, rendendo possibile il blocco di 27 nazioni la prima grande potenza economica a mettere in atto regole complete per la tecnologia.

La legge, nota come AI Act, limiterebbe l'uso di sistemi di intelligenza artificiale considerati ad alto rischio, come il software di riconoscimento facciale. Richiederebbe anche alle aziende che sviluppano sistemi di intelligenza artificiale come ChatGPT per divulgare maggiori informazioni sui dati utilizzati per addestrare i chatbot.

Membri del Parlamento europeo con sede in Francia votato a favore della nuova legislazione mercoledì. Il voto arriva tra gli avvertimenti di alcuni esperti che l'intelligenza artificiale potrebbe farlo rappresenta una minaccia all'umanità se si sviluppa troppo velocemente.

Leggi anche: Codice di condotta AI in arrivo "entro poche settimane", afferma Stati Uniti ed Europa

Stabilire lo standard globale

La presidente del Parlamento europeo, Roberta Metsola, ha affermato che l'adozione delle nuove regole ha dimostrato l'impegno dell'Europa per lo sviluppo responsabile dell'IA.

“L'Europa guida e continuerà a guidare un approccio equilibrato e incentrato sull'uomo al primo atto mondiale sull'IA. Una legislazione che senza dubbio definirà lo standard globale per gli anni a venire", ha affermato Metsola in un video postato su Twitter.

“E tutto ciò è perfettamente coerente con la nostra volontà di essere leader mondiali nell'innovazione digitale basata sui valori dell'UE, come la privacy e il rispetto dei diritti fondamentali. L'obiettivo è che l'Europa prenda l'iniziativa e noi lo facciamo a modo nostro, responsabilmente".

L'attuale progetto di Parlamento europeo's AI Act propone un approccio basato sul rischio per regolamentare i sistemi di intelligenza artificiale. I sistemi di intelligenza artificiale sarebbero classificati in diversi livelli di rischio, in base al loro potenziale di danneggiare i consumatori.

Secondo la legge, la categoria di rischio più bassa si riferisce all'intelligenza artificiale utilizzata nei videogiochi o nei filtri antispam. La categoria di rischio più elevata include l'intelligenza artificiale che potrebbe essere utilizzata per il punteggio sociale, una pratica che assegna punteggi agli individui, sia per i prestiti che per l'alloggio, in base al loro comportamento.

L'UE dice che vieterà tali programmi. Le aziende che sviluppano o utilizzano la cosiddetta IA ad alto rischio sarebbero tenute a fornire informazioni su come funzionano i loro sistemi. Questo viene fatto per garantire che i programmi di intelligenza artificiale siano equi e trasparenti e che non discriminino gli individui, affermano le regole.

Capo dell'UE: la discriminazione è un grande rischio per l'IA

Commissario Ue per la Concorrenza Margrethe Vestager, ha affermato che i "guardrail" come quelli proposti nell'ambito della legge sull'IA potrebbero aiutare a proteggere le persone da alcuni dei maggiori rischi dell'IA, inclusa la discriminazione.

Ad esempio, l'intelligenza artificiale potrebbe essere utilizzata per prendere decisioni su chi ottiene un mutuo o un lavoro, e queste decisioni possono essere basate su fattori come razza, genere o religione, ha affermato.

“Probabilmente [il rischio di estinzione] può esistere, ma penso che la probabilità sia piuttosto bassa. Penso che i rischi per l'intelligenza artificiale siano più che le persone saranno discriminate [contro], non saranno viste per quello che sono ", Vestager detto la BBC dopo il voto del Parlamento europeo.

"Se è una banca che lo utilizza per decidere se posso ottenere un mutuo o meno, o se sono i servizi sociali del tuo comune, allora vuoi assicurarti di non essere discriminato [contro] a causa del tuo genere o del tuo colore o il tuo codice postale", ha aggiunto.

Martedì, l'autorità irlandese per la protezione dei dati (DPC) ha dichiarato di aver disposto l'implementazione pianificata di Google Chatbot di intelligenza artificiale Bard in Ue in attesa, Politico rapporti. Google ha informato il regolatore che intendeva lanciare Bard nell'Unione Europea questa settimana.

Ma il DPC ha affermato di non aver ricevuto alcuna informazione da Google su come la società abbia identificato e ridotto al minimo i rischi per la protezione dei dati per i potenziali utenti. Il regolatore è preoccupato per la possibilità che Bard raccolga e utilizzi i dati personali senza il consenso degli utenti.

Il vice commissario del DPC Graham Doyle ha affermato che l'autorità vuole le informazioni "con urgenza". Ha anche chiesto Google per ulteriori informazioni sulle sue pratiche di protezione dei dati.

Imponendo 'rigorosi guardrail AI

In base alle nuove regole proposte dal Parlamento europeo per l'intelligenza artificiale, l'uso di sistemi di identificazione biometrici e la raccolta indiscriminata di dati degli utenti dai social media o dai filmati delle telecamere a circuito chiuso per scopi come il software di riconoscimento facciale saranno limitati.

Le proposte vietano l'uso dell'intelligenza artificiale per la sorveglianza di massa e richiederebbero alle aziende di ottenere il consenso esplicito degli utenti prima di raccogliere il proprio. Secondo il rapporto della BBC, Vestager ha dichiarato:

"Vogliamo inserire rigorosi guardrail in modo che non venga utilizzato in tempo reale, ma solo in circostanze specifiche in cui stai cercando un bambino scomparso o c'è un terrorista in fuga".

L'UE è in vantaggio rispetto agli Stati Uniti e ad altri grandi governi occidentali nella regolamentazione dell'IA. Il blocco ha discusso la regolamentazione dell'IA per più di due anni e la questione ha acquisito nuova urgenza dopo il rilascio di ChatGPT a novembre.

ChatGPT è un chatbot con modello di linguaggio di grandi dimensioni sviluppato da OpenAI in grado di generare testo di qualità umana. Il suo rilascio ha intensificato le preoccupazioni sui potenziali impatti negativi dell'IA sull'occupazione e sulla società, come lo spostamento del lavoro e l'isolamento sociale.

Sia gli Stati Uniti che la Cina hanno ora iniziato a sviluppare politiche concrete per regolamentare l'IA. IL Casa Bianca ha rilasciato una serie di idee politiche per la regolamentazione dell'IA. E la Cina lo ha già fatto emanato nuove norme che vietano l'uso di contenuti generati dall'intelligenza artificiale per diffondere "notizie false".

A maggio, i leader delle cosiddette nazioni del G7 si sono incontrati in Giappone e hanno chiesto lo sviluppo di standard tecnici per mantenere l'IA "affidabile". Hanno sollecitato il dialogo internazionale sulla governance dell'intelligenza artificiale, sul diritto d'autore, sulla trasparenza e sulla minaccia della disinformazione.

La legge europea sull'IA non dovrebbe entrare in vigore fino al 2025. I tre poteri dell'UE: la Commissione, il Parlamento e il Consiglio dovranno concordare la sua versione finale.

Timestamp:

Di più da MetaNotizie