I contenuti generati dall'intelligenza artificiale ottengono etichette più chiare sulle piattaforme Meta

I contenuti generati dall'intelligenza artificiale ottengono etichette più chiare sulle piattaforme Meta

I contenuti generati dall'intelligenza artificiale ottengono etichette più chiare sulle piattaforme Meta PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

La società promette di modificare il suo approccio ai contenuti generati dall’intelligenza artificiale su Facebook, Instagram e Threads in risposta al contributo del suo comitato di vigilanza imparziale.

Meta applicherà presto il badge “Made with AI” a una più ampia varietà di immagini, file audio e video. A maggio, l’azienda inizierà a etichettare i contenuti quando troverà indicatori di immagine basati sull’intelligenza artificiale standard del settore o quando gli utenti ammettono di caricare contenuti generati dall’intelligenza artificiale. 

Leggi anche: Video potenziati dall'intelligenza artificiale vietati in un caso di omicidio alla corte di Washington

Anche i post contrassegnati dai fact-checker potrebbero ricevere l'etichetta dall'azienda, anche se i contenuti contrassegnati come manipolati o falsi verranno probabilmente classificati più in basso. Meta ha anche ammesso di aver adottato un approccio limitato nella categorizzazione dei contenuti creati dall’intelligenza artificiale. 

Taggare i contenuti AI

A seguito di una decisione dell'Organismo di Vigilanza sull'a video che è stato intenzionalmente modificato per mostrare il presidente Joe Biden toccando in modo inappropriato la nipote, la società ha annunciato il trasloco. L'Organismo di Vigilanza ha appoggiato la scelta di Meta di lasciare il video su Facebook perché non contravveniva alle politiche della piattaforma contro la manipolazione dei media. Con il numero delle elezioni nel 2024, il consiglio ha raccomandato a Meta di “riconsiderare rapidamente questa politica”.

Meta afferma di essere d'accordo con la "raccomandazione del consiglio secondo cui fornire trasparenza e contesto aggiuntivo è ora il modo migliore per affrontare i media manipolati ed evitare il rischio di limitare inutilmente la libertà di parola, quindi manterremo questo contenuto sulle nostre piattaforme in modo da poterlo aggiungere etichette e contesto”. 

L'azienda ha inoltre dichiarato che a partire da luglio non rimuoverà più i contenuti dalla sua piattaforma solo perché violano la sua politica sui video manipolati. Il vicepresidente della politica dei contenuti di Meta, Monika Bickert, ha scritto in un post sul blog: "Questa sequenza temporale offre alle persone il tempo di comprendere il processo di auto-rivelazione prima di smettere di rimuovere il sottoinsieme più piccolo di media manipolati".

Secondo Meta,

"Se stabiliamo che immagini, video o audio creati digitalmente o alterati creano un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante, potremmo aggiungere un’etichetta più evidente in modo che le persone abbiano più informazioni e contesto”,

"Immagina con l'intelligenza artificiale" di Meta

Meta ha etichettato le immagini fotorealistiche create dagli utenti con il file Meta Strumento di intelligenza artificiale come "Immaginato con l'intelligenza artificiale". Secondo Meta, la politica rivista va oltre i suggerimenti sull'etichettatura avanzati dall'Organismo di Vigilanza.
ha affermato Bickert che se determinano che immagini, video o audio creati o alterati digitalmente creano un rischio particolarmente elevato di ingannare materialmente il pubblico su una questione importante, possono aggiungere un'etichetta più evidente in modo che le persone abbiano più informazioni e contesto.

Tuttavia, la società rimuoverà comunque i contenuti che violano le regole, anche se generalmente ritiene che la trasparenza e la corretta etichettatura siano corrette AI-le foto, le immagini e l'audio generati rimangono sulle sue piattaforme è la migliore linea d'azione. 

Bickert ha dichiarato che rimuoverà i contenuti, indipendentemente dal fatto che siano stati creati da AI o da una persona, se violano le nostre politiche contro l'interferenza degli elettori, il bullismo, le molestie, la violenza e l'incitamento o qualsiasi altra politica nei nostri Standard della community,

Secondo un rapporto di Engadget, l'Organismo di Vigilanza ha espresso soddisfazione per il fatto che la società abbia adottato le sue raccomandazioni e ha dichiarato che avrebbe valutato in che modo l'azienda avesse implementato i suggerimenti in un rapporto sulla trasparenza.

Timestamp:

Di più da MetaNotizie