Giornale britannico adotta sorprendentemente l’intelligenza artificiale per il fact-checking

Giornale britannico adotta sorprendentemente l’intelligenza artificiale per il fact-checking

Giornale britannico adotta sorprendentemente l'intelligenza artificiale per il controllo dei fatti PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Il Worcester Journal sta ora integrando i reporter assistiti dall’intelligenza artificiale nelle sue operazioni. Il Guardian lo definisce una miscela di integrità giornalistica storica e tecnologia, il che è una sorpresa considerando i numerosi rapporti sulle inesattezze dell'IA che producono fatti reali.

Implementando reporter assistiti dall’intelligenza artificiale, compiti banali come la trascrizione dei verbali delle riunioni del consiglio locale possono essere gestiti dall’intelligenza artificiale. Il guardiano rapporti che questa tecnologia, basata sulle capacità di ChatGPT, trasforma i dati grezzi in notizie nello stile dell'editore. La mossa mira all’efficienza in termini di tempo e, secondo le organizzazioni coinvolte, garantisce anche l’accuratezza dei reportage di routine, liberando i giornalisti umani per approfondire compiti più complessi e investigativi.

Valorizzare il ruolo dei giornalisti, non sostituirli

Un aspetto chiave dell’integrazione dell’intelligenza artificiale nel giornalismo, come sottolineato da Stephanie Prece, direttore del Worcester News, è che non si tratta di sostituire i giornalisti umani ma di migliorare il loro ruolo. Secondo lei, l’intelligenza artificiale non può sostituire gli elementi umani del giornalismo: essere sul campo, partecipare a eventi o condurre interviste faccia a faccia. Fornisce invece ai giornalisti più tempo e risorse per concentrarsi su questi aspetti cruciali, elevando così la qualità del giornalismo.

Questo è nei contratti di rapporti precedenti dello stesso organo di stampa, in cui si diceva che gli esseri umani sono necessari per verificare i fatti dell’IA.

Con qualsiasi progresso tecnologico, le sfide e le preoccupazioni etiche sono inevitabili. Newsquest riconosce queste preoccupazioni, soprattutto per quanto riguarda La reputazione dell’intelligenza artificiale per imprecisioni. Per contrastare ciò, hanno implementato molteplici misure di salvaguardia, tra cui una formazione approfondita e un nuovo codice di condotta. La tecnologia non funziona in modo indipendente; un giornalista esperto inserisce le informazioni nello strumento, che viene poi modificato e ottimizzato da un redattore di notizie, se necessario.

Un risultato notevole in questo ambito è stato l’uso riuscito dell’intelligenza artificiale per generare una richiesta di libertà di informazione riguardante le spese comunali banali. Jody Doherty-Cove, responsabile dell’intelligenza artificiale editoriale di Newsquest, immagina un futuro in cui il ruolo dell’intelligenza artificiale nel giornalismo sarà normalizzato come lo è Internet oggi, migliorando la portata e la profondità delle attività giornalistiche.

L'intelligenza artificiale in redazione

In un'intervista con la Press Gazette, Henry Faure Walker, CEO di Newsquest, ha evidenziato il ruolo dell'intelligenza artificiale nel giornalismo moderno, come esemplificato durante un evento di cronaca a Hexham Courant, Northumberland. L’incidente che ha coinvolto l’abbattimento dell’albero Sycamore Gap sul Vallo di Adriano ha segnato un momento cruciale per il reporting assistito dall’intelligenza artificiale.

Walker ha spiegato in dettaglio come il sistema di intelligenza artificiale si è occupato dei reportage di routine per una settimana, consentendo ai giornalisti di concentrarsi su un lavoro investigativo approfondito e sulla narrazione multimediale.

Nel frattempo, l'integrazione di L'intelligenza artificiale nel giornalismo ha le sue controversie. Importanti pubblicazioni come The Guardian e The New York Times stanno adottando misure caute in questo ambito. Il Guardian ha stabilito i principi per l'utilizzo dell'intelligenza artificiale generativa, sottolineando cautela e attenzione, mentre il New York Times ha recentemente avviato un'azione legale contro OpenAI e Microsoft per averne rimosso i contenuti.

In un rapporto correlato, il Consiglio d’Europa linee guida stabilite governare l’uso responsabile dell’intelligenza artificiale nel giornalismo. Queste linee guida sono progettate per garantire che l’integrazione dell’intelligenza artificiale nel giornalismo sia in linea con i diritti umani, la democrazia e lo stato di diritto. Fungono da strumento pratico per orientarsi nel panorama dell’intelligenza artificiale nel giornalismo, affrontando gli effetti dell’intelligenza artificiale sul pubblico e sulla società in generale. Le linee guida, formulate da un sottocomitato specializzato per rafforzare la resilienza dei media, sono state sviluppate insieme agli sforzi più ampi per stabilire una convenzione quadro globale sull’intelligenza artificiale. Il tempo dirà chi sta verificando i fatti e chi.

Timestamp:

Di più da MetaNotizie