Mentalmente sfregiato: i lavoratori kenioti hanno insegnato a ChatGPT a riconoscere il testo offensivo

Mentalmente sfregiato: i lavoratori kenioti hanno insegnato a ChatGPT a riconoscere il testo offensivo

Mentalmente segnato: i lavoratori kenioti hanno insegnato a ChatGPT a riconoscere il testo offensivo di PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Secondo quanto riferito, OpenAI ha assunto lavoratori in Kenya - esaminando decine di migliaia di campioni di testo per contenuti sessisti, razzisti, violenti e pornografici - per contribuire a rendere il suo modello ChatGPT meno tossico.

Rilasciato lo scorso novembre, ChatGPT ha preso d'assalto Internet. La sua capacità di generare testo automaticamente in base a un prompt di input ha portato milioni di utenti a istruirlo per eseguire tutti i tipi di attività diverse: raccontare barzellette, scrivere codice, rispondere a domande e altro ancora.

Non tutte queste istruzioni sono state del tutto benigne: dopotutto siamo solo umani. Tuttavia, ChatGPT è progettato per essere più conversazionale e più sicuro rispetto al suo predecessore GPT-3: può ammettere errori e rifiutarsi di eseguire richieste inappropriate.

Per apprendere le caratteristiche del linguaggio offensivo e offensivo, ChatGPT doveva essere addestrato su enormi quantità di dati puliti ed etichettati che mostrassero la differenza tra contenuto sicuro e dannoso.

L'etichettatura dei dati è noiosa e richiede tempo. Il lavoro è generalmente affidato a terzisti che reclutano dipendenti da paesi in cui la manodopera è più economica. Secondo quanto riferito, nel 2021 OpenAI ha firmato tre contratti del valore di circa $ 200,000 con sama – una startup che fornisce servizi di annotazione dei dati con sede a San Francisco e operante nei paesi in via di sviluppo – per etichettare il testo per addestrare ChatGPT, secondo un rapporto in Ora questa settimana.

Sama ha quindi reclutato tre dozzine di lavoratori in Kenya che sono stati divisi in tre gruppi, ciascuno incaricato di setacciare migliaia di campioni di testo contenenti abusi sessuali, incitamento all'odio e violenza.

Scartato da Internet, il testo descriveva ogni sorta di atti pericolosi, illegali e osceni tra cui omicidio, suicidio, tortura e incesto. Alcuni dipendenti hanno riferito di essere rimasti traumatizzati dal dover elaborare così tanti contenuti orribili. Un uomo ha detto di aver sofferto di visioni ricorrenti dopo aver letto un passaggio che descriveva un uomo che faceva sesso con un cane in compagnia di un bambino piccolo.

"Quella è stata una tortura", ha detto. “Leggerai una serie di dichiarazioni del genere per tutta la settimana. Quando arriva venerdì, sei disturbato dal pensare a quell'immagine.

I lavoratori hanno sopportato turni di nove ore e guadagnavano tra 163 e 248 scellini kenioti all'ora. Si tratta di circa $ 1.32 a $ 2, somme davvero insignificanti per OpenAI, che prevede un fatturato di $ 200 milioni nel 2023.

Un altro contratto di etichettatura dei dati non correlato a ChatGPT prevedeva che Sama chiedesse ai dipendenti di trovare immagini cattive, pornografiche e violente che ritraessero cose come morte, stupro e bestialità. Il contenuto - alcuni dei quali sarebbero illegali negli Stati Uniti - avrebbe spinto Sama a terminare i suoi contratti con OpenAI entro febbraio 2022, otto mesi prima del previsto. Secondo quanto riferito, ai dipendenti reclutati da Sama è stato detto che il loro lavoro con OpenAI è stato archiviato dopo che la startup ha subito dure critiche per aver lavorato con Facebook di Meta su un altro progetto di moderazione dei contenuti.

“Sama ha risolto il contratto OpenAI perché il team in Africa orientale non era a suo agio con il lavoro richiesto. La fine del contratto Meta è separata, ma correlata. Dopo essersi consultata con il suo team globale, Sama ha preso la decisione di abbandonare tutto il lavoro di moderazione dei contenuti poiché non era in linea con la visione e la missione dell'azienda ", ci ha detto un portavoce dell'azienda.

Il nuovo arrivato terminerà tutti i progetti di etichettatura dei dati per la moderazione dei contenuti nel marzo 2023 e ha istituito una "gilda etica", un gruppo di dipendenti che esaminerà le richieste di lavoro, ci viene detto.

In dichiarazioni condivise con Ora, OpenAI ha confermato di aver collaborato con Sama per etichettare i dati utilizzati per addestrare ChatGPT e ha affermato che c'era un errore di comunicazione sui tipi di immagini che volevano raccogliere. Secondo quanto riferito, non voleva immagini illegali e non le ha visualizzate.

Il valore di un dollaro

"Per chiarire, Sama paga tra i 26,600 e i 40,000 scellini kenioti (da $ 209 a $ 322) al mese, che è più del doppio del salario minimo in Kenya e anche ben al di sopra del salario minimo", ha detto un portavoce di Sama. Il registro.

“Paragonarlo ai salari statunitensi è una falsa equivalenza che caratterizza male la situazione. Un salario occidentale comparativo sarebbe compreso tra $ 30 e $ 45 l'ora. Sama paga quasi il doppio di quanto pagano gli altri moderatori di contenuti nell'area e offre un pacchetto completo di vantaggi e pensione.

“La nostra missione è garantire che l'intelligenza artificiale generale avvantaggi tutta l'umanità e lavoriamo duramente per costruire sistemi di intelligenza artificiale sicuri e utili che limitino pregiudizi e contenuti dannosi. Classificare e filtrare [testo e immagini] dannosi è un passo necessario per ridurre al minimo la quantità di contenuti violenti e sessuali inclusi nei dati di formazione e creare strumenti in grado di rilevare contenuti dannosi”.

Le aziende di etichettatura dei dati come Sama affermano di aiutare a far uscire le persone dalla povertà nei paesi più poveri, ma OraL'indagine di è un duro promemoria del fatto che le abilità apparentemente magiche dei modelli di intelligenza artificiale sono costruite sulla base di manodopera a basso costo.

“La missione di Sama è abbattere le barriere all'occupazione formale dando lavoro a persone di talento che altrimenti potrebbero non avere pari opportunità di carriera. Sama assume persone che altrimenti non avrebbero le qualifiche per lavori tecnici di livello base, quindi le forma - non solo per un lavoro, ma un percorso di carriera - offrendo corsi di formazione continua, corsi di scrittura di CV, corsi di educazione finanziaria e opportunità per avanzare all'interno o al di fuori dell'organizzazione ", ci ha detto un portavoce in una dichiarazione.

"Sama ha avuto un impatto su oltre 60,000 persone, ha inviato 20 persone all'università attraverso i nostri programmi di borse di studio e ha fornito $ 160,000 in finanziamenti per le imprese e le startup dei dipendenti".

Nel frattempo, l'entusiasmo per l'intelligenza artificiale generale continua a crescere. Anche le migliori aziende di intelligenza artificiale non hanno ancora svelato il segreto per creare modelli sufficientemente avanzati da apprendere efficacemente i modelli dai dati con poca o nessuna supervisione umana.

La tecnologia potrebbe essere progredita, ma fa ancora affidamento sui lavoratori dei paesi in via di sviluppo seduti davanti agli schermi dei computer che svolgono compiti ripetitivi e monotoni tutto il giorno per addestrare giganteschi modelli di intelligenza artificiale per aziende tecnologiche che guadagnano milioni di dollari.

Il registro ha chiesto a OpenAI un commento. ®

Timestamp:

Di più da Il registro