MSN AI Post definisce "inutile" il giocatore NBA morto inaspettatamente

MSN AI Post definisce "inutile" il giocatore NBA morto inaspettatamente

Un articolo folle pubblicato da MSN, il portale di notizie online di proprietà di Microsoft, descriveva l'ex giocatore NBA deceduto Brandon Hunter come "inutile" nel titolo, suscitando indignazione sui social media. Il post, che sembra essere stato scritto da un'intelligenza artificiale, è stato rimosso.

Hunter, 42 anni, è crollato durante una sessione di hot yoga negli studi di Orlando ed è morto il 12 settembre, secondo diversi rapporti. Tra il 2003 e il 2005, Hunter ha giocato un totale di 67 partite per i Boston Celtics e gli Orlando Magic e ha continuato ad avere una lunga carriera in Grecia e Italia.

Leggi anche: Il regolatore statunitense indaga su ChatGPT di OpenAI per aver diffuso informazioni false

Un articolo di Microsoft MSN AI definisce il giocatore NBA morto inaspettatamente "inutile"Un articolo di Microsoft MSN AI definisce il giocatore NBA morto inaspettatamente "inutile"

"L'intelligenza artificiale non dovrebbe scrivere necrologi"

Nel titolo, il distorto Articolo di MSN si legge: "Brandon Hunter inutile a 42 anni." Il resto del breve articolo è una totale sciocchezza, dicendo ai lettori che l'atleta "è morto" dopo aver ottenuto "un successo vitale come vantaggio [sic] per i Bobcats" e "esibito in 67 videogiochi".

Ecco l'introduzione al post di MSN, che è stato modellato su a Storia di TMZ Sport sulla morte dell'ex giocatore NBA, solo meno intelligibile.

"L'ex giocatore della NBA Brandon Hunter, che in precedenza giocava per i Boston Celtics e gli Orlando Magic, è morto all'età di 42 anni, come annunciato martedì dall'allenatore di basket maschile dell'Ohio Jeff Boals."

Gli utenti dei social media hanno subito criticato MSN per essere insensibile, sciatto e "imbarazzante su così tanti livelli", come ha affermato un utente di X, ex Twitter. mettilo. Un altro ha gridato: “L’intelligenza artificiale non dovrebbe scrivere necrologi. Paga i tuoi maledetti scrittori, MSN.

Pubblicazione su Reddit, un individuo ha scritto:

"La parte più distopica di tutto questo è che l'intelligenza artificiale che ci sostituirà sarà ottusa e stupida come questa traduzione, ma per i soldi, è sufficiente."

Un altro redditor si è lamentato della negligenza di MSN, accusando la rete di preoccuparsi solo di "guadagnare soldi".

"Chi se ne frega se quelle parole sono accurate, fanno soldi!" ha scherzato sarcasticamente l'utente. “Ucciderà Internet. Solo un mare di cattivi contenuti pensati per ingannare l’algoritmo e non rendere gli esseri umani felici o istruiti”.

Questa non è la prima volta che MSN pubblica sul suo portale contenuti errati generati dall'intelligenza artificiale. Ad agosto, la piattaforma ha pubblicato una bizzarra guida di viaggio scritta dall’intelligenza artificiale su Ottawa, in Canada, consigliando ai turisti di visitare un banco alimentare locale. L'articolo è stato cancellato dopo la critica, Futurismo segnalati.

Fatti allucinanti

Microsoft direttore senior Jeff Jones detto the Verge che “l’articolo [di Ottawa] non è stato pubblicato da un’intelligenza artificiale senza supervisione. In questo caso, il contenuto è stato generato attraverso una combinazione di tecniche algoritmiche con revisione umana, non un grande modello linguistico o un sistema di intelligenza artificiale”.

Nel 2020 MSN riferito ha licenziato l'intero team di giornalisti umani responsabili della moderazione dei contenuti sulla sua piattaforma. Secondo alcuni rapporti, MSN ha pubblicato contenuti ritenuti ridicoli e sciatti, comprese storie sulle "sirene".

Chatbot con intelligenza artificiale generativa come OpenAI ChatGPT o Bard di Google sono molto intelligenti, capaci di generare testo, codice e persino risolvere problemi matematici complessi. Ma lo sono anche i modelli di intelligenza artificiale incline a produrre falsità e bugie complete, spesso con fiducia.

L’industria tecnologica si riferisce a queste bugie fiduciose come “allucinazioni.” Questa debolezza è diventata una delle principali aree di interesse per i regolatori di tutto il mondo.

A luglio, ad esempio, la Federal Trade Commission (FTC) degli Stati Uniti ha avviato un'indagine su OpenAI su potenziali violazioni delle leggi sulla protezione dei consumatori relative a ChatGPT, accusata di diffondere informazioni false e di violare le norme sulla privacy dei dati.

La FTC sta indagando se ChatGPT abbia causato danni alle persone fornendo risposte sbagliate alle loro domande. Vuole sapere se la società "è impegnata in pratiche sleali o ingannevoli sulla privacy o sulla sicurezza dei dati" che hanno causato danni alla reputazione degli utenti, il Washington Post segnalati.

Timestamp:

Di più da MetaNotizie