Preoccupazioni legali ed etiche afferrano la generazione AI mentre le app portano i bambini a letto

Preoccupazioni legali ed etiche afferrano la generazione AI mentre le app portano i bambini a letto

Il lancio di ChatGPT lo scorso anno ha aperto nuove possibilità per l’industria creativa, con gli sviluppatori che hanno creato modelli di intelligenza artificiale in grado di raccontare favole della buonanotte ai bambini utilizzando i loro personaggi preferiti.

Ciò avviene mentre le persone si rivolgono all’intelligenza artificiale generativa per svolgere alcuni compiti banali per loro, sfruttando la capacità di trasformazione della tecnologia e la capacità di scrivere libri, comporre musica e scrivere poesie. L’integrazione della tecnologia AI consente a chiunque di diventare creatore della propria narrativa, comprese le storie per bambini.

Tuttavia, esistono preoccupazioni legali ed etiche riguardanti l’adozione della tecnologia dell’intelligenza artificiale in tutti i settori, comprese le storie per bambini.

Leggi anche: Sviluppi chiave e tendenze emergenti di Web3 nel 2023

Cambiare le tradizioni

Laddove operatori sanitari, genitori e tutori mettevano a letto i propri figli con storie o canzoni, la tradizione sta cambiando con l'intelligenza artificiale generativa offrendo storie della buonanotte. Con l'app per raccontare favole della buonanotte nota come Bluey-GPT, lo strumento basato sull'intelligenza artificiale inizia la sua sessione ponendo ai bambini domande di base come nome, età e qualcosa in più sulla loro giornata. L'approccio interattivo rilassa i bambini.

Il chatbot continua a creare storie personalizzate con protagonisti Bluey e sua sorella Bingo.

“Nomina la sua scuola, la zona in cui vive e parla del fatto che fuori fa freddo. Lo rende più reale e coinvolgente”, ha spiegato a Wired il suo sviluppatore con sede a Londra, Luke Warner.

Utilizzando ChatGPT, le persone senza competenze nel racconto o nella scrittura possono generare storie personalizzate per i loro figli e i loro personaggi preferiti.

Secondo Glamham, app che creano storie come Oscar, C'era una volta un Bot, e Bedtimestory.ai utilizzano caratteri generici che sono già di pubblico dominio.

Ma alcune app potrebbero integrare illustrazioni realizzate con l’intelligenza artificiale “o l’opzione di leggere la storia ad alta voce”.

Preoccupazioni legali ed etiche sollevate mentre l'intelligenza artificiale generativa porta i bambini a letto

Preoccupazioni legali ed etiche sollevate mentre l'intelligenza artificiale generativa porta i bambini a letto

Quali sono le implicazioni legali?

Tuttavia, “le storie sfornate dall’intelligenza artificiale non sono buone quanto lo spettacolo stesso e sollevano preoccupazioni legali ed etiche”, osserva il rapporto.

"Nel Regno Unito, la protezione legale dei personaggi include nomi, retroscena, manierismi ed espressioni", secondo Xuyang Zhu, avvocato dello studio Taylor Wessing.

"Il diritto d'autore può essere violato se un personaggio viene replicato in un altro contesto in un modo che riproduca abbastanza di questi aspetti", ha affermato Zhu nel rapporto.

Il rapporto Glamsham rileva inoltre che ci sono più problemi relativi ai marchi rispetto a quelli sul copyright quando si utilizzano GPT specifici per carattere.

Le questioni relative al copyright e ai marchi non sono gli unici problemi a cui pensare.

App come Once Upon a Bot consentono agli utenti di avere un'idea e il bot creerà una storia "da zero" basata su quell'idea utilizzando l'intelligenza artificiale. È quindi possibile leggere la storia, modificarla, esportarla e condividerla con altri.

Altre applicazioni, come Storia scintilla, consentire inoltre a genitori o tutori di creare storie personalizzate per i bambini.

Adeguatezza dei contenuti

Tuttavia, ci sono altre preoccupazioni riguardo ai bot che creano storie per bambini, una delle quali è “assicurarsi che ciò che producono sia effettivamente sicuro per i bambini”.

Secondo Forbes, sebbene l’intelligenza artificiale generativa presenti numerosi vantaggi, presenta tuttavia numerosi svantaggi da considerare. Questi includono la generazione di contenuti inappropriati per i bambini, la mancanza di contatto umano o valore educativo, informazioni errate e violazione della privacy.

Educazione familiare rileva inoltre che l’intelligenza artificiale utilizza dati preesistenti, che potrebbero contenere informazioni inappropriate e “dannosamente distorte”.

Timestamp:

Di più da MetaNotizie