Preocupações legais e éticas Grip Gen AI enquanto os aplicativos embalam as crianças para a cama

Preocupações legais e éticas Grip Gen AI enquanto os aplicativos embalam as crianças para a cama

O lançamento do ChatGPT no ano passado abriu novas possibilidades para a indústria criativa, com desenvolvedores criando modelos de IA que podem contar histórias de ninar para crianças usando seus personagens favoritos.

Isso ocorre no momento em que as pessoas estão recorrendo à IA generativa para realizar algumas tarefas mundanas para elas, aproveitando a capacidade transformadora da tecnologia e a capacidade de escrever livros, compor música e escrever poesia. A integração da tecnologia de IA permite que qualquer pessoa se torne criadora da sua própria narrativa, incluindo histórias infantis.

No entanto, existem preocupações legais e éticas em torno da adoção da tecnologia de IA em todos os setores, incluindo as histórias infantis.

Veja também: Principais desenvolvimentos e tendências emergentes da Web3 em 2023

Mudando tradições

Onde cuidadores, pais e responsáveis ​​costumavam colocar seus filhos na cama com histórias ou músicas, a tradição está mudando com a IA generativa oferecendo histórias para dormir. Com o aplicativo de contar histórias para dormir conhecido como Bluey-GPT, a ferramenta alimentada por IA inicia sua sessão fazendo perguntas básicas às crianças, como nomes, idade e um pouco mais sobre seu dia. A abordagem interativa relaxa as crianças.

O chatbot cria histórias personalizadas estreladas por Bluey e sua irmã Bingo.

“Dá o nome da escola dela, da área onde ela mora e fala sobre o fato de que está frio lá fora. Isso o torna mais real e envolvente”, explicou Luke Warner, desenvolvedor baseado em Londres, à Wired.

Usando o ChatGPT, pessoas sem habilidades para contar ou escrever histórias podem gerar histórias personalizadas para seus filhos e seus personagens favoritos.

De acordo com o Glamsham, aplicativos que criam histórias como Oscar, Era uma vez um bot, e Bedtimestory.ai usam caracteres genéricos que já são de domínio público.

Mas alguns aplicativos podem integrar ilustrações feitas por IA “ou a opção de ler a história em voz alta”.

Preocupações legais e éticas levantadas enquanto a IA generativa leva as crianças para a cama

Preocupações legais e éticas levantadas enquanto a IA generativa leva as crianças para a cama

Quais são as implicações legais?

No entanto, “as histórias produzidas pela IA não são tão boas quanto o programa em si e levantam preocupações legais e éticas”, observou o relatório.

“No Reino Unido, as proteções legais para personagens incluem nomes, bem como histórias de fundo, maneirismos e expressões”, de acordo com Xuyang Zhu, advogado do escritório Taylor Wessing.

“Esses direitos autorais podem ser infringidos se um personagem for replicado em outro contexto de uma forma que reproduza o suficiente desses aspectos”, disse Zhu, citado no relatório.

O relatório Glamsham observa ainda que há mais problemas de marca registrada em comparação com direitos autorais ao usar GPTs específicos de caracteres.

As questões de direitos autorais e marcas registradas não são os únicos problemas a serem considerados.

Aplicativos como Once Upon a Bot permitem que os usuários tenham uma ideia, e o bot criará uma história “do zero” com base nessa ideia usando IA. Pode-se, portanto, ler a história, editar, exportar e compartilhar a história com outras pessoas.

Outras aplicações, como Faísca de história, também permite que pais ou responsáveis ​​criem histórias personalizadas para crianças.

Adequação do conteúdo

No entanto, existem outras preocupações em torno dos bots que criam histórias para crianças, uma das quais é “garantir que o que eles produzem é realmente seguro para as crianças”.

De acordo com o Forbes, embora a IA generativa tenha muitas vantagens, ela ainda tem inúmeras desvantagens a serem consideradas. Estes incluem a geração de conteúdos impróprios para crianças, falta de toque humano ou valor educativo, informações erradas, bem como invasão de privacidade.

Educação familiar também observa que a IA utiliza dados pré-existentes, que podem conter informações inadequadas e “prejudicialmente tendenciosas”.

Carimbo de hora:

Mais de MetaNotícias