Wątpliwości prawne i etyczne dotyczą sztucznej inteligencji Gen, ponieważ aplikacje usypiają dzieci do łóżka

Wątpliwości prawne i etyczne dotyczą sztucznej inteligencji Gen, ponieważ aplikacje usypiają dzieci do łóżka

Uruchomienie ChatGPT w zeszłym roku otworzyło nowe możliwości dla branży kreatywnej, a programiści stworzyli modele sztucznej inteligencji, które mogą opowiadać dzieciom historie na dobranoc z wykorzystaniem ich ulubionych postaci.

Dzieje się tak, gdy ludzie zwracają się ku generatywnej sztucznej inteligencji, aby wykonywać za nich pewne przyziemne zadania, korzystając z transformacyjnych zdolności technologii i umiejętności pisania książek, komponowania muzyki i pisania poezji. Integracja technologii AI pozwala każdemu stać się twórcą własnej narracji, w tym opowieści dla dzieci.

Istnieją jednak wątpliwości prawne i etyczne związane z przyjęciem technologii sztucznej inteligencji w różnych sektorach, w tym w przypadku historii dla dzieci.

Przeczytaj także: Kluczowe zmiany i pojawiające się trendy Web3 w 2023 r

Zmiana tradycji

Tam, gdzie opiekunowie, rodzice i opiekunowie kładli swoje dzieci do łóżka opowieściami lub piosenkami, tradycja zmienia się dzięki generatywnej sztucznej inteligencji oferując historie na dobranoc. Dzięki aplikacji do opowiadania historii na dobranoc znanej jako Bluey-GPT narzędzie oparte na sztucznej inteligencji rozpoczyna sesję od zadawania dzieciom podstawowych pytań, takich jak ich imię, wiek i nieco więcej o tym, jak minął im dzień. Interaktywne podejście relaksuje dzieci.

Chatbot tworzy spersonalizowane historie z udziałem Bluey i jej siostry Bingo.

„Nazywa jej szkołę, obszar, w którym mieszka i mówi o tym, że na zewnątrz jest zimno. Dzięki temu gra jest bardziej realna i wciągająca” – wyjaśnił Wired jej londyński deweloper Luke Warner.

Korzystając z ChatGPT, osoby nieposiadające umiejętności opowiadania lub pisania historii mogą tworzyć spersonalizowane historie dla swoich dzieci i ulubionych postaci.

Zgodnie z Glamsham, aplikacje tworzące historie takie jak Oscar, Pewnego razu bot, i Bedtimestory.ai używają znaków ogólnych, które są już w domenie publicznej.

Ale niektóre aplikacje mogą zawierać ilustracje wykonane przez sztuczną inteligencję „lub opcję głośnego czytania historii”.

Wątpliwości prawne i etyczne pojawiające się w związku z generatywną sztuczną inteligencją kładącą dzieci do łóżka

Wątpliwości prawne i etyczne pojawiające się w związku z generatywną sztuczną inteligencją kładącą dzieci do łóżka

Jakie są skutki prawne?

Jednak „historie wymyślane przez sztuczną inteligencję nie są tak dobre jak sam serial i budzą wątpliwości prawne i etyczne” – zauważono w raporcie.

„W Wielkiej Brytanii ochrona prawna bohaterów obejmuje imiona, a także historię, maniery i wyrażenia” – twierdzi Xuyang Zhu, prawnik w firmie Taylor Wessing.

„To prawo autorskie może zostać naruszone, jeśli postać jest powielana w innym kontekście w sposób, który odtwarza te aspekty w wystarczającym stopniu” – cytuje się Zhu w raporcie.

W raporcie Glamsham zauważono ponadto, że w przypadku korzystania z GPT specyficznych dla znaków występuje więcej problemów związanych ze znakami towarowymi w porównaniu z problemami związanymi z prawami autorskimi.

Kwestie praw autorskich i znaków towarowych to nie jedyne problemy, o których należy pamiętać.

Aplikacje takie jak Once Upon a Bot pozwalają użytkownikom wpaść na pomysł, a bot stworzy historię „od zera” na podstawie tego pomysłu przy użyciu sztucznej inteligencji. Można zatem przeczytać historię, edytować, eksportować i udostępniać ją innym.

Inne aplikacje, np Iskra historii, umożliwiają także rodzicom lub opiekunom tworzenie spersonalizowanych historii dla dzieci.

Odpowiedniość treści

Istnieją jednak inne obawy związane z botami tworzącymi historie dla dzieci, a jedną z nich jest „upewnianie się, że to, co wyprodukują, jest rzeczywiście bezpieczne dla dzieci”.

Zgodnie z Forbesgeneratywna sztuczna inteligencja ma wiele zalet, ale wciąż ma wiele wad, które należy wziąć pod uwagę. Należą do nich generowanie treści nieodpowiednich dla dzieci, brak ludzkiego charakteru lub wartości edukacyjnej, błędne informacje, a także naruszenie prywatności.

Wychowanie do życia w rodzinie zauważa również, że sztuczna inteligencja wykorzystuje wcześniej istniejące dane, które mogą zawierać niewłaściwe i „szkodliwie stronnicze informacje”.

Znak czasu:

Więcej z MetaWiadomości