Rechtliche und ethische Bedenken greifen die KI der Generation, während Apps Kinder ins Bett wiegen

Rechtliche und ethische Bedenken greifen die KI der Generation, während Apps Kinder ins Bett wiegen

Die Einführung von ChatGPT im letzten Jahr eröffnete der Kreativbranche neue Möglichkeiten: Entwickler erstellten KI-Modelle, die Kindern mithilfe ihrer Lieblingscharaktere Gute-Nacht-Geschichten erzählen können.

Dies geschieht, weil sich die Menschen der generativen KI zuwenden, um einige alltägliche Aufgaben für sie zu erledigen, und dabei auf der transformativen Fähigkeit der Technologie und der Fähigkeit aufbauen, Bücher zu schreiben, Musik zu komponieren und Gedichte zu schreiben. Durch die Integration der KI-Technologie kann jeder zum Schöpfer seiner eigenen Erzählung werden, auch von Kindergeschichten.

Es gibt jedoch rechtliche und ethische Bedenken hinsichtlich der branchenübergreifenden Einführung der KI-Technologie, einschließlich Kindergeschichten.

Lies auch: Die wichtigsten Entwicklungen und aufkommenden Trends von Web3 im Jahr 2023

Traditionen im Wandel

Wo früher Betreuer, Eltern und Erziehungsberechtigte ihre Kinder mit Geschichten oder Liedern ins Bett brachten, ändert sich die Tradition mit der generativen KI Gute-Nacht-Geschichten anbieten. Bei der Gute-Nacht-Geschichtenerzähl-App Bluey-GPT beginnt das KI-gestützte Tool seine Sitzung, indem es den Kindern grundlegende Fragen wie ihren Namen, ihr Alter und etwas mehr über ihren Tag stellt. Der interaktive Ansatz entspannt die Kinder.

Anschließend erstellt der Chatbot personalisierte Geschichten mit Bluey und ihrer Schwester Bingo.

„Es nennt ihre Schule, die Gegend, in der sie lebt, und spricht davon, dass es draußen kalt ist. Es macht es realer und ansprechender“, erklärte der in London ansässige Entwickler Luke Warner gegenüber Wired.

Mit ChatGPT können Menschen ohne Kenntnisse im Geschichtenerzählen oder Schreiben personalisierte Geschichten für ihre Kinder und ihre Lieblingscharaktere erstellen.

Laut Glamsham, Apps, die Geschichten wie Oscar erzählen, Es war einmal ein Bot, und Bedtimestory.ai verwenden generische Zeichen, die bereits gemeinfrei sind.

Einige Apps integrieren jedoch möglicherweise von der KI erstellte Illustrationen „oder die Option, sich die Geschichte vorlesen zu lassen“.

Rechtliche und ethische Bedenken werden geäußert, da generative KI Kinder ins Bett wiegt

Rechtliche und ethische Bedenken werden geäußert, da generative KI Kinder ins Bett wiegt

Welche rechtlichen Auswirkungen gibt es?

Allerdings „sind die von der KI produzierten Geschichten bei weitem nicht so gut wie die Show selbst und werfen rechtliche und ethische Bedenken auf“, heißt es in dem Bericht.

„Im Vereinigten Königreich umfasst der rechtliche Schutz für Charaktere sowohl Namen als auch Hintergrundgeschichte, Manierismen und Ausdrücke“, so Xuyang Zhu, Anwalt bei der Kanzlei Taylor Wessing.

„Dieses Urheberrecht kann verletzt werden, wenn eine Figur in einem anderen Kontext auf eine Weise reproduziert wird, die diese Aspekte ausreichend wiedergibt“, wurde Zhu in dem Bericht zitiert.

Der Glamsham-Bericht stellt außerdem fest, dass es bei der Verwendung charakterspezifischer GPTs mehr Markenprobleme als Urheberrechtsprobleme gibt.

Urheberrechts- und Markenrechte sind nicht die einzigen Probleme, über die man nachdenken muss.

Apps wie Once Upon a Bot ermöglichen es Benutzern, eine Idee zu entwickeln, und der Bot erstellt mithilfe von KI eine Geschichte „von Grund auf“ auf der Grundlage dieser Idee. Man kann die Geschichte daher lesen, bearbeiten, exportieren und mit anderen teilen.

Andere Anwendungen, wie Story Spark, Ermöglichen Sie Eltern oder Erziehungsberechtigten auch, personalisierte Geschichten für Kinder zu erstellen.

Angemessenheit des Inhalts

Es gibt jedoch noch andere Bedenken im Zusammenhang mit Bots, die Geschichten für Kinder erstellen. Eine davon besteht darin, „sicherzustellen, dass das, was sie produzieren, tatsächlich für Kinder sicher ist“.

Laut ForbesObwohl generative KI viele Vorteile hat, sind dennoch zahlreiche Nachteile zu berücksichtigen. Dazu gehören die Erstellung von Inhalten, die für Kinder ungeeignet sind, ein Mangel an menschlicher Note oder pädagogischem Wert, falsche Informationen sowie die Verletzung der Privatsphäre.

Familienerziehung stellt außerdem fest, dass KI bereits vorhandene Daten verwendet, die möglicherweise unangemessene und „schädlich voreingenommene Informationen“ enthalten.

Zeitstempel:

Mehr von MetaNews