Юридические и этические проблемы охватывают поколение ИИ, поскольку приложения усыпляют детей

Юридические и этические проблемы охватывают поколение ИИ, поскольку приложения усыпляют детей

Запуск ChatGPT в прошлом году открыл новые возможности для творческой индустрии: разработчики создают модели искусственного интеллекта, которые могут рассказывать детям сказки на ночь, используя их любимых персонажей.

Это происходит потому, что люди обращаются к генеративному искусственному интеллекту для выполнения за них некоторых повседневных задач, опираясь на преобразующие способности технологий и их способность писать книги, сочинять музыку и стихи. Интеграция технологий искусственного интеллекта позволяет каждому стать создателем собственного повествования, в том числе детских.

Однако существуют юридические и этические проблемы, связанные с внедрением технологий искусственного интеллекта в разных секторах, включая детские истории.

Читайте также: Ключевые разработки и новые тенденции Web3 в 2023 году

Изменение традиций

Если раньше воспитатели, родители и опекуны укладывали своих детей спать с историями или песнями, то традиция меняется с появлением генеративного ИИ. рассказываю сказки на ночь. Благодаря приложению для рассказывания сказок на ночь, известному как Bluey-GPT, инструмент на базе искусственного интеллекта начинает свою работу с того, что задает детям основные вопросы, такие как их имена, возраст и еще немного о том, как прошел их день. Интерактивный подход расслабляет детей.

Чат-бот продолжает создавать персонализированные истории с участием Блуи и ее сестры Бинго.

«Он называет ее школу, район, в котором она живет, и говорит о том, что на улице холодно. Это делает его более реальным и интересным», — объяснил Wired лондонский разработчик Люк Уорнер.

Используя ChatGPT, люди, не умеющие рассказывать или писать истории, могут создавать персонализированные истории для своих детей и любимых персонажей.

По Глэмшем, приложения, которые создают такие истории, как Оскар, Однажды бот, и Bedtimestory.ai используют общие символы, которые уже находятся в свободном доступе.

Но некоторые приложения могут включать иллюстрации, созданные искусственным интеллектом, «или возможность читать историю вслух».

Юридические и этические проблемы возникают, когда генеративный искусственный интеллект убаюкивает детей спать

Юридические и этические проблемы возникают, когда генеративный искусственный интеллект убаюкивает детей спать

Каковы юридические последствия?

Однако «истории, созданные искусственным интеллектом, не так хороши, как само шоу, и вызывают юридические и этические проблемы», отмечается в отчете.

«В Великобритании правовая защита персонажей включает имена, а также предысторию, манеры и выражения», — говорит Сюян Чжу, юрист фирмы Taylor Wessing.

«Эти авторские права могут быть нарушены, если персонаж воспроизводится в другом контексте таким образом, что воспроизводит достаточное количество этих аспектов», — цитируется в отчете Чжу.

В отчете Glamsham также отмечается, что при использовании GPT для конкретных символов возникает больше проблем с товарными знаками, чем с авторскими правами.

Вопросы авторского права и товарных знаков — не единственные проблемы, о которых следует задуматься.

Такие приложения, как Once Upon a Bot, позволяют пользователям придумать идею, а бот создаст историю «с нуля» на основе этой идеи с помощью искусственного интеллекта. Таким образом, можно читать историю, редактировать, экспортировать и делиться ею с другими.

Другие приложения, такие как Искра Искры, также позвольте родителям или опекунам создавать персонализированные истории для детей.

Соответствие содержания

Однако есть и другие опасения по поводу ботов, создающих истории для детей, одна из которых заключается в том, чтобы «убедиться, что то, что они производят, действительно безопасно для детей».

По ForbesНесмотря на то, что генеративный ИИ имеет много преимуществ, у него все же есть множество недостатков, которые следует учитывать. К ним относятся создание контента, неподходящего для детей, отсутствие человеческого контакта или образовательной ценности, неверная информация, а также вторжение в частную жизнь.

Семейное образование также отмечает, что ИИ использует уже существующие данные, которые могут содержать неуместную и «вредно предвзятую информацию».

Отметка времени:

Больше от МетаНьюс