Comediante y novelistas demandan a OpenAI por copiar libros

Comediante y novelistas demandan a OpenAI por copiar libros

Comediantes y novelistas demandan a OpenAI por extraer libros PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

IA en resumen Los novelistas galardonados Paul Tremblay y Mona Awad y, por separado, la comediante Sarah Silverman y los novelistas Christopher Golden y Richard Kadrey, demandaron a OpenAI y acusaron a la startup de entrenar a ChatGPT en sus libros sin consentimiento, violando las leyes de derechos de autor.

Las demandas, ambas presentadas en el Tribunal del Distrito Norte de San Francisco, dicen que ChatGPT genera resúmenes precisos de sus libros y destacaron esto como evidencia de que el software está capacitado para su trabajo.

“OpenAI hizo copias de los libros de los Demandantes durante el proceso de capacitación de OpenAI Language Models sin el permiso de los Demandantes. Específicamente, OpenAI copió al menos el libro del Demandante Tremblay La cabaña del fin del mundo; y los libros del demandante Awad 13 maneras de mirar a una chica gorda y Conejito," de acuerdo a documentos de la corte [PDF] en el primer palo.

En el segundo traje, Silverman y otros [PDF], hacer afirmaciones similares. El trío también afirma que sus libros, incluido el libro de Silverman, una autobiografía cómica titulada La enuresis, contienen cierta información de gestión de derechos de autor que se habría incluido en los libros legítimos protegidos por derechos de autor. Esta es la base del tercer cargo que alegan contra OpenAI, una afirmación de que violó la DCMA al eliminar la información de administración de derechos de autor. La demanda establece: "En ningún momento ChatGPT reprodujo ninguna de la información de gestión de derechos de autor que los Demandantes incluyeron con sus trabajos publicados".

OpenAI entrena sus grandes modelos de lenguaje extrayendo texto de Internet y, aunque no ha revelado exactamente qué recursos ha consumido, la startup ha admitido haber entrenado sus sistemas en cientos de miles de libros protegidos por derechos de autor y almacenados en sitios web. como Sci-Hub o Bibliotik. 

Todos los autores creen que ChatGPT ha ingerido sus libros sin su permiso y que OpenAI se está beneficiando de su trabajo sin atribución. Han iniciado una demanda colectiva para que se unan otros autores y están solicitando daños compensatorios y medidas cautelares permanentes para evitar que OpenAI continúe con sus acciones. 

Hablando de IA abierta… Tiene liberado Code Interpreter, un complemento para suscriptores de ChatGPT Plus que puede analizar archivos cargados, lo que permite a los usuarios consultar y editar sus documentos, crear gráficos, etc. También afirma ejecutar código.

Adobe restringe a los empleados el uso de herramientas de inteligencia artificial generativa de terceros

El gigante del software Adobe prohibió a los empleados usar sus direcciones de correo electrónico privadas o tarjetas de crédito corporativas para registrarse y pagar productos y servicios de aprendizaje automático.

La directora de información, Cindy Stoddard, advirtió al personal que proteja los datos del gigante tecnológico y que no use herramientas generativas de inteligencia artificial de una manera que pueda dañar su negocio, clientes o fuerza laboral. Business Insider reportaron.

Adobe no ha prohibido las aplicaciones de terceros como ChatGPT por completo, pero tiene restricciones estrictas sobre lo que está y no está permitido en dichos sistemas. Los empleados no deben revelar sus indicaciones de entrada, cargar datos o códigos privados de Adobe para generar borradores de correo electrónico, resumir documentos o parchear errores de software.

También deben asegurarse de optar por que el contenido de sus conversaciones no se utilice como datos de capacitación. Además, no pueden registrarse para usar estas herramientas con sus propias direcciones de correo electrónico privadas o pagar una suscripción con sus tarjetas de crédito corporativas (o pagar con una tarjeta personal y reclamarla como gasto). 

Adobe se une a una lista cada vez mayor de empresas, incluidas Amazon, Samsungy Apple, que han restringido o prohibido a los empleados el uso de aplicaciones de IA generativa debido a problemas de privacidad de datos.

El Departamento de Defensa de EE. UU. está probando LLM

El Pentágono está probando las habilidades de cinco grandes modelos de lenguaje para resolver tareas basadas en texto que algún día podrían ayudar en la toma de decisiones y el combate.

Los modelos reciben documentos de alto secreto y se les pide que ayuden a planificar y resolver escenarios hipotéticos, como una crisis global. Algunas tareas, como solicitar información de unidades militares específicas, a veces pueden llevar horas o días al personal para completarlas, pero los modelos de lenguaje grandes pueden proporcionar datos en minutos.

Según los informes, una prueba llevó a cabo una solicitud en solo diez minutos. Pero la tecnología es notoriamente complicada, su rendimiento puede depender de la forma en que se redacta la solicitud y es propensa a generar información falsa. 

“Eso no significa que esté listo para el horario de máxima audiencia en este momento. Pero lo hicimos en vivo. Lo hicimos con datos de nivel secreto”, dijo Matthew Strohmeyer, coronel de la Fuerza Aérea de EE. les dijo a Bloomberg, los militares podrían implementar grandes modelos de lenguaje pronto.

El Pentágono no reveló qué modelos estaban probando. Scale AI, sin embargo, supuestamente reveló que uno de ellos es su sistema Donovan orientado a la defensa. Otros sistemas potenciales podrían ser los modelos de OpenAI ofrecidos a través de la plataforma Azure Government de Microsoft u otras herramientas creadas por contratistas de defensa como Palantir o Anduril. ®

Sello de tiempo:

Mas de El registro