Hoy nos complace anunciar que ahora puede realizar transformaciones por lotes con JumpStart de Amazon SageMaker modelos de lenguaje grande (LLM) para Text2Text Generation. Las transformaciones por lotes son útiles en situaciones en las que las respuestas no necesitan ser en tiempo real y, por lo tanto, puede hacer inferencias por lotes para grandes conjuntos de datos de forma masiva. Para la transformación por lotes, se ejecuta un trabajo por lotes que toma la entrada por lotes como un conjunto de datos y un modelo previamente entrenado, y genera predicciones para cada punto de datos en el conjunto de datos. La transformación por lotes es rentable porque, a diferencia de los puntos finales alojados en tiempo real que tienen hardware persistente, los clústeres de transformación por lotes se eliminan cuando se completa el trabajo y, por lo tanto, el hardware solo se usa durante la duración del trabajo por lotes.
En algunos casos de uso, las solicitudes de inferencia en tiempo real se pueden agrupar en pequeños lotes para el procesamiento por lotes para crear respuestas en tiempo real o casi en tiempo real. Por ejemplo, si necesita procesar un flujo continuo de datos con baja latencia y alto rendimiento, invocar un extremo en tiempo real para cada solicitud por separado requeriría más recursos y podría llevar más tiempo procesar todas las solicitudes porque el procesamiento se realiza en serie. . Un mejor enfoque sería agrupar algunas de las solicitudes y llamar al punto final en tiempo real en modo de inferencia por lotes, que procesa sus solicitudes en un paso hacia adelante del modelo y devuelve la respuesta masiva para la solicitud en tiempo real o casi en tiempo real. . La latencia de la respuesta dependerá de la cantidad de solicitudes que agrupe y del tamaño de la memoria de la instancia; por lo tanto, puede ajustar el tamaño del lote según los requisitos de latencia y rendimiento de su empresa. Llamamos a esto inferencia por lotes en tiempo real porque combina el concepto de procesamiento por lotes sin dejar de proporcionar respuestas en tiempo real. Con la inferencia por lotes en tiempo real, puede lograr un equilibrio entre baja latencia y alto rendimiento, lo que le permite procesar grandes volúmenes de datos de manera oportuna y eficiente.
La transformación por lotes Jumpstart para los modelos Text2Text Generation le permite pasar los hiperparámetros por lotes a través de variables de entorno que aumentan aún más el rendimiento y minimizan la latencia.
JumpStart proporciona modelos de código abierto previamente entrenados para una amplia gama de tipos de problemas para ayudarlo a comenzar con el aprendizaje automático (ML). Puede entrenar y ajustar estos modelos de forma incremental antes de la implementación. JumpStart también proporciona plantillas de solución que configuran la infraestructura para casos de uso comunes y cuadernos de ejemplo ejecutables para ML con Amazon SageMaker. Puede acceder a los modelos previamente entrenados, las plantillas de solución y los ejemplos a través de la página de destino de JumpStart en Estudio Amazon SageMaker. También puede acceder a los modelos de JumpStart mediante el SDK de Python de SageMaker.
En esta publicación, demostramos cómo usar el estado del arte pre-entrenado Modelos text2text FLAN T5 de Hugging Face para transformación por lotes e inferencia por lotes en tiempo real.
Resumen de la solución
El cuaderno que muestra la transformación por lotes de modelos Text2Text FLAN T5 preentrenados de Abrazando la cara en disponible en el siguiente Repositorio GitHub. Este cuaderno utiliza datos de Hugging Face cnn_dailymail conjunto de datos para una tarea de resumen de texto utilizando SageMaker SDK.
Los siguientes son los pasos clave para implementar la transformación por lotes y la inferencia por lotes en tiempo real:
- Configurar requisitos previos.
- Seleccione un modelo previamente entrenado.
- Recuperar artefactos para el modelo.
- Especifique los hiperparámetros del trabajo de transformación por lotes.
- Prepare los datos para la transformación por lotes.
- Ejecute el trabajo de transformación por lotes.
- Evaluar el resumen usando un ROUGE (Suplente orientado a la recuperación para la evaluación de Gisting).
- Realice inferencias por lotes en tiempo real.
Configurar requisitos previos
Antes de ejecutar el portátil, debe completar algunos pasos de configuración inicial. Configuremos el rol de ejecución de SageMaker para que tenga permisos para ejecutar los servicios de AWS en su nombre:
Seleccione un modelo pre-entrenado
Usamos el modelo huggingface-text2text-flan-t5-large como modelo predeterminado. Opcionalmente, puede recuperar la lista de modelos Text2Text disponibles en JumpStart y elegir su modelo preferido. Este método proporciona una forma sencilla de seleccionar diferentes ID de modelo utilizando el mismo portátil. Para fines de demostración, usamos el modelo huggingface-text2text-flan-t5-large:
Recuperar artefactos para el modelo
Con SageMaker, podemos realizar inferencias en el modelo previamente entrenado, incluso sin ajustarlo primero en un nuevo conjunto de datos. Empezamos recuperando el deploy_image_uri
, deploy_source_uri
y model_uri
para el modelo pre-entrenado:
Especificar hiperparámetros de trabajos de transformación por lotes
Puede pasar cualquier subconjunto de hiperparámetros como variables de entorno al trabajo de transformación por lotes. También puede pasar estos hiperparámetros en una carga JSON. Sin embargo, si está configurando variables de entorno para hiperparámetros como muestra el siguiente código, entonces no se usarán los hiperparámetros avanzados de los ejemplos individuales en la carga de líneas JSON. Si desea utilizar hiperparámetros de la carga útil, es posible que desee configurar el hyper_params_dict
parámetro como nulo en su lugar.
Preparar datos para la transformación por lotes
Ahora estamos listos para cargar el cnn_dailymail conjunto de datos de Hugging Face:
Revisamos cada entrada de datos y creamos los datos de entrada en el formato requerido. Creamos un articles.jsonl
como un archivo de datos de prueba que contiene artículos que deben resumirse como carga útil de entrada. A medida que creamos este archivo, agregamos el mensaje "Briefly summarize this text:"
a cada fila de entrada de prueba. Si desea tener diferentes hiperparámetros para cada entrada de prueba, puede agregar esos hiperparámetros como parte de la creación del conjunto de datos.
Nosotros creamos highlights.jsonl
como el archivo de datos reales que contiene los aspectos más destacados de cada artículo almacenado en el archivo de prueba articles.jsonl
. Almacenamos ambos archivos de prueba en un Servicio de almacenamiento simple de Amazon (Amazon S3) cubeta. Ver el siguiente código:
Ejecute el trabajo de transformación por lotes
Cuando inicia un trabajo de transformación por lotes, SageMaker inicia los recursos informáticos necesarios para procesar los datos, incluidas las instancias de CPU o GPU según el tipo de instancia seleccionado. Durante el trabajo de transformación por lotes, SageMaker aprovisiona y administra automáticamente los recursos informáticos necesarios para procesar los datos, incluidas las instancias, el almacenamiento y los recursos de red. Cuando se completa el trabajo de transformación por lotes, SageMaker limpia automáticamente los recursos informáticos. Esto significa que las instancias y el almacenamiento utilizados durante el trabajo se detienen y eliminan, lo que libera recursos y minimiza los costos. Ver el siguiente código:
El siguiente es un registro de ejemplo de la articles.jsonl
archivo de prueba Tenga en cuenta que el registro en este archivo tiene una identificación que coincidió con predict.jsonl
registros de archivos que muestran un registro resumido como salida del modelo Hugging Face Text2Text. De manera similar, el archivo de datos reales también tiene una identificación coincidente para el registro de datos. La identificación coincidente en el archivo de prueba, el archivo de datos reales y el archivo de salida permite vincular los registros de entrada con los registros de salida para facilitar la interpretación de los resultados.
El siguiente es el registro de entrada de ejemplo proporcionado para el resumen:
El siguiente es el resultado previsto con resumen:
El siguiente es el resumen de la realidad básica para fines de evaluación del modelo:
A continuación, usamos la realidad del terreno y los resultados previstos para la evaluación del modelo.
Evaluar el modelo utilizando una puntuación ROUGE¶
ROUGE, o Recall-Oriented Understudy for Gisting Evaluation, es un conjunto de métricas y un paquete de software que se utiliza para evaluar el resumen automático y la traducción automática en el procesamiento del lenguaje natural. Las métricas comparan un resumen o traducción producidos automáticamente con un resumen o traducción de referencia (producido por humanos) o un conjunto de referencias.
En el siguiente código, combinamos los resúmenes predicho y original uniéndolos en la clave común id
y use esto para calcular la puntuación de ROUGE:
Realizar inferencia por lotes en tiempo real
A continuación, le mostramos cómo ejecutar la inferencia por lotes en tiempo real en el punto final al proporcionar las entradas como una lista. Usamos el mismo ID de modelo y conjunto de datos que antes, excepto que tomamos algunos registros del conjunto de datos de prueba y los usamos para invocar un punto final en tiempo real.
El siguiente código muestra cómo crear e implementar un punto final en tiempo real para la inferencia por lotes en tiempo real:
A continuación, preparamos nuestra carga útil de entrada. Para esto, usamos los datos que preparamos anteriormente y extraemos las primeras 10 entradas de prueba y agregamos las entradas de texto con los hiperparámetros que queremos usar. Proporcionamos esta carga útil al tiempo real invoke_endpoint
. A continuación, la carga útil de la respuesta se devuelve como una lista de respuestas. Ver el siguiente código:
Limpiar
Una vez que haya probado el punto final, asegúrese de eliminar el punto final de inferencia de SageMaker y elimine el modelo para evitar incurrir en cargos.
Conclusión
En este cuaderno, realizamos una transformación por lotes para mostrar el modelo Hugging Face Text2Text Generator para tareas de resumen. La transformación por lotes es ventajosa para obtener inferencias de grandes conjuntos de datos sin requerir un punto final persistente. Vinculamos los registros de entrada con las inferencias para ayudar en la interpretación de los resultados. Utilizamos la puntuación ROUGE para comparar el resumen de datos de prueba con el resumen generado por el modelo.
Además, demostramos la inferencia por lotes en tiempo real, donde puede enviar un pequeño lote de datos a un punto final en tiempo real para lograr un equilibrio entre la latencia y el rendimiento para escenarios como la transmisión de datos de entrada. La inferencia por lotes en tiempo real ayuda a aumentar el rendimiento de las solicitudes en tiempo real.
¡Pruebe la transformación por lotes con los modelos Text2Text Generation en SageMaker hoy y háganos saber sus comentarios!
Sobre los autores
Hemant Singh es un ingeniero de aprendizaje automático con experiencia en los algoritmos integrados de Amazon SageMaker JumpStart y Amazon SageMaker. Obtuvo su maestría del Instituto Courant de Ciencias Matemáticas y B.Tech de IIT Delhi. Tiene experiencia trabajando en una amplia gama de problemas de aprendizaje automático dentro del dominio del procesamiento del lenguaje natural, la visión artificial y el análisis de series temporales.
Rachna chadha es Principal Solutions Architect AI/ML en Cuentas Estratégicas en AWS. Rachna es una optimista que cree que el uso ético y responsable de la IA puede mejorar la sociedad en el futuro y generar prosperidad económica y social. En su tiempo libre, a Rachna le gusta pasar tiempo con su familia, hacer caminatas y escuchar música.
Dr. Ashish Khetan es científico senior aplicado con algoritmos integrados de Amazon SageMaker y ayuda a desarrollar algoritmos de aprendizaje automático. Obtuvo su doctorado en la Universidad de Illinois Urbana-Champaign. Es un investigador activo en aprendizaje automático e inferencia estadística, y ha publicado muchos artículos en conferencias NeurIPS, ICML, ICLR, JMLR, ACL y EMNLP.
- Distribución de relaciones públicas y contenido potenciado por SEO. Consiga amplificado hoy.
- PlatoAiStream. Inteligencia de datos Web3. Conocimiento amplificado. Accede Aquí.
- Acuñando el futuro con Adryenn Ashley. Accede Aquí.
- Compra y Vende Acciones en Empresas PRE-IPO con PREIPO®. Accede Aquí.
- Fuente: https://aws.amazon.com/blogs/machine-learning/perform-batch-transforms-with-amazon-sagemaker-jumpstart-text2text-generation-large-language-models/
- :posee
- :es
- :no
- :dónde
- $ UP
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 20
- 2014
- 50
- 7
- 8
- 9
- a
- Poder
- Nuestra Empresa
- arriba
- aceptación
- aceptado
- de la máquina
- Conforme
- Cuentas
- Lograr
- Adquiere
- a través de
- acciones
- lector activo
- avanzado
- ventajoso
- en contra
- AI
- AI / ML
- Ayudar
- algoritmos
- Todos
- presunto
- permite
- también
- Amazon
- Amazon SageMaker
- JumpStart de Amazon SageMaker
- Amazon Web Services
- an
- análisis
- y
- Anunciar
- cualquier
- abejas
- aplicada
- enfoque
- somos
- en torno a
- artículo
- AS
- At
- Los intentos
- autoridad
- Automático
- automáticamente
- Hoy Disponibles
- evitar
- AWS
- Balance
- bases
- basado
- BE
- se convirtió en
- porque
- se convierte en
- antes
- "Ser"
- CREEMOS
- cree
- Benjamin
- mejores
- entre
- cuerpo
- ambas
- Ambos lados
- límites
- brevemente
- llevar
- Trae
- incorporado
- pero
- by
- llamar al
- PUEDEN
- no puede
- cases
- Causa
- cargos
- Elige
- clase
- cliente
- más cerca
- CNN
- código
- combinar
- combina
- combinar
- cómo
- compromisos
- comprometido
- Algunos
- comparar
- completar
- Calcular
- computadora
- Visión por computador
- concepto
- Conducir
- conferencias
- Envase
- continue
- continuo
- contribuido
- Cost
- rentable
- podría
- consejo
- contraproducente
- países
- CORTE
- Para crear
- Creamos
- Crímenes
- Abogados de
- datos
- de entrada de datos
- conjuntos de datos
- muerto
- Koops
- Predeterminado
- Delhi
- demostrar
- demostrado
- Departamento
- Dependiente
- desplegar
- despliegue
- descrito
- Determinar
- desarrollar
- Desarrollo
- diferir de
- diferencias
- una experiencia diferente
- de reservas
- diverso
- do
- Docker
- dominio
- hecho
- No
- Puerta
- DE INSCRIPCIÓN
- duración
- durante
- cada una
- Más temprano
- Este
- de forma sencilla
- Economic
- eficiente
- esfuerzos
- elegible
- permitiendo
- final
- Punto final
- ingeniero
- garantizar
- Entra en
- entrada
- Entorno
- Era
- ético
- evaluar
- evaluación
- evaluación
- Incluso
- evidencia sólida
- ejemplo
- ejemplos
- Excepto
- excitado
- ejecución
- experience
- extraerlos
- Cara
- la fe
- familia
- pocos
- Archive
- archivos
- Nombre
- siguiendo
- FORCE
- extranjero
- formal
- Formalmente
- formato
- adelante
- la fundación de
- Desde
- ser completados
- promover
- futuras
- generación de AHSS
- generador
- obtener
- da
- Go
- Goals
- Gobiernos
- GPU
- mayor
- Polo a Tierra
- Grupo procesos
- Materiales
- Tienen
- he
- ayuda
- ayuda
- aquí
- esta página
- Alta
- destacados
- su
- organizado
- Cómo
- Como Hacer
- Sin embargo
- HTML
- http
- HTTPS
- AbrazandoCara
- humana
- derechos humanos
- con Humildad
- ID
- ids
- if
- Illinois
- imagen
- inmediatamente
- implementación
- importar
- mejorar
- in
- incluir
- Incluye
- aumente
- independencia
- INSTRUMENTO individual
- Individualmente
- información
- EN LA MINA
- inicial
- injusticia
- Las opciones de entrada
- entradas
- investigación
- ejemplo
- Innovadora
- Internacional
- Automática
- dentro
- investigar
- investigación
- Investigaciones
- Israel
- IT
- SUS
- Enero
- Trabajos
- únete
- unión
- jpg
- json
- juez
- junio
- jurisdicción
- solo
- Justice
- Clave
- Saber
- aterrizaje
- idioma
- large
- Apellido
- Estado latente
- luego
- pone en marcha
- aprendizaje
- izquierda
- dejar
- ligeramente
- como
- Me gusta
- línea
- líneas
- vinculado
- enlace
- Lista
- Escucha Activa
- carga
- Largo
- por más tiempo
- Baja
- máquina
- máquina de aprendizaje
- para lograr
- Realizar
- gestiona
- manera
- muchos
- marcado
- emparejado
- pareo
- matemático
- Puede..
- significa
- miembro
- Miembros
- La membresía/afiliación
- Salud Cerebral
- Método
- Métrica
- minimizando
- ML
- Moda
- modelo
- modelos
- Mes
- más,
- movimiento
- Música
- debe
- nombre
- Natural
- Procesamiento natural del lenguaje
- necesario
- ¿ Necesita ayuda
- negociaciones
- Neither
- Países Bajos
- red
- Nuevo
- noticias
- comunicado de prensa
- cuaderno
- ahora
- objeto
- obtención
- of
- Oficina
- Oficialmente
- on
- ONE
- , solamente
- habiertos
- de código abierto
- abierto
- oponerse a
- opuesto
- or
- reconocida por
- OS
- nuestros
- salir
- salida
- Más de
- paquete
- página
- Palestina
- papeles
- parámetro
- parámetros
- parte
- fiesta
- pass
- camino
- Pavimentación
- paz
- Personas
- Realizar
- permisos
- Platón
- Inteligencia de datos de Platón
- PlatónDatos
- Por favor
- punto
- posible
- Publicación
- predecir
- previsto
- predicción
- Predicciones
- Predictor
- preferido
- Preparar
- preparado
- requisitos previos
- presidente
- presión
- Prime
- primer ministro
- Director de la escuela
- Problema
- problemas
- en costes
- tratamiento
- producido
- prosperidad
- proporcionar
- previsto
- proporciona un
- proporcionando
- publicado
- fines
- Python
- distancia
- ready
- real
- en tiempo real
- grabar
- archivos
- referencias
- se refiere
- ,
- Remoto
- REPETIDAMENTE
- reporte
- solicita
- solicitudes
- exigir
- Requisitos
- Requisitos
- investigador
- Recursos
- respuesta
- respuestas
- responsabilidades
- responsable
- resultado
- Resultados
- volvemos
- devoluciones
- una estrategia SEO para aparecer en las búsquedas de Google.
- derechos
- Función
- Roma
- FILA
- Ejecutar
- s
- sabio
- Inferencia de SageMaker
- Said
- mismo
- decir
- escenarios
- CIENCIAS
- Científico
- Puntuación
- Sdk
- ver
- la búsqueda de
- seleccionado
- envío
- mayor
- Serie
- Servicios
- set
- pólipo
- Configure
- compartido
- ella
- tienes
- Mostrar
- mostrar
- Shows
- Plato Adicional
- firmado
- Del mismo modo
- sencillos
- desde
- situación
- circunstancias
- Tamaño
- chica
- So
- Social
- Sociedades
- Software
- a medida
- Soluciones
- algo
- De una Charla a tu equipo
- hablar
- Gastos
- comienzo
- fundó
- Estado
- Departamento de Estado
- el estado de la técnica
- Posicionamiento
- Zonas
- estadístico
- paso
- pasos
- Sin embargo
- detenido
- STORAGE
- tienda
- almacenados
- sencillo
- Estratégico
- stream
- en streaming
- se mostró plenamente
- sujeto
- resumir
- RESUMEN
- verano
- SOPORTE
- ¡Prepárate!
- toma
- toma
- Tarea
- tareas
- tecnología
- plantillas
- territorios
- territorio
- test
- que
- esa
- La
- la información
- Países Bajos
- El Estado
- el mundo
- su
- Les
- luego
- por lo tanto
- Estas
- ellos
- así
- aquellos
- A través de esta formación, el personal docente y administrativo de escuelas y universidades estará preparado para manejar los recursos disponibles que derivan de la diversidad cultural de sus estudiantes. Además, un mejor y mayor entendimiento sobre estas diferencias y similitudes culturales permitirá alcanzar los objetivos de inclusión previstos.
- rendimiento
- equipo
- Series de tiempo
- a
- hoy
- juntos
- Rasgado
- hacia
- Entrenar
- Transformar
- transformador
- transformadas
- Traducción
- verdadero
- verdad
- tipo
- tipos
- Socavar
- United
- Estados Unidos
- Universal
- universidad
- diferente a
- ¿Cómo subir tu libro?
- a
- us
- utilizan el
- usado
- usando
- Vice Presidenta
- visión
- volúmenes
- W
- quieres
- guerra
- fue
- Ver ahora
- Camino..
- we
- web
- servicios web
- Miércoles
- bienvenido
- bienvenida
- WELL
- ¿
- cuando
- sean
- que
- mientras
- QUIENES
- amplio
- Amplia gama
- seguirá
- dentro de
- sin
- trabajando
- mundo
- se
- Usted
- tú
- zephyrnet