Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Servicios web de Amazon

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Servicios web de Amazon

Esta publicación le explica los desafíos más comunes que enfrentan los clientes al buscar documentos internos y le brinda orientación concreta sobre cómo se pueden utilizar los servicios de AWS para crear un bot conversacional de IA generativa que haga que la información interna sea más útil.

Los datos no estructurados representan el 80% de todos los datos. que se encuentran dentro de las organizaciones y que consisten en repositorios de manuales, archivos PDF, preguntas frecuentes, correos electrónicos y otros documentos que crecen a diario. Hoy en día, las empresas dependen de depósitos de información interna en continuo crecimiento y surgen problemas cuando la cantidad de datos no estructurados se vuelve inmanejable. A menudo, los usuarios se encuentran leyendo y consultando muchas fuentes internas diferentes para encontrar las respuestas que necesitan.

Los foros internos de preguntas y respuestas pueden ayudar a los usuarios a obtener respuestas muy específicas, pero también requieren tiempos de espera más prolongados. En el caso de las preguntas frecuentes internas específicas de la empresa, los largos tiempos de espera provocan una menor productividad de los empleados. Los foros de preguntas y respuestas son difíciles de escalar ya que dependen de respuestas escritas manualmente. Con la IA generativa, actualmente hay un cambio de paradigma en la forma en que los usuarios buscan y encuentran información. El siguiente paso lógico es utilizar IA generativa para condensar documentos grandes en información más pequeña para facilitar el consumo del usuario. En lugar de pasar mucho tiempo leyendo textos o esperando respuestas, los usuarios pueden generar resúmenes en tiempo real basados ​​en múltiples repositorios de información interna existentes.

Resumen de la solución

La solución permite a los clientes recuperar respuestas seleccionadas a preguntas sobre documentos internos mediante el uso de un modelo transformador para generar respuestas a preguntas sobre datos en los que no ha sido entrenado, una técnica conocida como indicación de disparo cero. Al adoptar esta solución, los clientes pueden obtener los siguientes beneficios:

  • Encuentre respuestas precisas a preguntas basadas en fuentes existentes de documentos internos
  • Reduzca el tiempo que los usuarios dedican a buscar respuestas mediante el uso de modelos de lenguaje grandes (LLM) para proporcionar respuestas casi inmediatas a consultas complejas utilizando documentos con la información más actualizada.
  • Busque preguntas respondidas previamente a través de un panel centralizado
  • Reducir el estrés causado por dedicar tiempo a leer información manualmente para buscar respuestas.

Recuperación de Generación Aumentada (RAG)

La recuperación de generación aumentada (RAG) reduce algunas de las deficiencias de las consultas basadas en LLM al encontrar las respuestas de su base de conocimientos y utilizar el LLM para resumir los documentos en respuestas concisas. Por favor lee esto post aprender cómo implementar el enfoque RAG con amazona kendra. Los siguientes riesgos y limitaciones están asociados con las consultas basadas en LLM que aborda un enfoque RAG con Amazon Kendra:

  • Alucinaciones y trazabilidad: los LLMS se entrenan con grandes conjuntos de datos y generan respuestas basadas en probabilidades. Esto puede dar lugar a respuestas inexactas, lo que se conoce como alucinaciones.
  • Múltiples silos de datos: para hacer referencia a datos de múltiples fuentes dentro de su respuesta, es necesario configurar un ecosistema de conectores para agregar los datos. Acceder a varios repositorios es manual y requiere mucho tiempo.
  • Seguridad: la seguridad y la privacidad son consideraciones críticas al implementar robots conversacionales impulsados ​​por RAG y LLM. A pesar de usar Amazon Comprehend Para filtrar los datos personales que pueden proporcionarse a través de las consultas de los usuarios, sigue existiendo la posibilidad de que aparezca involuntariamente información personal o sensible, dependiendo de los datos ingeridos. Esto significa que controlar el acceso al chatbot es crucial para evitar el acceso involuntario a información confidencial.
  • Relevancia de los datos: los LLMS se basan en datos hasta una fecha determinada, lo que significa que la información a menudo no está actualizada. El costo asociado con la capacitación de modelos sobre datos recientes es alto. Para garantizar respuestas precisas y actualizadas, las organizaciones tienen la responsabilidad de actualizar y enriquecer periódicamente el contenido de los documentos indexados.
  • Costo: el costo asociado con la implementación de esta solución debe ser una consideración para las empresas. Las empresas deben evaluar cuidadosamente sus requisitos de presupuesto y rendimiento al implementar esta solución. La ejecución de LLM puede requerir importantes recursos computacionales, lo que puede aumentar los costos operativos. Estos costos pueden convertirse en una limitación para las aplicaciones que necesitan operar a gran escala. Sin embargo, uno de los beneficios de la AWS Cloud es la flexibilidad de pagar solo por lo que usas. AWS ofrece un modelo de precios simple, consistente y de pago por uso, por lo que solo se le cobra por los recursos que consume.

Uso de Amazon SageMaker JumpStart

Para los modelos de lenguaje basados ​​en transformadores, las organizaciones pueden beneficiarse del uso Amazon SageMaker JumpStart, que ofrece una colección de modelos de aprendizaje automático prediseñados. Amazon SageMaker JumpStart ofrece una amplia gama de modelos fundamentales de generación de texto y respuesta a preguntas (P&R) que se pueden implementar y utilizar fácilmente. Esta solución integra un modelo FLAN T5-XL Amazon SageMaker JumpStart, pero hay diferentes aspectos a tener en cuenta a la hora de elegir un modelo de base.

Integrando la seguridad en nuestro flujo de trabajo

Siguiendo las mejores prácticas del Pilar de Seguridad del Marco bien diseñado, Cognito Amazonas se utiliza para la autenticación. Los grupos de usuarios de Amazon Cognito se pueden integrar con proveedores de identidades de terceros que admiten varios marcos utilizados para el control de acceso, incluidos Open Authorization (OAuth), OpenID Connect (OIDC) o Security Assertion Markup Language (SAML). La identificación de los usuarios y sus acciones permite que la solución mantenga la trazabilidad. La solución también utiliza el Detección de información de identificación personal (PII) de Amazon Comprehend característica para identificar y redactar automáticamente la PII. La PII redactada incluye direcciones, números de seguro social, direcciones de correo electrónico y otra información confidencial. Este diseño garantiza que cualquier PII proporcionada por el usuario a través de la consulta de entrada sea redactada. Amazon Kendra no almacena ni utiliza la PII ni la envía al LLM.

Tutorial de la solución

Los siguientes pasos describen el flujo de trabajo del flujo de respuesta a preguntas sobre documentos:

  1. Los usuarios envían una consulta a través de una interfaz web.
  2. Cognito Amazonas se utiliza para la autenticación, lo que garantiza un acceso seguro a la aplicación web.
  3. El front-end de la aplicación web está alojado en AWS amplificar.
  4. Puerta de enlace API de Amazon aloja una API REST con varios puntos finales para manejar las solicitudes de los usuarios que se autentican mediante Amazon Cognito.
  5. Redacción de PII con Amazon Comprehend:
    • Procesamiento de consultas del usuario: cuando un usuario envía una consulta o entrada, primero pasa a través de Amazon Comprehend. El servicio analiza el texto e identifica cualquier entidad PII presente en la consulta.
    • Extracción de PII: Amazon Comprehend extrae las entidades de PII detectadas de la consulta del usuario.
  6. Recuperación de información relevante con amazona kendra:
    • Amazon Kendra se utiliza para administrar un índice de documentos que contiene la información utilizada para generar respuestas a las consultas del usuario.
    • La Recuperación de control de calidad de LangChain El módulo se utiliza para construir una cadena de conversación que tiene información relevante sobre las consultas del usuario.
  7. Integración con JumpStart de Amazon SageMaker:
    • La función AWS Lambda utiliza la biblioteca LangChain y se conecta al punto final JumpStart de Amazon SageMaker con una consulta llena de contexto. El punto de enlace JumpStart de Amazon SageMaker sirve como interfaz del LLM que se utiliza para la inferencia.
  8. Almacenar respuestas y devolverlas al usuario:
    • La respuesta del LLM se almacena en Amazon DynamoDB junto con la consulta del usuario, la marca de tiempo, un identificador único y otros identificadores arbitrarios para el elemento, como la categoría de pregunta. Almacenar la pregunta y la respuesta como elementos discretos permite que la función AWS Lambda recree fácilmente el historial de conversaciones de un usuario en función del momento en que se formularon las preguntas.
    • Finalmente, la respuesta se envía de vuelta al usuario a través de una solicitud HTTP a través de la respuesta de integración de la API REST de Amazon API Gateway.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Los siguientes pasos describen las funciones de AWS Lambda y su flujo a través del proceso:

  1. Verifique y redacte cualquier PII/información confidencial
  2. Cadena de recuperación de control de calidad de LangChain
    • Buscar y recuperar información relevante
  3. Relleno de contexto e ingeniería rápida
  4. Inferencia con LLM
  5. Devolver respuesta y guardarla

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Use cases

Hay muchos casos de uso empresarial en los que los clientes pueden utilizar este flujo de trabajo. La siguiente sección explica cómo se puede utilizar el flujo de trabajo en diferentes industrias y sectores verticales.

Asistencia al empleado

Una formación corporativa bien diseñada puede mejorar la satisfacción de los empleados y reducir el tiempo necesario para incorporar nuevos empleados. A medida que las organizaciones crecen y la complejidad aumenta, a los empleados les resulta difícil comprender las numerosas fuentes de documentos internos. Los documentos internos en este contexto incluyen directrices, políticas y procedimientos operativos estándar de la empresa. Para este escenario, un empleado tiene una pregunta sobre cómo proceder y editar un ticket de emisión interna. El empleado puede acceder y utilizar el bot conversacional de inteligencia artificial generativa (IA) para preguntar y ejecutar los siguientes pasos para un ticket específico.

Caso de uso específico: Automatice la resolución de problemas para los empleados según las pautas corporativas.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Los siguientes pasos describen las funciones de AWS Lambda y su flujo a través del proceso:

  1. Agente de LangChain para identificar la intención
  2. Enviar notificación según la solicitud del empleado
  3. Modificar el estado del ticket

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

En este diagrama de arquitectura, los videos de capacitación corporativa se pueden ingerir a través de Amazon Transcribe para recopilar un registro de estos guiones de vídeo. Además, el contenido de capacitación corporativa almacenado en varias fuentes (es decir, Confluence, Microsoft SharePoint, Google Drive, Jira, etc.) se puede utilizar para crear índices a través de conectores Amazon Kendra. Lea este artículo para obtener más información sobre la colección de nativos. conectores Puede utilizar Kendra en Amazon como punto de origen. Luego, el rastreador de Amazon Kendra puede utilizar tanto los guiones de los videos de capacitación corporativa como la documentación almacenada en estas otras fuentes para ayudar al robot conversacional a responder preguntas específicas sobre las pautas de capacitación corporativa de la empresa. El agente de LangChain verifica los permisos, modifica el estado del ticket y notifica a las personas correctas mediante Amazon Simple Notification Service (redes sociales de amazon).

Equipos de atención al cliente

Resolver rápidamente las consultas de los clientes mejora la experiencia del cliente y fomenta la fidelidad a la marca. Una base de clientes leales ayuda a impulsar las ventas, lo que contribuye al resultado final y aumenta la participación del cliente. Los equipos de atención al cliente dedican mucha energía a consultar muchos documentos internos y software de gestión de relaciones con el cliente para responder a las consultas de los clientes sobre productos y servicios. Los documentos internos en este contexto pueden incluir guiones genéricos de llamadas de atención al cliente, guías, pautas de escalamiento e información comercial. El robot conversacional de IA generativa ayuda a optimizar los costos porque maneja consultas en nombre del equipo de atención al cliente.

Caso de uso específico: Manejar una solicitud de cambio de aceite según el historial de servicio y el plan de servicio al cliente adquirido.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

En este diagrama de arquitectura, el cliente es dirigido al bot conversacional de IA generativa o al Amazon conectar centro de contacto. Esta decisión puede basarse en el nivel de soporte necesario o la disponibilidad de agentes de atención al cliente. El agente de LangChain identifica la intención del cliente y verifica la identidad. El agente de LangChain también verifica el historial de servicio y el plan de soporte adquirido.

Los siguientes pasos describen las funciones de AWS Lambda y su flujo a través del proceso:

  1. El agente de LangChain identifica la intención
  2. Recuperar información del cliente
  3. Verifique el historial de servicio al cliente y la información de garantía.
  4. Reservar cita, proporcionar más información o dirigirse al centro de contacto
  5. Enviar confirmación por correo electrónico

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Amazon Connect se utiliza para recopilar registros de voz y chat, y Amazon Comprehend se utiliza para eliminar información de identificación personal (PII) de estos registros. Luego, el rastreador de Amazon Kendra puede utilizar los registros de voz y chat redactados, los guiones de llamadas de los clientes y las políticas del plan de soporte de servicio al cliente para crear el índice. Una vez que se toma una decisión, el robot conversacional de IA generativa decide si programar una cita, proporcionar más información o dirigir al cliente al centro de contacto para obtener más ayuda. Para optimizar costos, el agente de LangChain también puede generar respuestas utilizando menos tokens y un modelo de lenguaje grande menos costoso para consultas de clientes de menor prioridad.

Servicios Financieros

Las empresas de servicios financieros dependen del uso oportuno de la información para seguir siendo competitivas y cumplir con las regulaciones financieras. Utilizando un robot conversacional de IA generativa, los analistas y asesores financieros pueden interactuar con información textual de manera conversacional y reducir el tiempo y el esfuerzo necesarios para tomar decisiones mejor informadas. Además de la inversión y la investigación de mercado, un robot conversacional de IA generativa también puede aumentar las capacidades humanas al manejar tareas que tradicionalmente requerirían más esfuerzo y tiempo humanos. Por ejemplo, una institución financiera especializada en préstamos personales puede aumentar la tasa de procesamiento de los préstamos y, al mismo tiempo, ofrecer una mayor transparencia a los clientes.

Caso de uso específico: Utilice el historial financiero del cliente y solicitudes de préstamos anteriores para decidir y explicar la decisión del préstamo.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Los siguientes pasos describen las funciones de AWS Lambda y su flujo a través del proceso:

  1. Agente de LangChain para identificar la intención
  2. Verifique el historial financiero y crediticio del cliente
  3. Consultar el sistema interno de gestión de relaciones con los clientes.
  4. Verifique las políticas de préstamo estándar y sugiera una decisión para el empleado que califica para el préstamo.
  5. Enviar notificación al cliente

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Esta arquitectura incorpora datos financieros del cliente almacenados en una base de datos y datos almacenados en una herramienta de gestión de relaciones con el cliente (CRM). Estos puntos de datos se utilizan para informar una decisión basada en las políticas de préstamos internas de la empresa. El cliente puede hacer preguntas aclaratorias para comprender para qué préstamos califica y los términos de los préstamos que puede aceptar. Si el robot conversacional de IA generativa no puede aprobar una solicitud de préstamo, el usuario aún puede hacer preguntas sobre cómo mejorar los puntajes crediticios u opciones de financiamiento alternativas.

Gobierno

Los robots conversacionales de IA generativa pueden beneficiar enormemente a las instituciones gubernamentales al acelerar los procesos de comunicación, eficiencia y toma de decisiones. Los robots conversacionales de IA generativa también pueden proporcionar acceso instantáneo a bases de conocimiento internas para ayudar a los empleados gubernamentales a recuperar rápidamente información, políticas y procedimientos (es decir, criterios de elegibilidad, procesos de solicitud y servicios y apoyo a los ciudadanos). Una solución es un sistema interactivo que permite a los contribuyentes y profesionales de impuestos encontrar fácilmente detalles y beneficios relacionados con los impuestos. Se puede utilizar para comprender las preguntas de los usuarios, resumir documentos fiscales y proporcionar respuestas claras a través de conversaciones interactivas.

Los usuarios pueden hacer preguntas como:

  • ¿Cómo funciona el impuesto a la herencia y cuáles son los umbrales impositivos?
  • ¿Puedes explicar el concepto de impuesto sobre la renta?
  • ¿Cuáles son las implicaciones fiscales al vender una segunda propiedad?

Además, los usuarios pueden tener la comodidad de enviar formularios de impuestos a un sistema, lo que puede ayudar a verificar la exactitud de la información proporcionada.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

Esta arquitectura ilustra cómo los usuarios pueden cargar formularios de impuestos completos en la solución y utilizarlos para verificación interactiva y orientación sobre cómo completar con precisión la información necesaria.

Healthcare

Las empresas de atención médica tienen la oportunidad de automatizar el uso de grandes cantidades de información interna de los pacientes y, al mismo tiempo, abordar preguntas comunes sobre casos de uso, como opciones de tratamiento, reclamaciones de seguros, ensayos clínicos e investigación farmacéutica. El uso de un bot conversacional de IA generativa permite la generación rápida y precisa de respuestas sobre información de salud a partir de la base de conocimientos proporcionada. Por ejemplo, algunos profesionales de la salud dedican mucho tiempo a completar formularios para presentar reclamaciones de seguros.

En entornos similares, los administradores e investigadores de ensayos clínicos necesitan encontrar información sobre las opciones de tratamiento. Un robot conversacional de IA generativa puede utilizar los conectores prediseñados en Amazon Kendra para recuperar la información más relevante de los millones de documentos publicados a través de investigaciones en curso realizadas por compañías farmacéuticas y universidades.

Caso de uso específico: Reduzca los errores y el tiempo necesario para completar y enviar formularios de seguro.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

En este diagrama de arquitectura, un profesional de la salud puede utilizar el robot conversacional de IA generativa para determinar qué formularios deben completarse para el seguro. Luego, el agente de LangChain puede recuperar los formularios correctos y agregar la información necesaria para un paciente, además de dar respuestas a las partes descriptivas de los formularios según las pólizas de seguro y los formularios anteriores. El profesional de la salud puede editar las respuestas dadas por el LLM antes de aprobar y enviar el formulario al portal de seguros.

Los siguientes pasos describen las funciones de AWS Lambda y su flujo a través del proceso:

  1. Agente de LangChain para identificar la intención
  2. Recuperar la información del paciente necesaria
  3. Complete el formulario de seguro según la información del paciente y las pautas del formulario.
  4. Envíe el formulario al portal de seguros después de la aprobación del usuario.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.

AWS HealthLake se utiliza para almacenar de forma segura los datos de salud, incluidos formularios de seguro anteriores e información del paciente, y Amazon Comprehend se utiliza para eliminar información de identificación personal (PII) de los formularios de seguro anteriores. Luego, el rastreador de Amazon Kendra puede utilizar el conjunto de formularios y pautas de seguros para crear el índice. Una vez que la IA generativa completa los formularios, los formularios revisados ​​por el profesional médico se pueden enviar al portal de seguros.

Costo estimado

El costo de implementar la solución base como prueba de concepto se muestra en la siguiente tabla. Dado que la solución básica se considera una prueba de concepto, se utilizó Amazon Kendra Developer Edition como una opción de bajo costo, ya que la carga de trabajo no estaría en producción. Nuestra suposición para Amazon Kendra Developer Edition fue de 730 horas activas durante el mes.

Para Amazon SageMaker, asumimos que el cliente usaría la instancia ml.g4dn.2xlarge para la inferencia en tiempo real, con un único punto final de inferencia por instancia. Puede encontrar más información sobre los precios de Amazon SageMaker y los tipos de instancias de inferencia disponibles. esta página.

Service Recursos consumidos Estimación de costos por mes en USD
AWS amplificar 150 minutos de construcción
1 GB de datos servidos
500,000 solicitudes
15.71
Puerta de enlace API de Amazon 1 millón de llamadas API REST 3.5
AWS Lambda 1 millón de solicitudes
5 segundos de duración por solicitud
2 GB de memoria asignada
160.23
Amazon DynamoDB 1 millón de lecturas
1 millón de escrituras
100 de almacenamiento GB
26.38
fabricante de salvia del Amazonas Inferencia en tiempo real con ml.g4dn.2xlarge 676.8
amazona kendra Developer Edition con 730 horas/mes
10,000 documentos escaneados
5,000 consultas / día
821.25
. . Costo Total: 1703.87

* Amazon Cognito tiene un nivel gratuito de 50,000 50 usuarios activos mensuales que utilizan grupos de usuarios de Cognito o 2.0 usuarios activos mensuales que utilizan proveedores de identidad SAML XNUMX.

Limpiar

Para ahorrar costos, elimine todos los recursos que implementó como parte del tutorial. Puede eliminar cualquier punto final de SageMaker que haya creado a través de la consola de SageMaker. Recuerde, eliminar un índice de Amazon Kendra no elimina los documentos originales de su almacenamiento.

Conclusión

En esta publicación, le mostramos cómo simplificar el acceso a la información interna resumiendo desde múltiples repositorios en tiempo real. Tras los recientes desarrollos de los LLM disponibles comercialmente, las posibilidades de la IA generativa se han vuelto más evidentes. En esta publicación, mostramos formas de utilizar los servicios de AWS para crear un chatbot sin servidor que utilice IA generativa para responder preguntas. Este enfoque incorpora una capa de autenticación y detección de PII de Amazon Comprehend para filtrar cualquier información confidencial proporcionada en la consulta del usuario. Ya sea que se trate de personas en el sector de la atención médica que comprenden los matices para presentar reclamaciones de seguros o de recursos humanos que comprenden las regulaciones específicas de toda la empresa, existen múltiples industrias y sectores verticales que pueden beneficiarse de este enfoque. Un modelo básico de Amazon SageMaker JumpStart es el motor detrás del chatbot, mientras que se utiliza un enfoque de relleno de contexto que utiliza la técnica RAG para garantizar que las respuestas hagan referencia con mayor precisión a los documentos internos.

Para obtener más información sobre cómo trabajar con IA generativa en AWS, consulte Anuncio de nuevas herramientas para compilar con IA generativa en AWS. Para obtener orientación más detallada sobre el uso de la técnica RAG con servicios de AWS, consulte Cree rápidamente aplicaciones de inteligencia artificial generativa de alta precisión en datos empresariales utilizando Amazon Kendra, LangChain y modelos de lenguaje grandes. Dado que el enfoque de este blog es independiente del LLM, cualquier LLM se puede utilizar para realizar inferencias. En nuestra próxima publicación, describiremos formas de implementar esta solución utilizando Amazon Bedrock y Amazon Titan LLM.


Acerca de los autores

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Abhishek Maligehalli Shivalingaiah es arquitecto senior de soluciones de servicios de IA en AWS. Le apasiona crear aplicaciones utilizando IA generativa, Amazon Kendra y PNL. Tiene alrededor de 10 años de experiencia en la creación de soluciones de datos e inteligencia artificial para crear valor para clientes y empresas. Incluso ha creado un chatbot (personal) para divertirse y responder preguntas sobre su carrera y su trayectoria profesional. Fuera del trabajo, le gusta hacer retratos de familiares y amigos, y le encanta crear obras de arte.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Medha Aiyah es arquitecto asociado de soluciones en AWS, con sede en Austin, Texas. Recientemente se graduó de la Universidad de Texas en Dallas en diciembre de 2022 con su Maestría en Ciencias de la Computación con especialización en Sistemas Inteligentes con enfoque en AI/ML. Está interesada en aprender más sobre AI/ML y utilizar los servicios de AWS para descubrir soluciones de las que los clientes pueden beneficiarse.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Hugo Tse es arquitecto asociado de soluciones en AWS con sede en Seattle, Washington. Tiene una maestría en Tecnología de la Información de la Universidad Estatal de Arizona y una licenciatura en Economía de la Universidad de Chicago. Es miembro de la Asociación de Control y Auditoría de Sistemas de Información (ISACA) y del Consorcio Internacional de Certificación de Seguridad de Sistemas de Información (ISC)2. Le gusta ayudar a los clientes a beneficiarse de la tecnología.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Ayman Ishimwe es arquitecto asociado de soluciones en AWS con sede en Seattle, Washington. Tiene una maestría en Ingeniería de Software y TI de la Universidad de Oakland. Tiene experiencia previa en desarrollo de software, específicamente en la creación de microservicios para aplicaciones web distribuidas. Le apasiona ayudar a los clientes a crear soluciones sólidas y escalables en los servicios en la nube de AWS siguiendo las mejores prácticas.

Simplifique el acceso a la información interna utilizando Retrieval Augmented Generation y LangChain Agents | Amazon Web Services PlatoBlockchain Inteligencia de datos. Búsqueda vertical. Ai.Shervin Suresh es arquitecto de soluciones asociado en AWS con sede en Austin, Texas. Se graduó con una Maestría en Ingeniería de Software con concentración en Computación en la Nube y Virtualización y una Licenciatura en Ingeniería Informática de la Universidad Estatal de San José. Le apasiona aprovechar la tecnología para ayudar a mejorar las vidas de personas de todos los orígenes.

Sello de tiempo:

Mas de Aprendizaje automático de AWS