Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Servizi Web di Amazon

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Servizi Web di Amazon

Le aziende cercano di sfruttare il potenziale del Machine Learning (ML) per risolvere problemi complessi e migliorare i risultati. Fino a poco tempo fa, la creazione e l'implementazione di modelli ML richiedevano livelli profondi di competenze tecniche e di codifica, tra cui l'ottimizzazione dei modelli ML e il mantenimento di pipeline operative. Dalla sua introduzione nel 2021, Tela di Amazon SageMaker ha consentito agli analisti aziendali di creare, distribuire e utilizzare una varietà di modelli ML, tra cui tabulari, visione artificiale ed elaborazione del linguaggio naturale, senza scrivere una riga di codice. Ciò ha accelerato la capacità delle aziende di applicare il machine learning a casi d’uso quali previsioni di serie temporali, previsione del tasso di abbandono dei clienti, analisi del sentiment, rilevamento di difetti industriali e molti altri.

Come annunciato il Ottobre 5, 2023, SageMaker Canvas ha ampliato il supporto dei modelli ai Foundation Model (FM), modelli linguistici di grandi dimensioni utilizzati per generare e riassumere i contenuti. Con il Uscita del 12 ottobre 2023, SageMaker Canvas consente agli utenti di porre domande e ottenere risposte basate sui dati aziendali. Ciò garantisce che i risultati siano specifici del contesto, aprendo ulteriori casi d'uso in cui è possibile applicare il machine learning senza codice per risolvere problemi aziendali. Ad esempio, i team aziendali ora possono formulare risposte coerenti con il vocabolario e i principi specifici di un'organizzazione e possono interrogare più rapidamente documenti lunghi per ottenere risposte specifiche e basate sui contenuti di tali documenti. Tutti questi contenuti vengono eseguiti in modo privato e sicuro, garantendo che tutti i dati sensibili siano accessibili con governance e protezioni adeguate.

Per iniziare, un amministratore cloud configura e popola Amazon Kendra indici con dati aziendali come origini dati per SageMaker Canvas. Gli utenti Canvas selezionano l'indice in cui si trovano i loro documenti e possono ideare, ricercare ed esplorare sapendo che l'output sarà sempre supportato dalle loro fonti di verità. SageMaker Canvas utilizza FM all'avanguardia da Roccia Amazzonica ed JumpStart di Amazon SageMaker. È possibile avviare conversazioni con più FM fianco a fianco, confrontando i risultati e rendendo l'intelligenza artificiale generativa davvero accessibile a tutti.

In questo post esamineremo la funzionalità rilasciata di recente, discuteremo l'architettura e presenteremo una guida passo passo per consentire a SageMaker Canvas di eseguire query sui documenti della tua knowledge base, come mostrato nella seguente schermata.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Panoramica della soluzione

I modelli di base possono produrre allucinazioni: risposte generiche, vaghe, non correlate o sostanzialmente errate. Recupero della generazione aumentata (RAG) è un approccio utilizzato frequentemente per ridurre le allucinazioni. Le architetture RAG vengono utilizzate per recuperare dati dall'esterno di un FM, che vengono poi utilizzati per eseguire l'apprendimento in contesto per rispondere alla query dell'utente. Ciò garantisce che il FM possa utilizzare i dati di una base di conoscenza affidabile e utilizzare tale conoscenza per rispondere alle domande degli utenti, riducendo il rischio di allucinazioni.

Con RAG, i dati esterni a FM e utilizzati per aumentare i prompt degli utenti possono provenire da più origini dati disparate, come repository di documenti, database o API. Il primo passo è convertire i tuoi documenti e qualsiasi query dell'utente in un formato compatibile per eseguire la ricerca semantica di pertinenza. Per rendere compatibili i formati, una raccolta di documenti o libreria di conoscenze e le query inviate dagli utenti vengono convertite in rappresentazioni numeriche utilizzando modelli di incorporamento.

Con questa versione, la funzionalità RAG viene fornita senza codice e senza interruzioni. Le aziende possono arricchire l'esperienza di chat in Canvas con Amazon Kendra come sistema di gestione della conoscenza sottostante. Il diagramma seguente illustra l'architettura della soluzione.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

La connessione di SageMaker Canvas ad Amazon Kendra richiede una configurazione una tantum. Descriviamo il processo di configurazione in dettaglio in Configurazione di Canvas per interrogare i documenti. Se non hai già configurato il tuo dominio SageMaker, fai riferimento a Integrazione nel dominio Amazon SageMaker.

Come parte della configurazione del dominio, un amministratore cloud può scegliere uno o più indici Kendra che l'analista aziendale può interrogare quando interagisce con FM tramite SageMaker Canvas.

Dopo che gli indici Kendra sono stati idratati e configurati, gli analisti aziendali li utilizzano con SageMaker Canvas avviando una nuova chat e selezionando l'interruttore "Query documenti". SageMaker Canvas gestirà quindi la comunicazione sottostante tra Amazon Kendra e il FM prescelto per eseguire le seguenti operazioni:

  1. Interroga gli indici Kendra con la domanda proveniente dall'utente.
  2. Recupera gli snippet (e le fonti) dagli indici Kendra.
  3. Progetta il prompt con gli snippet con la query originale in modo che il modello di fondazione possa generare una risposta dai documenti recuperati.
  4. Fornire all'utente la risposta generata, insieme ai riferimenti alle pagine/documenti utilizzati per formulare la risposta.

Configurazione di Canvas per interrogare i documenti

In questa sezione ti guideremo attraverso i passaggi per configurare Canvas per interrogare i documenti serviti tramite gli indici Kendra. Dovresti avere i seguenti prerequisiti:

  • Configurazione del dominio SageMaker – Integrazione nel dominio Amazon SageMaker
  • Creare un Indice Kendra (o più di uno)
  • Configura il connettore Kendra Amazon S3: segui le istruzioni Connettore Amazon S3 – e caricare file PDF e altri documenti nel bucket Amazon S3 associato all'indice Kendra
  • Configura IAM in modo che Canvas disponga delle autorizzazioni appropriate, comprese quelle necessarie per chiamare gli endpoint Amazon Bedrock e/o SageMaker: segui le istruzioni Configura la chat su tela documentazione

Adesso puoi aggiornare il Dominio affinché possa accedere agli indici desiderati. Sulla console SageMaker, per il dominio specificato, seleziona Modifica nella scheda Impostazioni dominio. Abilita l'interruttore "Abilita documenti di query con Amazon Kendra" che puoi trovare nella fase Impostazioni Canvas. Una volta attivato, scegli uno o più indici Kendra che desideri utilizzare con Canvas.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Questo è tutto ciò che serve per configurare la funzionalità dei documenti di query Canvas. Gli utenti possono ora entrare in una chat all'interno di Canvas e iniziare a utilizzare le basi di conoscenza che sono state allegate al dominio tramite gli indici Kendra. I manutentori della knowledge base possono continuare ad aggiornare la fonte della verità e con la funzionalità di sincronizzazione di Kendra, gli utenti della chat saranno automaticamente in grado di utilizzare le informazioni aggiornate in modo fluido.

Utilizzo della funzione Interroga documenti per la chat

Come utente SageMaker Canvas, è possibile accedere alla funzione Interroga documenti da una chat. Per avviare la sessione di chat, fai clic o cerca il pulsante "Genera, estrai e riepiloga contenuti" dalla scheda Modelli pronti all'uso in SageMaker Canvas.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Una volta lì, puoi attivare e disattivare Interroga documenti con l'interruttore nella parte superiore dello schermo. Controlla la richiesta di informazioni per saperne di più sulla funzionalità.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Quando Interroga documenti è abilitato, puoi scegliere da un elenco di indici Kendra abilitati dall'amministratore cloud.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Puoi selezionare un indice quando avvii una nuova chat. È quindi possibile porre una domanda nell'UX con la conoscenza proveniente automaticamente dall'indice selezionato. Tieni presente che dopo l'avvio di una conversazione su un indice specifico, non è possibile passare a un altro indice.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Per le domande poste, la chat mostrerà la risposta generata dal FM insieme ai documenti sorgente che hanno contribuito a generare la risposta. Quando si fa clic su uno qualsiasi dei documenti di origine, Canvas apre un'anteprima del documento, evidenziando l'estratto utilizzato dal FM.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Conclusione

L'intelligenza artificiale conversazionale ha un immenso potenziale per trasformare l'esperienza dei clienti e dei dipendenti fornendo un assistente simile a quello umano con interazioni naturali e intuitive come:

  • Eseguire ricerche su un argomento o cercare e sfogliare la knowledge base dell'organizzazione
  • Riepilogare volumi di contenuti per raccogliere rapidamente informazioni
  • Ricerca di entità, sentimenti, PII e altri dati utili e aumento del valore aziendale dei contenuti non strutturati
  • Generazione di bozze per documenti e corrispondenza commerciale
  • Creazione di articoli di conoscenza da diverse fonti interne (incidenti, registri di chat, wiki)

L'integrazione innovativa di interfacce chat, recupero di conoscenza e FM consente alle aziende di fornire risposte accurate e pertinenti alle domande degli utenti utilizzando la conoscenza del dominio e le fonti della verità.

Collegando SageMaker Canvas alle basi di conoscenza in Amazon Kendra, le organizzazioni possono mantenere i propri dati proprietari all'interno del proprio ambiente beneficiando comunque delle funzionalità all'avanguardia del linguaggio naturale dei FM. Con il lancio della funzionalità Query Documents di SageMaker Canvas, stiamo rendendo semplice per qualsiasi azienda utilizzare i LLM e la propria conoscenza aziendale come fonte di verità per alimentare un'esperienza di chat sicura. Tutte queste funzionalità sono disponibili in formato senza codice, consentendo alle aziende di evitare di gestire attività ripetitive e non specializzate.

Per saperne di più su SageMaker Canvas e su come aiuta a rendere più semplice per tutti iniziare con il Machine Learning, consulta il Annuncio di SageMaker Canvas. Scopri di più su come SageMaker Canvas aiuta a promuovere la collaborazione tra data scientist e analisti aziendali leggendo il Crea, condividi e distribuisci post. Infine, per sapere come creare il proprio flusso di lavoro di recupero generazione aumentata, fare riferimento a SageMaker JumpStart RAG.

Riferimenti

Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., Küttler, H., Lewis, M., Yih, W., Rocktäschel, T., Riedel, S., Kiela, D. (2020). Generazione aumentata di recupero per attività di PNL ad alta intensità di conoscenza. Progressi nei sistemi di elaborazione delle informazioni neurali, 33, 9459-9474.


Informazioni sugli autori

Foto di DavideDavide Gallitelli è un Senior Specialist Solutions Architect per AI/ML. Ha sede a Bruxelles e lavora a stretto contatto con clienti in tutto il mondo che desiderano adottare tecnologie di machine learning Low-Code/No-Code e intelligenza artificiale generativa. È stato uno sviluppatore fin da quando era molto giovane, iniziando a programmare all'età di 7 anni. Ha iniziato a studiare AI/ML all'università e da allora se ne è innamorato.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Bilal Alam è un Enterprise Solutions Architect presso AWS con particolare attenzione al settore dei servizi finanziari. Quasi tutti i giorni Bilal aiuta i clienti a creare, migliorare e proteggere il loro ambiente AWS per distribuire i carichi di lavoro più critici. Ha una vasta esperienza nelle telecomunicazioni, nel networking e nello sviluppo di software. Più recentemente, ha esaminato l'utilizzo dell'intelligenza artificiale/ML per risolvere i problemi aziendali.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Pashmen Mistry è un Senior Product Manager presso AWS. Al di fuori del lavoro, Pashmeen ama le escursioni avventurose, la fotografia e trascorrere del tempo con la sua famiglia.

Consenti ai tuoi utenti aziendali di estrarre informazioni approfondite dai documenti aziendali utilizzando l'intelligenza artificiale generativa di Amazon SageMaker Canvas | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Dan Sinnreich è Senior Product Manager presso AWS e contribuisce a democratizzare l'apprendimento automatico low-code/no-code. Prima di AWS, Dan ha creato e commercializzato piattaforme SaaS aziendali e modelli di serie temporali utilizzati dagli investitori istituzionali per gestire il rischio e costruire portafogli ottimali. Al di fuori del lavoro, lo si può trovare a giocare a hockey, a fare immersioni subacquee e a leggere fantascienza.

Timestamp:

Di più da Apprendimento automatico di AWS