In der heutigen digitalen Welt würden die meisten Verbraucher lieber selbst Antworten auf ihre Kundendienstfragen finden, als sich die Zeit zu nehmen, sich an Unternehmen und/oder Dienstleister zu wenden. In diesem Blogbeitrag wird eine innovative Lösung zum Erstellen eines Frage-und-Antwort-Chatbots untersucht Amazon Lex das vorhandene FAQs Ihrer Website nutzt. Dieses KI-gestützte Tool kann schnelle und genaue Antworten auf reale Anfragen liefern und ermöglicht es dem Kunden, häufig auftretende Probleme schnell und einfach selbstständig zu lösen.
Aufnahme einer einzelnen URL
Viele Unternehmen stellen auf ihrer Website eine Reihe veröffentlichter Antworten auf häufig gestellte Fragen (FAQs) für ihre Kunden bereit. In diesem Fall möchten wir den Kunden einen Chatbot anbieten, der ihre Fragen aus unseren veröffentlichten FAQs beantworten kann. Im Blogbeitrag mit dem Titel Erweitern Sie Amazon Lex mit konversationsorientierten FAQ-Funktionen mithilfe von LLMshaben wir gezeigt, wie Sie eine Kombination aus Amazon Lex und LlamaIndex verwenden können, um einen Chatbot zu erstellen, der auf Ihren vorhandenen Wissensquellen wie PDF- oder Word-Dokumenten basiert. Um eine einfache FAQ basierend auf einer Website mit FAQs zu unterstützen, müssen wir einen Aufnahmeprozess erstellen, der die Website crawlen und Einbettungen erstellen kann, die von LlamaIndex zur Beantwortung von Kundenfragen verwendet werden können. In diesem Fall bauen wir auf dem im erstellten Bot auf Vorheriger Blogpost, das diese Einbettungen mit der Äußerung eines Benutzers abfragt und die Antwort aus den FAQs der Website zurückgibt.
Das folgende Diagramm zeigt, wie der Aufnahmeprozess und der Amazon Lex-Bot für unsere Lösung zusammenarbeiten.
Im Lösungsworkflow wird die Website mit FAQs über aufgenommen AWS Lambda. Diese Lambda-Funktion crawlt die Website und speichert den resultierenden Text in einer Amazon Simple Storage-Service (Amazon S3) Eimer. Der S3-Bucket löst dann eine Lambda-Funktion aus, die LlamaIndex verwendet, um Einbettungen zu erstellen, die in Amazon S3 gespeichert werden. Wenn eine Frage eines Endbenutzers eintrifft, beispielsweise „Wie lauten Ihre Rückgabebedingungen?“, verwendet der Amazon Lex-Bot seine Lambda-Funktion, um die Einbettungen mithilfe eines RAG-basierten Ansatzes mit LlamaIndex abzufragen. Weitere Informationen zu diesem Ansatz und den Voraussetzungen finden Sie im Blogbeitrag: Erweitern Sie Amazon Lex mit konversationsorientierten FAQ-Funktionen mithilfe von LLMs.
Nachdem die Voraussetzungen aus dem oben genannten Blog erfüllt sind, besteht der erste Schritt darin, die FAQs in ein Dokumenten-Repository aufzunehmen, das von LlamaIndex vektorisiert und indiziert werden kann. Der folgende Code zeigt, wie dies erreicht wird:
Im vorherigen Beispiel nehmen wir eine vordefinierte FAQ-Website-URL von Zappos und nehmen sie mit auf EZWebLoader
Klasse. Mit dieser Klasse haben wir zur URL navigiert und alle Fragen, die sich auf der Seite befinden, in einen Index geladen. Wir können jetzt eine Frage stellen wie „Hat Zappos Geschenkkarten?“ und erhalten Sie die Antworten direkt in unseren FAQs auf der Website. Der folgende Screenshot zeigt, wie die Amazon Lex-Bot-Testkonsole diese Frage aus den FAQs beantwortet.
Dies konnten wir erreichen, weil wir im ersten Schritt die URL gecrawlt und Einbettungen erstellt hatten, anhand derer LlamaIndex nach der Antwort auf unsere Frage suchen konnte. Die Lambda-Funktion unseres Bots zeigt, wie diese Suche immer dann ausgeführt wird, wenn die Fallback-Absicht zurückgegeben wird:
Diese Lösung funktioniert gut, wenn eine einzige Webseite alle Antworten enthält. Allerdings sind die meisten FAQ-Seiten nicht auf einer einzigen Seite aufgebaut. Wenn wir beispielsweise in unserem Zappos-Beispiel die Frage „Haben Sie eine Preisanpassungsrichtlinie?“ stellen, erhalten wir eine nicht zufriedenstellende Antwort, wie im folgenden Screenshot gezeigt.
In der vorherigen Interaktion war die Antwort auf die Preisanpassungsrichtlinie für unseren Benutzer nicht hilfreich. Diese Antwort ist kurz, da es sich bei der FAQ, auf die verwiesen wird, um einen Link zu einer bestimmten Seite über die Preisanpassungsrichtlinie handelt und unser Webcrawl nur für diese einzelne Seite durchgeführt wurde. Um bessere Antworten zu erhalten, müssen auch diese Links gecrawlt werden. Im nächsten Abschnitt erfahren Sie, wie Sie Antworten auf Fragen erhalten, die zwei oder mehr Ebenen der Seitentiefe erfordern.
N-Level-Crawling
Wenn wir eine Webseite nach FAQ-Wissen durchsuchen, können die gewünschten Informationen in verlinkten Seiten enthalten sein. In unserem Zappos-Beispiel stellen wir beispielsweise die Frage „Haben Sie eine Preisanpassungsrichtlinie?“ und die Antwort lautet: „Ja, bitte besuchen Sie uns.“ um mehr zu lernen." Wenn jemand fragt: „Was ist Ihre Preisanpassungspolitik?“ dann wollen wir mit der Police eine vollständige Antwort geben. Um dies zu erreichen, müssen wir Links durchlaufen, um die tatsächlichen Informationen für unseren Endbenutzer zu erhalten. Während des Aufnahmeprozesses können wir unseren Webloader verwenden, um die Ankerlinks zu anderen HTML-Seiten zu finden und diese dann zu durchlaufen. Die folgende Codeänderung an unserem Webcrawler ermöglicht es uns, Links auf den von uns gecrawlten Seiten zu finden. Es enthält außerdem einige zusätzliche Logik, um zirkuläres Crawlen zu vermeiden und eine Filterung nach einem Präfix zu ermöglichen.
Im vorherigen Code führen wir die Möglichkeit ein, N Ebenen tief zu crawlen, und geben ein Präfix an, das es uns ermöglicht, das Crawlen nur auf Dinge zu beschränken, die mit einem bestimmten URL-Muster beginnen. In unserem Zappos-Beispiel haben alle Kundendienstseiten ihren Ursprung zappos.com/c
, also fügen wir das als Präfix ein, um unsere Crawls auf eine kleinere und relevantere Teilmenge zu beschränken. Der Code zeigt, wie wir bis zu zwei Ebenen tief aufnehmen können. Die Lambda-Logik unseres Bots bleibt dieselbe, da sich nichts geändert hat, außer dass der Crawler mehr Dokumente aufnimmt.
Wir haben nun alle Dokumente indexiert und können eine detailliertere Frage stellen. Im folgenden Screenshot liefert unser Bot die richtige Antwort auf die Frage „Haben Sie eine Preisanpassungsrichtlinie?“
Wir haben jetzt eine vollständige Antwort auf unsere Frage zur Preisanpassung. Anstatt einfach nur zu sagen: „Ja, sehen Sie sich unsere Richtlinien an“, werden uns die Details aus dem Crawl der zweiten Ebene angezeigt.
Aufräumen
Um zukünftige Kosten zu vermeiden, löschen Sie alle Ressourcen, die im Rahmen dieser Übung bereitgestellt wurden. Wir haben ein Skript zum ordnungsgemäßen Herunterfahren des Sagemaker-Endpunkts bereitgestellt. Einzelheiten zur Nutzung finden Sie in der README-Datei. Darüber hinaus können Sie alle anderen Ressourcen entfernen, die Sie ausführen können cdk destroy
im selben Verzeichnis wie die anderen CDK-Befehle, um die Bereitstellung aller Ressourcen in Ihrem Stack aufzuheben.
Zusammenfassung
Durch die Möglichkeit, eine Reihe von häufig gestellten Fragen (FAQs) in einen Chatbot einzubinden, können Ihre Kunden die Antworten auf ihre Fragen mit unkomplizierten Abfragen in natürlicher Sprache finden. Durch die Kombination der in Amazon Lex integrierten Unterstützung für die Fallback-Verarbeitung mit einer RAG-Lösung wie einem LlamaIndex können wir unseren Kunden einen schnellen Weg bieten, zufriedenstellende, kuratierte und genehmigte Antworten auf häufig gestellte Fragen zu erhalten. Durch die Anwendung von N-Level-Crawling in unserer Lösung können wir Antworten ermöglichen, die sich möglicherweise über mehrere FAQ-Links erstrecken und tiefergehende Antworten auf die Fragen unserer Kunden liefern. Wenn Sie diese Schritte befolgen, können Sie leistungsstarke LLM-basierte Q&A-Funktionen und eine effiziente URL-Aufnahme nahtlos in Ihren Amazon Lex-Chatbot integrieren. Dies führt zu genaueren, umfassenderen und kontextbezogeneren Interaktionen mit Benutzern.
Über die Autoren
Max Henkel-Wallace ist Softwareentwicklungsingenieur bei AWS Lex. Es macht ihm Spaß, Technologie zu nutzen, um den Kundenerfolg zu maximieren. Außerhalb der Arbeit kocht er leidenschaftlich gerne, verbringt Zeit mit Freunden und reist mit dem Rucksack.
Lied Feng ist Senior Applied Scientist bei AWS AI Labs und auf die Verarbeitung natürlicher Sprache und künstliche Intelligenz spezialisiert. Ihre Forschung erforscht verschiedene Aspekte dieser Bereiche, darunter dokumentenbasierte Dialogmodellierung, Argumentation für aufgabenorientierte Dialoge und interaktive Textgenerierung unter Verwendung multimodaler Daten.
John Baker ist Principal SDE bei AWS, wo er an der Verarbeitung natürlicher Sprache, großen Sprachmodellen und anderen ML/KI-bezogenen Projekten arbeitet. Er ist seit über 9 Jahren bei Amazon und hat bei AWS, Alexa und Amazon.com gearbeitet. In seiner Freizeit fährt John gerne Ski und betreibt andere Outdoor-Aktivitäten im pazifischen Nordwesten.
- SEO-gestützte Content- und PR-Distribution. Holen Sie sich noch heute Verstärkung.
- PlatoData.Network Vertikale generative KI. Motiviere dich selbst. Hier zugreifen.
- PlatoAiStream. Web3-Intelligenz. Wissen verstärkt. Hier zugreifen.
- PlatoESG. Automobil / Elektrofahrzeuge, Kohlenstoff, CleanTech, Energie, Umwelt, Solar, Abfallwirtschaft. Hier zugreifen.
- BlockOffsets. Modernisierung des Eigentums an Umweltkompensationen. Hier zugreifen.
- Quelle: https://aws.amazon.com/blogs/machine-learning/enhance-amazon-lex-with-llms-and-improve-the-faq-experience-using-url-ingestion/
- :hast
- :Ist
- :nicht
- :Wo
- $UP
- 1
- 10
- 100
- 12
- 14
- 16
- 19
- 23
- 36
- 7
- 80
- a
- Fähigkeit
- Fähig
- LiveBuzz
- erreichen
- genau
- Erreichen
- Erreichen
- über
- Aktivitäten
- präsentieren
- Zusätzliche
- zusätzlich
- AI
- AI-powered
- Alexa
- Alle
- erlauben
- Zulassen
- erlaubt
- bereits
- ebenfalls
- Amazon
- Amazon Lex
- Amazon Web Services
- Amazon.com
- an
- Moderator
- und
- beantworten
- Antworten
- angewandt
- Anwendung
- Ansatz
- genehmigt
- SIND
- Kommt
- künstlich
- künstliche Intelligenz
- AS
- Aspekte
- At
- verfügbar
- vermeiden
- bewusst
- AWS
- Zurück
- Base
- basierend
- BE
- weil
- war
- beginnen
- Sein
- Besser
- Blog
- Körper
- Wander- und Outdoorschuhen
- bauen
- erbaut
- eingebaut
- Unternehmen
- by
- CAN
- Fähigkeiten
- Karten
- Häuser
- sicher
- Übernehmen
- geändert
- Chatbot
- Überprüfung
- Klasse
- Auftraggeber
- Menu
- Code
- COM
- Kombination
- Vereinigung
- Kommen
- gemeinsam
- abschließen
- umfassend
- Konsul (Console)
- KUNDEN
- enthalten
- Inhalt
- Inhalt
- Kontext
- Konversations
- verkaufen
- Umwandlung
- und beseitigen Muskelschwäche
- könnte
- Counter
- Crawler
- erstellen
- erstellt
- kuratiert
- Kunde
- Kundenservice
- Customer Success
- Kunden
- Zyklen
- technische Daten
- tief
- tiefer
- Standard
- Synergie
- Einsatz
- Tiefe
- detailliert
- Details
- Entwicklung
- Dialog
- digital
- Digitale Welt
- Direkt
- Dokument
- Unterlagen
- nach unten
- herunterladen
- Duplikate
- im
- e
- jeder
- leicht
- effizient
- sonst
- ermöglicht
- Ende
- Endpunkt
- Ingenieur
- zu steigern,
- Unternehmen
- Eintrag
- Event
- Beispiel
- Außer
- Ausnahme
- Training
- vorhandenen
- Kosten
- ERFAHRUNGEN
- erforscht
- FAQ
- Eigenschaften
- Felder
- Mappen
- Filter
- Finden Sie
- Vorname
- Folgende
- Aussichten für
- gefunden
- Freunde
- für
- Funktion
- Zukunft
- Generation
- bekommen
- einem Kind in Not
- Geschenkkarten
- ABSICHT
- gegeben
- gibt
- Go
- hätten
- Handling
- Haben
- he
- Überschriften
- hilfreich
- hier (auf dänisch)
- seine
- Ultraschall
- Hilfe
- aber
- HTML
- http
- HTTPS
- if
- importieren
- zu unterstützen,
- in
- das
- Dazu gehören
- Einschließlich
- Eingehende
- integrieren
- unabhängig
- Index
- indiziert
- Info
- Information
- innovativ
- Varianten des Eingangssignals:
- Anfragen
- Instanz
- beantragen müssen
- Intelligenz
- Absicht
- Interaktion
- Interaktionen
- interaktive
- in
- einführen
- IT
- SEINE
- Peter
- jpg
- JSON
- Wesentliche
- Wissen
- Labs
- Sprache
- grosse
- LERNEN
- Niveau
- Cholesterinspiegel
- Nutzung
- Gefällt mir
- LIMIT
- LINK
- verknüpft
- Links
- linux
- Liste
- Belastung
- Ladeprogramm
- aus einer regionalen
- örtlich
- Protokollierung
- Logik
- abgestimmt
- Abstimmung
- Maximieren
- bedeuten
- Mittel
- Nachricht
- Nachrichten
- Modellieren
- für
- mehr
- vor allem warme
- mehrere
- Name
- Natürliche
- Verarbeitung natürlicher Sprache
- Need
- weiter
- nichts
- jetzt an
- Anzahl
- Objekte
- of
- bieten
- on
- EINEM
- einzige
- or
- OS
- Andere
- UNSERE
- aussen
- besitzen
- Pazifik
- Seite
- Seiten
- Teil
- leidenschaftlich
- Weg
- Schnittmuster
- Plato
- Datenintelligenz von Plato
- PlatoData
- Bitte
- Datenschutzrichtlinien
- gegebenenfalls
- Post
- angetriebene
- größte treibende
- verhindern
- Preis
- Principal
- Probleme
- Prozessdefinierung
- Verarbeitung
- Projekte
- die
- vorausgesetzt
- Anbieter
- bietet
- veröffentlicht
- Abfragen
- Frage
- Fragen
- Direkt
- schnell
- erhöhen
- lieber
- RE
- erreichen
- Leser
- realen Welt
- bezogene
- relevant
- bleibt bestehen
- entfernen
- Quelle
- Anforderung
- Zugriffe
- erfordern
- Forschungsprojekte
- Downloads
- Antwort
- Antworten
- eine Beschränkung
- was zu
- Die Ergebnisse
- Rückkehr
- Rückgabe
- Wurzel
- Straße
- Führen Sie
- s
- sagemaker
- gleich
- Wissenschaftler
- nahtlos
- Suche
- Abschnitt
- sehen
- SELF
- Senior
- Dienstleister
- Lösungen
- kompensieren
- Short
- gezeigt
- Konzerte
- schließen
- Einfacher
- einfach
- Single
- am Standort
- Seiten
- Slots
- kleinere
- So
- Software
- Software-Entwicklung
- Lösung
- LÖSEN
- einige
- Jemand,
- Quellen
- Spannweite
- spezialisieren
- spezifisch
- Ausgabe
- Stapel
- Anfang
- Schritt
- Shritte
- Lagerung
- speichern
- gelagert
- Läden
- einfach
- Erfolg
- so
- Support
- SYS
- Nehmen
- Einnahme
- Technologie
- Test
- als
- zur Verbesserung der Gesundheitsgerechtigkeit
- Das
- die Informationen
- ihr
- Sie
- dann
- Diese
- fehlen uns die Worte.
- diejenigen
- während
- Zeit
- betitelt
- zu
- heutigen
- gemeinsam
- Werkzeug
- behandeln
- was immer dies auch sein sollte.
- versuchen
- XNUMX
- tippe
- URL
- us
- Anwendungsbereich
- -
- benutzt
- Mitglied
- Nutzer
- verwendet
- Verwendung von
- verschiedene
- Besuchen Sie
- besucht
- wollen
- wurde
- we
- Netz
- Web-Services
- Webseite
- GUT
- waren
- wann
- sobald
- welche
- werden wir
- mit
- Word
- Arbeiten
- zusammenarbeiten
- gearbeitet
- Arbeitsablauf.
- arbeiten,
- Werk
- weltweit wie ausgehandelt und gekauft ausgeführt wird.
- würde
- geschrieben
- X11
- Jahr
- Du
- Ihr
- Zephyrnet