これは、Kustomer のシニア ソフトウェア & 機械学習エンジニアである Ian Lantsy、AWS チームの Umesh Kalaspurkar、Prasad Shetty、Jonathan Greifenberger によるゲスト投稿です。
カストーマー自身の言葉では、 「Kustomer は、優れたエクスペリエンスを提供するためにエンタープライズ顧客サービスを再考したオムニチャネル SaaS CRM プラットフォームです。 インテリジェントな自動化によって構築された当社は、複数のソースからのデータを統合し、企業が単一のタイムライン ビューを通じて簡単で一貫性のあるパーソナライズされたサービスとサポートを提供できるようにすることで、あらゆるコンタクト センターやビジネスのニーズを満たすように拡張します。」
Kustomer は、企業顧客 (カスタマー エクスペリエンスおよびサービス組織) 向けの大量のサポート コミュニケーションを迅速に分析し、エンド顧客の意図、顧客サービスの問題、消費者に関連するその他の関連洞察などの情報の検出を自動化する機能を望んでいました。 これらの特性を理解すると、CX 組織はコンテンツを自動的に分類して分類することで、数千件の受信サポート メールを管理するのに役立ちます。 顧客の活用 アマゾンセージメーカー AI ベースで受信したサポート コミュニケーションの分析を管理する 顧客IQ プラットホーム。 Kustomer IQ の会話分類サービスは、会話の状況を把握し、退屈で反復的なタスクを自動化することで、エージェントの気を散らし、コンタクトごとの全体的なコストを削減できます。 このサービスと Kustomer の他の IQ サービスにより、企業顧客の生産性と自動化が向上しました。
この投稿では、Kustomer が SageMaker のトレーニングと推論にカスタム Docker イメージを使用して、統合を容易にし、プロセスを合理化する方法について説明します。 このアプローチにより、Kustomer の企業顧客は毎月 50 件を超えるサポート メールを最大 70% の精度で自動的に分類しています。
背景と課題
Kustomer は、会話分類サービスにカスタム テキスト分類パイプラインを使用しています。 これにより、SageMaker のトレーニングと推論オーケストレーションを利用した自動分類と分類により、XNUMX 日に何千ものリクエストを管理することができます。 会話分類トレーニング エンジンは、カスタム Docker イメージを使用してデータを処理し、過去の会話を使用してモデルをトレーニングし、会話を分類するために特定のエージェントが必要とするトピック、カテゴリ、またはその他のカスタム ラベルを予測します。 次に、予測エンジンは、トレーニングされたモデルと別のカスタム Docker イメージを利用して会話を分類します。組織はこれを使用して、レポートを自動化したり、トピックに基づいて会話を特定のチームにルーティングしたりします。
SageMaker の分類プロセスは、テキストの分類と状況に応じた推奨事項を提供できるトレーニングと推論のパイプラインを確立することから始まります。 一般的なセットアップは、次のようなサーバーレス アプローチで実装されます。 AWSラムダ 効果的なオンデマンド価格モデルを備えた最小限のプロビジョニング要件があるため、データの前処理と後処理に最適です。 ただし、TensorFlow、NumPy、Pandas などの依存関係を持つ SageMaker を使用すると、モデル パッケージのサイズがすぐに大きくなり、全体的なデプロイメント プロセスが煩雑で管理が難しくなる可能性があります。 Kustomer はカスタム Docker イメージを使用してこれらの課題を克服しました。
カスタム Docker イメージには、次のような大きな利点があります。
- TensorFlow、MXNet、PyTorch などの一般的な機械学習 (ML) フレームワークを含めることができる、より大きな圧縮パッケージ サイズ (10 GB 以上) が可能です。
- ローカルで開発されたカスタム コードまたはアルゴリズムを外部に持ち込むことができます。 Amazon SageMakerスタジオ 迅速な反復とモデルのトレーニングのためのノートブック。
- デプロイメントパッケージを解凍する際に Lambda で発生する前処理の遅延を回避します。
- 内部システムとシームレスに統合できる柔軟性を提供します。
- 将来の互換性とスケーラビリティにより、.zip ファイルを Lambda 関数にパッケージ化する必要がなく、Docker を使用してサービスを変換することが容易になります。
- CI/CD デプロイメント パイプラインの所要時間を短縮します。
- チーム内で Docker を使いやすくし、使いやすくします。
- API およびバックエンド ランタイムを介してデータ ストアへのアクセスを提供します。
- Lambda がプロセスごとに個別のコンピューティング サービス (トレーニングやデプロイメントなど) を必要とする前処理または後処理の介入に対するサポートが向上しました。
ソリューションの概要
サポート電子メールの分類とラベル付けは、カスタマー サポート プロセスにおける重要なステップです。 これにより、企業は会話を適切なチームにルーティングし、顧客が何について問い合わせているのかを高いレベルで理解できるようになります。 Kustomer の企業顧客は毎日何千もの会話を処理しているため、大規模な分類は困難です。 このプロセスを自動化することで、エージェントはより効果的になり、より一貫性のあるサポートを提供できるようになり、顧客を適切な担当者に迅速につなぐことができるようになります。
会話分類プロセスは、企業顧客が Kustomer に、テキスト分類と状況に応じた推奨事項を支援できるトレーニングと推論パイプラインを設定する許可を与えることから始まります。 Kustomer は、トレーニングと推論のプロセスを監視するためのユーザー インターフェイスを顧客に公開しています。これは、SageMaker と TensorFlow モデルおよびカスタム Docker イメージを使用して実装されています。 分類器を構築して利用するプロセスは XNUMX つの主要なワークフローに分割されており、それらは上で実行されるワーカー サービスによって調整されます。 アマゾンECS。 パイプライン イベントを調整し、モデルのトレーニングとデプロイメントをトリガーするために、ワーカーは アマゾンSQS キューに追加され、AWS が提供する Node.js SDK を使用して SageMaker と直接統合されます。 ワークフローは次のとおりです。
- データのエクスポート
- データ前処理
- トレーニング
- 展開
- 推論
データのエクスポート
データ エクスポート プロセスはオンデマンドで実行され、分析のための電子メール データの使用を確認するための Kustomer の法人顧客からの承認プロセスから始まります。 分類プロセスに関連するデータは、エンド顧客から受け取った最初の電子メールを介して取得されます。 たとえば、サポート電子メールには通常、問題に関する完全に一貫した考えと、問題に関する詳細が含まれています。 エクスポート プロセスの一環として、電子メールはデータ ストア (MongoDB と AmazonOpenSearch) に保存されました Amazon シンプル ストレージ サービス (Amazon S3)。
データ前処理
データの前処理ステージでは、顧客の電子メールから HTML タグを削除し、複数のクリーニングとサニタイズ ステップを経て不正な HTML を検出することで、トレーニングと推論のワークフロー用にデータセットをクリーンアップします。 このプロセスには、 ハグフェイストークナイザーとトランスフォーマー。 クレンジング プロセスが完了すると、トレーニングに必要な追加のカスタム トークンが出力データセットに追加されます。
前処理段階で、Lambda 関数はカスタム Docker イメージを呼び出します。 このイメージは、Python 3.8 スリム ベースで構成されています。 AWS Lambda Python ランタイム インターフェイス クライアント、および次のような依存関係 NumPy & パンダ。 カスタム Docker イメージは次の場所に保存されます。 Amazon エラスティック コンテナ レジストリ (Amazon ECR) をデプロイするために CI/CD パイプラインを通じて供給されます。 デプロイされた Lambda 関数はデータをサンプリングして、分類子ごとに XNUMX つの異なるデータセットを生成します。
- トレーニング – 実際のトレーニングプロセスに使用されます
- 検証 – TensorFlow トレーニング プロセス中の検証に使用されます
- ホイール試乗 – メトリクス モデルの比較のためにトレーニング プロセスの終わりに使用されます。
生成された出力データセットは Pandas pickle ファイルであり、トレーニング段階で使用されるために Amazon S3 に保存されます。
トレーニング
Kustomer のカスタム トレーニング イメージは TensorFlow 2.7 GPU に最適化された Docker を利用しています 画像 ベースとして。 カスタム コード、依存関係、およびベース モデルは、カスタム Docker トレーニング イメージが ECR にアップロードされる前に組み込まれます。 P3 インスタンス タイプはトレーニング プロセスに使用され、GPU に最適化されたベース イメージを使用すると、トレーニング プロセスを可能な限り効率的に行うことができます。 Amazon SageMaker はこのカスタム Docker イメージとともに使用され、TensorFlow モデルをトレーニングし、S3 に保存されます。 カスタム メトリクスも計算され、保存され、モデルの比較や自動再トレーニングなどの追加機能に役立ちます。 トレーニング段階が完了すると、AI ワーカーに通知が届き、企業顧客は導入ワークフローを開始できるようになります。
展開
デプロイメント ワークフローでは、TensorFlow サービングベース イメージ (高速推論用に特別に構築されたもの) を使用して、カスタム Docker 推論イメージが作成されます。 推論前の入力のフォーマットとクリーニングなどの追加機能を提供するために、numPy、Pandas、カスタム NL などの追加のコードと依存関係が含まれています。 FastAPI もカスタム イメージの一部として含まれており、推論とヘルス チェック用の REST API エンドポイントを提供するために使用されます。 次に、SageMaker は、推論イメージとともに S3 に保存された TensorFlow モデルをコンピューティングが最適化された ml.c5 AWS インスタンスにデプロイして、高性能の推論エンドポイントを生成するように構成されます。 各エンドポイントは、単一の顧客がモデルとデータを分離するために使用するために作成されます。
推論
導入ワークフローが完了すると、推論ワークフローが引き継ぎます。 最初に受信するすべてのサポート電子メールは、その顧客に固有のデプロイされた分類子の推論 API を介して渡されます。 次に、展開された分類子はこれらの各電子メールに対してテキスト分類を実行し、それぞれが顧客用の分類ラベルを生成します。
可能な機能強化とカスタマイズ
Kustomer は、次の機能強化によりソリューションを拡張することを検討しています。
- 顔のDLCを抱き締める – Kustomer は現在、データ前処理段階で TensorFlow のベース Docker イメージを使用しており、次のバージョンに移行する予定です。 ハグフェイスディープラーニングコンテナ(DLC)。 これにより、トレーニング環境を最初から構築して最適化する複雑なプロセスを省略して、モデルのトレーニングをすぐに開始できます。 詳細については、「」を参照してください。 AmazonSageMakerで顔を抱き締める.
- フィードバックループ – アクティブ ラーニングまたは強化学習手法を使用してフィードバック ループを実装し、モデルの全体的な効率を向上させることができます。
- 他の社内システムとの統合 – Kustomer は、テキスト分類を Smart Suggestions などの他のシステムと統合する機能を望んでいます。Smart Suggestions は、何百ものショートカットを調べて、顧客のクエリに最も関連性の高いショートカットを提案する別の Kustomer IQ サービスであり、エージェントの応答時間とパフォーマンスを向上させます。
まとめ
この投稿では、Kustomer が SageMaker のトレーニングと推論にカスタム Docker イメージを使用して、統合を容易にし、プロセスを合理化する方法について説明しました。 Kustomer がカスタム Docker イメージを使用して Lambda と SageMaker を活用し、前処理および後処理ワークフローによるテキスト分類プロセスの実装を支援する方法を実証しました。 これにより、モデルの作成、トレーニング、推論に大きな画像を使用する柔軟性が得られます。 Lambda のコンテナ イメージのサポートにより、関数をさらにカスタマイズできるようになり、サーバーレス ML の多くの新しいユースケースが開かれます。 このソリューションは、SageMaker、Lambda、Docker イメージ、Amazon ECR、Amazon ECS、Amazon SQS、Amazon S3 などのいくつかの AWS サービスを利用します。
Kustomer についてさらに詳しく知りたい場合は、次のサイトにアクセスすることをお勧めします。 カスタマーウェブサイト そして彼らの ケーススタディ。
クリック こちら Amazon SageMaker を使って旅を始めましょう。 実際の体験については、Amazon SageMaker を参照してください。 ワークショップ。
著者について
ウメッシュ・カラスプルカル は、ニューヨークを拠点とする AWS のソリューション アーキテクトです。 彼は、企業や新興企業にわたるデジタル イノベーションと変革プロジェクトの設計と実施において 20 年以上の経験を持っています。 彼のモチベーションは、顧客が課題を特定して克服できるよう支援することにあります。 仕事以外では、ウメッシュは父親であること、スキー、旅行を楽しんでいます。
イアン・ランツィー Kustomer のシニア ソフトウェア & 機械学習エンジニアであり、機械学習の研究タスクを取得して実稼働サービスに変換することを専門としています。
プラサドシェティ ボストンを拠点とする AWS のソリューションアーキテクトです。 彼は 20 年以上にわたり、ソフトウェア製品を構築し、企業全体の製品とサービスの最新化とデジタル革新を主導してきました。 彼は、クラウド戦略と導入を推進し、テクノロジーを活用して優れた顧客エクスペリエンスを生み出すことに情熱を注いでいます。 プラサドさんは余暇にはサイクリングや旅行を楽しんでいます。
ジョナサン・グライフェンバーガー は、ニューヨークを拠点とする AWS のシニア アカウント マネージャーであり、IT 業界で 25 年の経験があります。 ジョナサンは、さまざまな業界や業種のクライアントのクラウド導入とモダナイゼーションの取り組みを支援するチームを率いています。
- "
- &
- 100
- 20年
- 7
- 私たちについて
- アクセス
- 越えて
- アクティブ
- NEW
- 養子縁組
- 利点
- 利点
- エージェント
- AI
- アルゴリズム
- すべて
- Amazon
- 分析
- 別の
- API
- API
- アプローチ
- 建築
- オートメーション
- AWS
- さ
- ビルド
- 建物
- ビジネス
- 機能
- 例
- 生じました
- 挑戦する
- 課題
- 小切手
- 分類
- クリーニング
- クラウド
- コード
- 通信部
- 企業
- 計算
- consumer
- コンテナ
- コンテナ
- 含まれています
- コンテンツ
- 会話
- 会話
- 顧客満足体験
- 顧客サービス
- カスタマーサービス
- Customers
- データ
- 中
- 遅延
- 配達
- 需要
- 展開
- 設計
- 発展した
- デジタル
- 発見
- デッカー
- 運転
- 効果的な
- 効率
- 有効にする
- 奨励する
- エンドポイント
- エンジニア
- Enterprise
- イベント
- 例
- 拡大
- 体験
- エクスペリエンス
- 顔
- スピーディー
- FRBは
- フィードバック
- 名
- 柔軟性
- フォロー中
- function
- 機能性
- 生成する
- 与え
- GPU
- 素晴らしい
- ゲスト
- ゲストのポスト
- 持って
- 健康
- 助けます
- ことができます
- ハイ
- 認定条件
- HTTPS
- 何百
- 識別する
- 画像
- 実装する
- 実装
- 含まれました
- 含めて
- 増える
- 増加した
- 産業
- 産業を変えます
- 情報
- 革新的手法
- 洞察
- 統合する
- 統合
- インテリジェント-
- 意図
- インタフェース
- 問題
- IT
- ラベリング
- ラベル
- 大
- より大きい
- LEARN
- 学習
- ツェッペリン
- レベル
- レバレッジ
- 局部的に
- 機械
- 機械学習
- 作成
- マネージャー
- メトリック
- ML
- モデル
- MongoDBの
- 最も
- ニューヨーク
- 編成
- 注文
- 組織
- その他
- さもないと
- のワークプ
- パフォーマンス
- プラットフォーム
- 人気
- 可能
- 予測
- 価格設定
- 問題
- プロセス
- プロダクト
- 生産
- 生産性
- 製品
- プロジェクト(実績作品)
- 提供します
- は、大阪で
- すぐに
- 縮小
- 必要とする
- の提出が必要です
- 研究
- 応答
- REST
- ルート
- ラン
- ランニング
- スケーラビリティ
- 規模
- SDDK
- サーバレス
- サービス
- サービス
- サービング
- セッションに
- 簡単な拡張で
- サイズ
- スマート
- So
- ソフトウェア
- ソリューション
- 専門にする
- 特に
- split
- ステージ
- start
- スタートアップ
- ストレージ利用料
- 店舗
- 店舗
- 戦略
- ストリッピング
- 研究
- かなりの
- サポート
- システム
- Talk
- タスク
- チーム
- テクニック
- テクノロジー
- 数千
- 介して
- 時間
- トークン
- トピック
- トレーニング
- 変換
- わかる
- 詳しく見る
- この試験は
- 以内
- 言葉
- 仕事
- 年