Це гостьовий допис старшого інженера з програмного забезпечення та машинного навчання Kustomer, Яна Ланці та команди AWS Умеша Каласпуркара, Прасада Шетті та Джонатана Грайфенбергера.
За словами Кустомера, «Kustomer — це багатоканальна платформа SaaS CRM, яка переосмислює корпоративне обслуговування клієнтів, щоб забезпечити винятковий досвід. Створені за допомогою інтелектуальної автоматизації, ми масштабуємося, щоб задовольнити потреби будь-якого контакт-центру та бізнесу, об’єднуючи дані з багатьох джерел і дозволяючи компаніям надавати легкі, послідовні та персоналізовані послуги та підтримку за допомогою єдиного перегляду графіка».
Компанія Kustomer хотіла мати можливість швидко аналізувати великі обсяги повідомлень служби підтримки для своїх бізнес-клієнтів — взаємодію з клієнтами та сервісні організації — і автоматизувати виявлення такої інформації, як наміри кінцевого клієнта, проблеми з обслуговуванням клієнтів та інші відповідні відомості, пов’язані зі споживачем. Розуміння цих характеристик може допомогти організаціям CX керувати тисячами вхідних електронних листів підтримки шляхом автоматичної класифікації та категоризації вмісту. Важелі клієнта Amazon SageMaker керувати аналізом вхідних повідомлень служби підтримки за допомогою штучного інтелекту Кустомер IQ платформа. Служба класифікації розмов Kustomer IQ здатна контекстуалізувати розмови та автоматизувати втомливі та повторювані завдання, зменшуючи відволікання агента та загальну вартість контакту. Ця та інші послуги Kustomer IQ підвищили продуктивність і автоматизацію для бізнес-клієнтів.
У цій публікації ми розповідаємо про те, як Kustomer використовує спеціальні зображення Docker для навчання SageMaker і висновків, що полегшує інтеграцію та спрощує процес. Завдяки такому підходу бізнес-клієнти Kustomer автоматично класифікують понад 50 тисяч листів підтримки щомісяця з точністю до 70%.
Передумови та виклики
Kustomer використовує спеціальний конвеєр класифікації тексту для своєї служби класифікації розмов. Це допомагає їм керувати тисячами запитів на день за допомогою автоматичної класифікації та категоризації з використанням навчання SageMaker і оркестровки висновків. Механізм навчання класифікації розмов використовує власні зображення Docker для обробки даних і навчання моделей на основі історичних розмов, а потім передбачає теми, категорії чи інші спеціальні мітки, потрібні конкретному агенту для класифікації розмов. Потім механізм прогнозування використовує навчені моделі з іншим користувацьким образом докера для категоризації розмов, які організації використовують для автоматизації звітів або направлення розмов до певної команди на основі її теми.
Процес категоризації SageMaker починається зі встановлення конвеєра навчання та висновків, який може забезпечити класифікацію тексту та контекстні рекомендації. Типове налаштування буде реалізовано за допомогою безсерверних підходів, таких як AWS Lambda для попередньої та постобробки даних, оскільки він має мінімальні вимоги до забезпечення з ефективною моделлю ціноутворення на вимогу. Однак використання SageMaker із такими залежностями, як TensorFlow, NumPy і Pandas, може швидко збільшити розмір пакета моделі, що робить загальний процес розгортання громіздким і складним для керування. Щоб подолати ці проблеми, Kustomer використовував власні образи Docker.
Користувацькі зображення Docker надають значні переваги:
- Дозволяє більші розміри стиснутих пакетів (понад 10 ГБ), які можуть містити популярні фреймворки машинного навчання (ML), такі як TensorFlow, MXNet, PyTorch тощо.
- Дозволяє використовувати спеціальний код або алгоритми, розроблені локально Студія Amazon SageMaker зошити для швидкої ітерації та моделювання.
- Уникає затримок попередньої обробки, викликаних Lambda під час розпакування пакетів розгортання.
- Пропонує гнучкість для плавної інтеграції з внутрішніми системами.
- Майбутня сумісність і масштабованість спрощують конвертацію служби за допомогою Docker замість того, щоб пакувати файли .zip у функції Lambda.
- Скорочує час виконання конвеєра розгортання CI/CD.
- Забезпечує знайомство Docker в команді та простоту використання.
- Надає доступ до сховищ даних через API та серверне середовище виконання.
- Пропонує кращу підтримку для втручання в будь-яку попередню або постобробку, для якої Lambda потребувала б окремої обчислювальної служби для кожного процесу (наприклад, навчання чи розгортання).
Огляд рішення
Категоризація та маркування електронних листів служби підтримки є важливим кроком у процесі підтримки клієнтів. Це дозволяє компаніям направляти розмови до потрібних команд і на високому рівні розуміти, з приводу чого до них звертаються клієнти. Бізнес-клієнти Kustomer обробляють тисячі розмов щодня, тому класифікація в масштабі є проблемою. Автоматизація цього процесу допомагає агентам бути ефективнішими та надавати більш згуртовану підтримку, а також допомагає своїм клієнтам, швидше з’єднуючи їх із потрібними людьми.
Наступна діаграма ілюструє архітектуру рішення:
Процес класифікації розмови починається з того, що бізнес-клієнт надає Kustomer дозвіл на встановлення конвеєра навчання та висновків, який може допомогти йому з класифікацією тексту та контекстними рекомендаціями. Kustomer надає своїм клієнтам інтерфейс користувача для моніторингу процесу навчання та висновків, який реалізується за допомогою SageMaker разом із моделями TensorFlow і користувацькими зображеннями Docker. Процес побудови та використання класифікатора розділений на п’ять основних робочих процесів, які координуються робочою службою, що працює на Amazon ECS. Щоб координувати конвеєрні події та ініціювати навчання та розгортання моделі, працівник використовує an Amazon SQS черги та безпосередньо інтегрується з SageMaker за допомогою наданого AWS Node.js SDK. Робочі процеси такі:
- Експорт даних
- Попередня обробка даних
- Навчання
- розгортання
- Висновок
Експорт даних
Процес експорту даних виконується за запитом і починається з процесу схвалення бізнес-клієнтом Kustomer для підтвердження використання даних електронної пошти для аналізу. Дані, що мають відношення до процесу класифікації, збираються через початковий електронний лист, отриманий від кінцевого клієнта. Наприклад, електронний лист служби підтримки зазвичай містить повну послідовну думку про проблему з докладними відомостями про проблему. У рамках процесу експорту електронні листи збираються зі сховища даних (MongoDB та Amazon OpenSearch) і збережено в Служба простого зберігання Amazon (Amazon S3).
Попередня обробка даних
Етап попередньої обробки даних очищає набір даних для навчання та робочих процесів висновків, видаляючи будь-які HTML-теги з електронних листів клієнтів і пропускаючи їх на кілька етапів очищення та дезінфекції, щоб виявити будь-який неправильний HTML. Цей процес включає використання Токенайзери та трансформери Hugging Face. Після завершення процесу очищення до вихідного набору даних додаються додаткові користувацькі маркери, необхідні для навчання.
На етапі попередньої обробки функція Lambda викликає спеціальне зображення Docker. Це зображення складається з тонкої основи Python 3.8 Клієнт інтерфейсу середовища виконання AWS Lambda Pythonі такі залежності, як numpy та Панди. Користувацький образ Docker зберігається на Реєстр контейнерів Amazon Elastic (Amazon ECR), а потім подається через конвеєр CI/CD для розгортання. Розгорнута функція Lambda відбирає дані для створення трьох різних наборів даних для кожного класифікатора:
- Навчання – Використовується для реального навчального процесу
- Перевірка – Використовується для перевірки під час процесу навчання TensorFlow
- Тест – Використовується наприкінці процесу навчання для порівняння моделі показників
Згенеровані вихідні набори даних є файлами Pandas pickle, які зберігаються в Amazon S3 для використання на етапі навчання.
Навчання
Спеціальне навчальне зображення Kustomer використовує оптимізовану для графічного процесора докерну панель TensorFlow 2.7 зображення як основа. Спеціальний код, залежності та базові моделі додаються до того, як настроюване навчальне зображення докерів буде завантажено в ECR. Типи екземплярів P3 використовуються для процесу навчання, а використання оптимізованого базового зображення GPU допомагає зробити процес навчання максимально ефективним. Amazon SageMaker використовується з цим власним образом докера для навчання моделей TensorFlow, які потім зберігаються в S3. Спеціальні показники також обчислюються та зберігаються, щоб допомогти з додатковими можливостями, такими як порівняння моделей і автоматичне перенавчання. Після завершення етапу навчання працівник ШІ отримує сповіщення, і бізнес-клієнт може розпочати робочий процес розгортання.
розгортання
Для робочого процесу розгортання власне зображення докерів створюється за допомогою базового образу обслуговування TensorFlow (створеного спеціально для швидкого висновку). Додатковий код і залежності, як-от numPy, Pandas, користувацька NL тощо, включені для надання додаткових функцій, таких як форматування та очищення вхідних даних перед висновком. FastAPI також включено як частину спеціального образу та використовується для надання кінцевих точок REST API для висновків і перевірок справності. Потім SageMaker налаштовано для розгортання моделей TensorFlow, збережених у S3 із зображенням висновку, на оптимізованих для обчислень екземплярах ml.c5 AWS для створення високопродуктивних кінцевих точок висновку. Кожна кінцева точка створюється для використання одним клієнтом для ізоляції своїх моделей і даних.
Висновок
Коли робочий процес розгортання завершено, робочий процес висновків бере на себе роботу. Усі перші вхідні електронні листи підтримки передаються через API висновків для розгорнутих класифікаторів, специфічних для цього клієнта. Розгорнуті класифікатори потім виконують класифікацію тексту для кожного з цих електронних листів, кожен з яких генерує класифікаційні мітки для клієнта.
Можливі вдосконалення та налаштування
Kustomer розглядає можливість розширення рішення за допомогою таких удосконалень:
- DLC «Обіймати обличчя». – Зараз Kustomer використовує базові зображення Docker TensorFlow для етапу попередньої обробки даних і планує перейти на Обійми обличчя глибокими навчальними контейнерами (DLC). Це допоможе вам негайно розпочати навчальні моделі, пропускаючи складний процес побудови й оптимізації навчальних середовищ з нуля. Для отримання додаткової інформації див Обіймає обличчя на Amazon SageMaker.
- Петля зворотного зв'язку – Ви можете реалізувати цикл зворотного зв’язку, використовуючи методи активного навчання або навчання з підкріпленням, щоб підвищити загальну ефективність моделі.
- Інтеграція з іншими внутрішніми системами – Kustomer хоче мати можливість інтегрувати класифікацію тексту з іншими системами, такими як Smart Suggestions, яка є ще однією службою Kustomer IQ, яка переглядає сотні ярликів і пропонує ярлики, які найбільше відповідають запиту клієнта, покращуючи час відповіді агента та продуктивність.
Висновок
У цій публікації ми обговорили, як Kustomer використовує власні зображення Docker для навчання SageMaker і висновків, що полегшує інтеграцію та спрощує процес. Ми продемонстрували, як Kustomer використовує Lambda та SageMaker за допомогою спеціальних зображень Docker, які допомагають реалізувати процес класифікації тексту з робочими процесами попередньої та постобробки. Це забезпечує гнучкість використання більших зображень для створення моделі, навчання та висновків. Підтримка образів контейнерів для Lambda дозволяє ще більше налаштувати вашу функцію, відкриваючи багато нових випадків використання безсерверного ML. Рішення використовує переваги кількох служб AWS, зокрема SageMaker, Lambda, Docker images, Amazon ECR, Amazon ECS, Amazon SQS і Amazon S3.
Якщо ви хочете дізнатися більше про Kustomer, радимо вам відвідати Сайт Kustomer і досліджувати їх тематичні дослідження.
Натисніть тут щоб розпочати свою подорож із Amazon SageMaker. Щоб отримати практичний досвід, ви можете звернутися до Amazon SageMaker майстерня.
Про авторів
Умеш Каласпуркар є нью-йоркським архітектором рішень для AWS. Він має понад 20 років досвіду в розробці та реалізації проектів цифрових інновацій і трансформації на підприємствах і стартапах. Його мотивує допомога клієнтам у визначенні та подоланні проблем. Крім роботи, Умеш любить бути батьком, кататися на лижах і подорожувати.
Ян Ланці є старшим інженером із програмного забезпечення та машинного навчання компанії Kustomer і спеціалізується на виконанні дослідницьких завдань машинного навчання та перетворенні їх у виробничі послуги.
Прасад Шетті є бостонським архітектором рішень для AWS. Він створював програмні продукти та керував модернізацією та цифровими інноваціями в продуктах і послугах на підприємствах протягом понад 20 років. Він захоплений розробкою та впровадженням хмарної стратегії, а також використанням технологій для створення чудового досвіду для клієнтів. У вільний час Прасад любить кататися на велосипеді та подорожувати.
Джонатан Грайфенбергер є старшим менеджером з роботи з клієнтами AWS у Нью-Йорку з 25-річним досвідом роботи в галузі ІТ. Джонатан очолює команду, яка допомагає клієнтам із різних галузей і галузей на шляху впровадження та модернізації хмарних технологій.
- Coinsmart. Найкраща в Європі біржа біткойн та криптовалют.
- Платоблокчейн. Web3 Metaverse Intelligence. Розширені знання. БЕЗКОШТОВНИЙ ДОСТУП.
- CryptoHawk. Альткойн Радар. Безкоштовне випробування.
- Джерело: https://aws.amazon.com/blogs/machine-learning/how-kustomer-utilizes-custom-docker-images-amazon-sagemaker-to-build-a-text-classification-pipeline/
- "
- &
- 100
- 20 роки
- 7
- МЕНЮ
- доступ
- рахунки
- через
- активний
- Додатковий
- Прийняття
- Перевага
- Переваги
- агенти
- AI
- алгоритми
- ВСІ
- Amazon
- аналіз
- Інший
- API
- Інтерфейси
- підхід
- архітектура
- Автоматизація
- AWS
- буття
- будувати
- Створюємо
- бізнес
- можливості
- випадків
- викликаний
- виклик
- проблеми
- Перевірки
- класифікація
- Очищення
- хмара
- код
- зв'язку
- Компанії
- обчислення
- споживач
- Контейнер
- Контейнери
- містить
- зміст
- Розмова
- розмови
- Досвід клієнтів
- Контакти
- підтримка клієнтів
- Клієнти
- дані
- день
- затримки
- доставка
- Попит
- розгортання
- дизайн
- розвиненою
- цифровий
- відкриття
- Docker
- водіння
- Ефективний
- ефективність
- дозволяє
- заохочувати
- Кінцева точка
- інженер
- підприємство
- Події
- приклад
- розширюється
- досвід
- Досліди
- Особа
- ШВИДКО
- Fed
- зворотний зв'язок
- Перший
- Гнучкість
- після
- функція
- функціональність
- породжувати
- дає
- GPU
- великий
- гість
- Guest Post
- має
- здоров'я
- допомога
- допомагає
- Високий
- Як
- HTTPS
- Сотні
- ідентифікувати
- зображення
- здійснювати
- реалізовані
- включені
- У тому числі
- Augmenter
- збільшений
- промисловості
- промисловість
- інформація
- інновація
- розуміння
- інтегрувати
- інтеграція
- Розумний
- намір
- інтерфейс
- питання
- IT
- маркування
- етикетки
- великий
- більше
- УЧИТЬСЯ
- вивчення
- Led
- рівень
- важелі
- локально
- машина
- навчання за допомогою машини
- Робить
- менеджер
- Метрика
- ML
- модель
- Моделі
- MongoDB
- найбільш
- Нью-Йорк
- оркестровка
- порядок
- організації
- Інше
- інакше
- Люди
- продуктивність
- платформа
- популярний
- це можливо
- прогноз
- ціни без прихованих комісій
- Проблема
- процес
- Product
- Production
- продуктивність
- Продукти
- проектів
- забезпечувати
- забезпечує
- швидко
- зниження
- вимагати
- вимагається
- дослідження
- відповідь
- REST
- Маршрут
- прогін
- біг
- масштабованість
- шкала
- Sdk
- Без сервера
- обслуговування
- Послуги
- виступаючої
- комплект
- простий
- Розмір
- розумний
- So
- Софтвер
- Рішення
- спеціалізується
- конкретно
- розкол
- Стажування
- старт
- Стартапи
- зберігання
- зберігати
- магазинів
- Стратегія
- знімання
- Дослідження
- істотний
- підтримка
- Systems
- балаканина
- завдання
- команда
- методи
- Технологія
- тисячі
- через
- час
- Жетони
- теми
- Навчання
- Перетворення
- розуміти
- вид
- Що
- в
- слова
- Work
- років