Покращте продуктивність генеративних мовних моделей за допомогою самоузгоджених підказок на Amazon Bedrock | Веб-сервіси Amazon

Покращте продуктивність генеративних мовних моделей за допомогою самоузгоджених підказок на Amazon Bedrock | Веб-сервіси Amazon

Моделі генеративної мови виявилися надзвичайно вправними у вирішенні завдань логічної та аналітичної обробки природної мови (NLP). Крім того, використання оперативне проектування можуть значно підвищити їх продуктивність. Наприклад, ланцюг думок (CoT), як відомо, покращує здатність моделі розв’язувати складні багатокрокові проблеми. Щоб додатково підвищити точність завдань, які включають міркування, a самоузгодженість Було запропоновано підхід підказки, який замінює жадібне на стохастичне декодування під час генерації мови.

Amazon Bedrock це повністю керований сервіс, який пропонує вибір високопродуктивних базових моделей від провідних компаній штучного інтелекту та Amazon через єдиний API, а також широкий набір можливостей для створення генеративний ШІ програми з безпекою, конфіденційністю та відповідальним ШІ. З пакетний висновок API, ви можете використовувати Amazon Bedrock, щоб виконувати висновки з базовими моделями в пакетах і отримувати відповіді більш ефективно. У цьому дописі показано, як реалізувати підказки самоузгодженості за допомогою пакетного висновку на Amazon Bedrock, щоб підвищити продуктивність моделі в арифметичних завданнях і завданнях із множинним вибором.

Огляд рішення

Підказка щодо самоузгодженості мовних моделей базується на генеруванні кількох відповідей, які об’єднуються в остаточну відповідь. На відміну від підходів одного покоління, таких як CoT, процедура самоузгодженості вибірки та маргіналізації створює низку доповнень моделі, що призводить до більш узгодженого рішення. Генерація різних відповідей на задану підказку можлива завдяки використанню стохастичної, а не жадібної стратегії декодування.

На наступному малюнку показано, чим самоузгодженість відрізняється від жадібного CoT тим, що вона генерує різноманітний набір шляхів міркування та агрегує їх для отримання остаточної відповіді.

Відмінності між самоузгодженістю та підказкою CoT.

Стратегії декодування для генерації тексту

Текст, створений мовними моделями лише для декодера, розгортається слово за словом, а наступний токен передбачається на основі попереднього контексту. Для заданого запиту модель обчислює розподіл ймовірностей, що вказує ймовірність того, що кожен маркер з’явиться наступним у послідовності. Декодування передбачає переклад цих розподілів ймовірностей у фактичний текст. Генерація тексту опосередковується набором параметри висновку які часто є гіперпараметрами самого методу декодування. Одним із прикладів є температура, який модулює розподіл ймовірностей наступного токена та впливає на випадковість виходу моделі.

Жадібне розшифровка це детермінована стратегія декодування, яка на кожному кроці вибирає маркер із найвищою ймовірністю. Незважаючи на те, що підхід є простим і ефективним, він ризикує впасти в повторювані шаблони, оскільки він не враховує ширший простір ймовірностей. Встановлення параметра температури на 0 під час висновку по суті прирівнюється до реалізації жадібного декодування.

Вибірка вводить стохастичність у процес декодування шляхом випадкового вибору кожного наступного токена на основі передбаченого розподілу ймовірностей. Ця випадковість призводить до більшої мінливості виходу. Стохастичне декодування виявляється більш вправним у захопленні різноманітності потенційних результатів і часто дає більш творчі відповіді. Вищі значення температури викликають більше коливань і підвищують креативність реакції моделі.

Методи підказки: CoT і самоузгодженість

Здатність міркувати мовних моделей можна розширити за допомогою оперативного проектування. Зокрема, було показано, що CoT викликати міркування в комплексних завданнях НЛП. Один із способів реалізації a нульовий постріл CoT – це швидке розширення з інструкцією «думати крок за кроком». Інший полягає в тому, щоб представити модель зразкам проміжних кроків міркування кілька пострілів підказки мода. Обидва сценарії зазвичай використовують жадібне декодування. CoT веде до значного підвищення продуктивності порівняно з простими інструкціями підказок для арифметичних, здорового глузду та символічних завдань.

Спонукання до самоузгодженості ґрунтується на припущенні, що введення різноманітності в процес міркування може бути корисним, щоб допомогти моделям сходитися до правильної відповіді. Методика використовує стохастичне декодування для досягнення цієї мети в три етапи:

  1. Підкажіть мовну модель за допомогою зразків CoT, щоб викликати міркування.
  2. Замініть жадібне декодування стратегією вибірки, щоб створити різноманітний набір шляхів міркування.
  3. Об’єднайте результати, щоб знайти найбільш послідовну відповідь у наборі відповідей.

Показано, що самоузгодженість перевершує підказки CoT на популярних тестах арифметики та здорового глузду. Обмеженням підходу є його більша обчислювальна вартість.

У цьому дописі показано, як підказки самоузгодженості покращують продуктивність генеративних мовних моделей у двох завданнях НЛП: розв’язування арифметичних задач і відповіді на предметно-специфічні питання з множинним вибором. Ми демонструємо підхід за допомогою пакетного висновку на Amazon Bedrock:

  • Ми отримуємо доступ до Amazon Bedrock Python SDK у JupyterLab на Amazon SageMaker примірник ноутбука.
  • Для арифметичних міркувань підказуємо Команда Cohere на набір даних GSM8K для завдань з математики початкової школи.
  • Для міркування з вибором варіантів ми пропонуємо AI21 Labs Jurassic-2 Mid на невеликій вибірці запитань іспиту AWS Certified Solutions Architect – Associate.

Передумови

Це покрокове керівництво передбачає наступні передумови:

Керуйте доступом до моделі на Amazon Bedrock

Орієнтовна вартість запуску коду, показаного в цій публікації, становить 100 доларів США, припускаючи, що ви запускаєте підказку самоузгодженості один раз із 30 шляхами міркування з використанням одного значення для вибірки на основі температури.

Набір даних для дослідження можливостей арифметичного міркування

GSM8K це набір даних математичних задач початкової школи, зібраних людиною, які відрізняються високою мовною різноманітністю. Розв’язування кожної задачі складається з 2–8 кроків і вимагає виконання послідовності елементарних обчислень з елементарними арифметичними діями. Ці дані зазвичай використовуються для порівняння можливостей багатокрокових арифметичних міркувань генеративних мовних моделей. The Комплект поїзда GSM8K містить 7,473 записи. Ось приклад:

{"question": "Natalia sold clips to 48 of her friends in April, and then she sold half as many clips in May. How many clips did Natalia sell altogether in April and May?", "answer": "Natalia sold 48/2 = <<48/2=24>>24 clips in May.nNatalia sold 48+24 = <<48+24=72>>72 clips altogether in April and May.n#### 72"}

Налаштуйте пакетний аналіз за допомогою Amazon Bedrock

Пакетний висновок дозволяє асинхронно запускати кілька викликів висновків до Amazon Bedrock і покращувати продуктивність моделювання на великих наборах даних. На момент написання цієї статті служба доступна лише через API. Відноситься до Запустити пакетний висновок для доступу до API пакетного висновку через користувацькі SDK.

Після того, як ви завантажили та розпакували архів Python SDK в екземплярі блокнота SageMaker ви можете встановити його, запустивши такий код у комірці блокнота Jupyter:

# Install preview SDK packages
!pip install -q $(ls ./bedrock-python-sdk-reinvent/botocore-*.whl | head -1)
!pip install -q $(ls ./bedrock-python-sdk-reinvent/boto3-*.whl | head -1)

Відформатуйте та завантажте вхідні дані в Amazon S3

Вхідні дані для пакетного висновку потрібно підготувати у форматі JSONL recordId та modelInput ключі. Останнє має збігатися з полем тіла моделі, яка буде викликана на Amazon Bedrock. Зокрема, деякі підтримувані параметри виведення для Cohere Command він має temperature для випадковості, max_tokens для вихідної довжини, а num_generations для створення кількох відповідей, усі з яких передаються разом із prompt as modelInput:

data = [
    {
        "recordId": "1",
        "modelInput": {
            "prompt": prompt,
            "temperature": temperature,
            "max_tokens": max_tokens,
            "num_generations": n,
        },
    },
    ...,
]

Читати Параметри висновку для моделей основи для отримання додаткової інформації, включаючи інших постачальників моделей.

Наші експерименти з арифметичних міркувань виконуються за кілька етапів без налаштування чи тонкого налаштування Cohere Command. Ми використовуємо той самий набір із восьми невеликих прикладів із ланцюжка думок (Таблиця 20) та самоузгодженості (Таблиця 17) папери. Підказки створюються шляхом об’єднання зразків із кожним запитанням із набору поїздів GSM8K.

Ми ставимо max_tokens до 512 і num_generations до 5, максимум, дозволений командою Cohere. Для жадібного декодування встановлюємо temperature до 0 і для самоузгодженості ми проводимо три експерименти за температур 0.5, 0.7 та 1. Кожне налаштування дає різні вхідні дані відповідно до відповідних значень температури. Дані відформатовано як JSONL і зберігаються в Amazon S3.

# Set up S3 client
session = boto3.Session()
s3 = session.client("s3")

# Create S3 bucket with unique name to store input/output data
suffix = str(uuid.uuid4())[:8]
bucket = f"bedrock-self-consistency-{suffix}"
s3.create_bucket(
    Bucket=bucket, CreateBucketConfiguration={"LocationConstraint": session.region_name}
)

# Process data and output to new lines as JSONL
input_key = f"gsm8k/T{temperature}/input.jsonl"
s3_data = ""
for row in data:
    s3_data += json.dumps(row) + "n"
s3.put_object(Body=s3_data, Bucket=bucket, Key=input_key)

Створюйте та запускайте завдання пакетного висновку в Amazon Bedrock

Для створення завдань пакетного висновку потрібен клієнт Amazon Bedrock. Ми визначаємо шляхи введення та виведення S3 і надаємо кожному завданню виклику унікальне ім’я:

# Create Bedrock client							    
bedrock = boto3.client("bedrock")

# Input and output config						     
input_config = {"s3InputDataConfig": {"s3Uri": f"s3://{bucket}/{input_key}"}}
output_config = {"s3OutputDataConfig": {"s3Uri": f"s3://{bucket}/{output_key}"}}

# Create a unique job name
suffix = str(uuid.uuid4())[:8] 
job_name = f"command-batch-T{temperature}-{suffix}"

Робота є створений передаючи роль IAM, ідентифікатор моделі, назву завдання та конфігурацію вводу/виводу як параметри до API Amazon Bedrock:

response = bedrock.create_model_invocation_job(
    roleArn=f"arn:aws:iam::{account_id}:role/BedrockBatchInferenceRole",
    modelId="cohere.command-text-v14",
    jobName=job_name,
    inputDataConfig=input_config,
    outputDataConfig=output_config,
)
job_arn = response["jobArn"]

Listing, моніторинг та зупинка завдання пакетного висновку підтримуються відповідними викликами API. Під час створення робочі місця з’являються спочатку як Submitted, то як InProgress, і нарешті як Stopped, Failedабо Completed.

# Get job details
job_details = bedrock.get_model_invocation_job(jobIdentifier=job_arn)

Якщо завдання успішно виконано, згенерований вміст можна буде отримати з Amazon S3, використовуючи його унікальне місце виведення.

# Get the output file key
s3_prefix = f"s3://{bucket}/"
output_path = job_details["outputDataConfig"]["s3OutputDataConfig"]["s3Uri"].replace(
    s3_prefix, ""
)
output_folder = job_details["jobArn"].split("/")[1]
output_file = (
    f'{job_details["inputDataConfig"]["s3InputDataConfig"]["s3Uri"].split("/")[-1]}.out'
)
result_key = f"{output_path}{output_folder}/{output_file}"

# Get output data
obj = s3.get_object(Bucket=bucket, Key=result_key)
content = obj["Body"].read().decode("utf-8").strip().split("n")

# Show answer to the first question
print(json.loads(content[0])["modelOutput"]["generations"][0]["text"])

[Out]: 'Natalia sold 48 * 1/2 = 24 clips less in May. This means she sold 48 + 24 = 72 clips in April and May. The answer is 72.'

Самоузгодженість підвищує точність моделі в арифметичних завданнях

Підказка самоузгодженості Cohere Command перевершує жадібну базову лінію CoT з точки зору точності набору даних GSM8K. Для самоузгодженості ми вибираємо 30 незалежних шляхів міркування при трьох різних температурах, з topP та topK встановити їх значення за замовчуванням. Остаточні рішення агрегуються шляхом вибору найбільш узгодженого випадку шляхом голосування більшістю. У разі рівності ми випадковим чином обираємо одну з більшості відповідей. Ми обчислюємо значення точності та стандартного відхилення, усереднені за 100 прогонів.

На наступному малюнку показано точність набору даних GSM8K від Cohere Command із підказкою жадібного CoT (синій) і самоузгодженості при значеннях температури 0.5 (жовтий), 0.7 (зелений) і 1.0 (помаранчевий) як функцію кількості вибірок. шляхи міркування.

Точність Cohere Command із використанням самоузгодженості проти підказок CoT.

На попередньому малюнку показано, що самоузгодженість підвищує арифметичну точність порівняно з жадібним CoT, коли кількість вибіркових шляхів становить лише три. Ефективність зростає відповідно до подальших шляхів міркування, підтверджуючи важливість впровадження різноманітності в генерацію думок. Cohere Command розв’язує набір запитань GSM8K із точністю 51.7% за підказкою CoT проти 68% із 30 самоузгодженими шляхами міркування при T=1.0. Усі три досліджувані значення температури дають подібні результати, причому нижчі температури є порівняно ефективнішими на менш вибіркових шляхах.

Практичні міркування щодо ефективності та вартості

Самоузгодженість обмежена збільшеним часом відповіді та витратами, понесеними під час генерування кількох виходів на підказку. Як практична ілюстрація, пакетний висновок для жадібної генерації за допомогою Cohere Command на 7,473 записах GSM8K завершився менш ніж за 20 хвилин. Робота взяла 5.5 мільйонів токенів як вхідні дані та згенерувала 630,000 XNUMX вихідних токенів. При струмі Висновки про ціни Amazon Bedrock, загальна сума понесених витрат склала близько 9.50 доларів США.

Для самоузгодженості з командою Cohere ми використовуємо параметр висновку num_generations щоб створити декілька доповнень на підказку. На момент написання цієї статті Amazon Bedrock допускає максимум п’ять поколінь і три одночасних Submitted завдання пакетного висновку. Роботи переходити до InProgress статус послідовно, тому вибірка більше ніж п'яти шляхів потребує кількох викликів.

На наступному малюнку показано час виконання для Cohere Command на наборі даних GSM8K. Загальний час виконання відображається на осі x, а час виконання для вибіркового шляху міркування – на осі y. Жадібна генерація виконується за найкоротший час, але потребує вищих витрат часу на вибірковий шлях.

Час виконання для Cohere Command

Greedy Generation завершується менш ніж за 20 хвилин для повного набору GSM8K і демонструє унікальний шлях міркування. Для самоузгодженості з п’ятьма зразками потрібно приблизно на 50% більше часу та коштує приблизно 14.50 доларів США, але за цей час створюється п’ять шляхів (понад 500%). Загальний час роботи та вартість поступово збільшуються з кожними додатковими п’ятьма вибірками. Аналіз витрат і вигод припускає, що 1–2 завдання пакетного висновку з 5–10 вибірковими шляхами є рекомендованим налаштуванням для практичної реалізації самоузгодженості. Завдяки цьому досягається покращена продуктивність моделі, утримуючи вартість і затримку.

Самоузгодженість покращує продуктивність моделі за межі арифметичного міркування

Вирішальне питання для доведення придатності підказки самоузгодженості полягає в тому, чи успішний метод у подальших завданнях НЛП і мовних моделях. Як розширення сценарію використання, пов’язаного з Amazon, ми виконуємо невеликий аналіз зразків запитань із Сертифікація асоційованого архітектора AWS Solutions. Це іспит із множинним варіантом відповіді з технологій і послуг AWS, який потребує знання предметної галузі та вміння міркувати та вибирати між кількома варіантами.

Ми готуємо набір даних з SAA-C01 та SAA-C03 зразки екзаменаційних питань. З 20 доступних запитань ми використовуємо перші 4 як кілька прикладів і пропонуємо моделі відповісти на решту 16. Цього разу ми запускаємо висновок за допомогою моделі AI21 Labs Jurassic-2 Mid і генеруємо максимум 10 шляхів міркування на температура 0.7. Результати показують, що самоузгодженість покращує продуктивність: хоча жадібний CoT дає 11 правильних відповідей, самоузгодженість вдається ще на 2.

У наведеній нижче таблиці показано результати точності для 5 і 10 вибіркових шляхів, усереднені за 100 прогонів.

. Жадібне розшифровка T = 0.7
# вибіркових шляхів: 5 68.6 74.1 0.7 ±
# вибіркових шляхів: 10 68.6 78.9 ± 0.3

У наведеній нижче таблиці ми представляємо два екзаменаційні запитання, на які жадібний CoT дає неправильні відповіді, хоча самоузгодженість досягає успіху, висвітлюючи в кожному випадку правильні (зеленим) або неправильні (червоним) міркування, які спонукали модель дати правильні чи неправильні відповіді. Хоча не кожен вибірковий шлях, згенерований самоузгодженістю, є правильним, більшість збігається з істинною відповіддю, оскільки кількість вибіркових шляхів збільшується. Ми спостерігаємо, що зазвичай достатньо 5–10 шляхів, щоб покращити жадібні результати зі зменшенням ефективності, що перевищує ці значення.

Питання

Веб-додаток дозволяє клієнтам завантажувати замовлення в сегмент S3. Отримані події Amazon S3 запускають функцію Lambda, яка вставляє повідомлення до черги SQS. Один екземпляр EC2 читає повідомлення з черги, обробляє їх і зберігає в таблиці DynamoDB, розділеної за унікальним ідентифікатором порядку. Очікується, що наступного місяця трафік зросте в 10 разів, і архітектор рішень переглядає архітектуру на предмет можливих проблем із масштабуванням.

Який компонент НАЙБІЛЬШ вірогідно потребуватиме зміни архітектури, щоб мати можливість масштабуватись для розміщення нового трафіку?

А. Лямбда-функція
B. Черга SQS
C. Екземпляр EC2
D. Таблиця DynamoDB

Програма, що працює на AWS, використовує для своєї бази даних розгортання кластера Amazon Aurora Multi-AZ DB. Оцінюючи показники продуктивності, архітектор рішень виявив, що зчитування бази даних спричиняє високий обсяг введення-виведення та додає затримку запитам на запис до бази даних.

Що повинен зробити архітектор рішень, щоб відокремити запити на читання від запитів на запис?

A. Увімкніть наскрізне кешування бази даних Aurora.
B. Оновіть програму для читання з резервного екземпляра Multi-AZ.
C. Створіть репліку Aurora та змініть програму для використання відповідних кінцевих точок.
D. Створіть другу базу даних Aurora та зв’яжіть її з основною базою даних як репліку для читання.

Правильна відповідь C – Один екземпляр EC2 не буде масштабуватися і є єдиною точкою відмови в архітектурі. Набагато кращим рішенням було б, щоб екземпляри EC2 у групі автоматичного масштабування в 2 зонах доступності читали повідомлення з черги. Усі інші відповіді — це керовані служби, які можна налаштувати на масштабування або масштабуватимуться автоматично. C – Репліки Aurora забезпечують спосіб розвантажити трафік читання. Репліки Aurora використовують те саме базове сховище, що й основна база даних, тому час затримки зазвичай дуже малий. Репліки Aurora мають власні кінцеві точки, тому програму потрібно буде налаштувати для спрямування трафіку читання на нові кінцеві точки.
Жадібне розшифровка Безпосереднє масштабування екземпляра EC2 може бути неможливим, оскільки неможливо змінити розмір екземпляра. Масштабування лямбда-функції може бути недостатнім, оскільки функції Lambda мають ліміт виділення пам’яті 6 ГБ. Масштабування черги SQS може бути недостатнім, оскільки SQS має обмеження на 10,000 XNUMX повідомлень. Таблиці DynamoDB можна масштабувати шляхом надання більшої кількості одиниць ємності. Правильна відповідь Д. Зміна програми для читання з резервного екземпляра Multi-AZ (варіант B) є найкращим підходом. Резервний екземпляр асинхронно реплікується з основного екземпляра, тому операції читання не заважатимуть операціям запису. Увімкнення наскрізного кешування (варіант A) або створення репліки Aurora (варіант C) не вирішить проблему конфлікту вводу/виводу. Створення другої бази даних Aurora та зв’язування її як репліки для читання (варіант D) також не вирішить проблему конфлікту вводу-виводу. Правильна відповідь Б.
Зразок шляху №1 Масштабування екземпляра EC2 у 10 разів більше поточного розміру може бути неможливим з точки зору вартості чи продуктивності. Для цього знадобиться більший екземпляр, який може бути дорогим. Більш економічно ефективним підходом може бути використання групи менших екземплярів (наприклад, Auto Scaling Group) для розподілу навантаження. У цьому випадку примірник EC2, ймовірно, потребуватиме перебудови. Правильна відповідь C. Модифікація програми для використання відповідних кінцевих точок не є практичним рішенням, оскільки це вимагатиме змін у коді програми. Правильна відповідь: C: Створіть копію Aurora та змініть програму для використання відповідних кінцевих точок.
Зразок шляху №2 Масштабувати один екземпляр EC2 складніше й проблематичніше, ніж масштабувати інші компоненти служби. Amazon SQS, Lambda та DynamoDB можуть автоматично масштабуватися впоратися з підвищеним навантаженням. Правильна відповідь C.

(С) Створіть репліку Aurora та змініть програму для використання відповідних кінцевих точок.

Налаштувавши репліку Aurora, ви можете відокремити трафік читання від трафіку запису. Репліки Aurora використовують різні URL-адреси кінцевих точок, що дозволяє спрямувати трафік читання до репліки замість основної бази даних. Репліка може обробляти запити на читання паралельно із запитами на запис до основної бази даних, зменшуючи введення-виведення та затримку.

Прибирати

За виконання пакетного аналізу в Amazon Bedrock стягується плата згідно з цінами Amazon Bedrock. Виконавши покрокове керівництво, видаліть свій екземпляр блокнота SageMaker і видаліть усі дані з сегментів S3, щоб уникнути стягнення плати в майбутньому.

Міркування

Незважаючи на те, що продемонстроване рішення показує покращену продуктивність мовних моделей, коли запитується з самоузгодженістю, важливо зазначити, що покрокове керівництво не готове до виробництва. Перед розгортанням у виробництві вам слід адаптувати це підтвердження концепції до власної реалізації, пам’ятаючи про такі вимоги:

  • Обмеження доступу до API і баз даних для запобігання несанкціонованому використанню.
  • Дотримання найкращих практик безпеки AWS щодо доступу до ролей IAM і груп безпеки.
  • Перевірка та дезінфекція введених користувачем даних для запобігання атакам швидкого впровадження.
  • Моніторинг і журналювання запущених процесів для тестування та аудиту.

Висновок

У цьому дописі показано, що підказки самоузгодженості покращують ефективність генеративних мовних моделей у складних завданнях НЛП, які вимагають арифметичних і логічних навичок із множинним вибором. Самоузгодженість використовує стохастичне декодування на основі температури для створення різних шляхів міркування. Це збільшує здатність моделі виявляти різноманітні та корисні думки для отримання правильних відповідей.

За допомогою пакетного висновку Amazon Bedrock мовна модель Cohere Command отримує запит на створення самоузгоджених відповідей на набір арифметичних задач. Точність покращується з 51.7% при жадібному декодуванні до 68% при самоузгодженій вибірці 30 шляхів міркування при T=1.0. Вибірка п’яти шляхів вже підвищує точність на 7.5 відсотка. Цей підхід можна перенести на інші мовні моделі та завдання на міркування, як продемонстрували результати моделі AI21 Labs Jurassic-2 Mid на сертифікаційному іспиті AWS. У невеликому наборі питань самоузгодженість із п’ятьма відібраними шляхами підвищує точність на 5 відсотків порівняно з жадібним CoT.

Ми заохочуємо вас реалізувати запит самоузгодженості для підвищення продуктивності у ваших власних програмах за допомогою генеративних мовних моделей. Дізнайтеся більше про Команда Cohere та AI21 Labs Юрський період моделі доступні на Amazon Bedrock. Щоб отримати додаткові відомості про пакетний висновок, див Запустити пакетний висновок.

Подяки

Автор дякує технічним рецензентам Аміну Таджгардуну та Патріку МакСвіні за корисні відгуки.


Про автора

Покращте продуктивність генеративних мовних моделей за допомогою самоузгоджених підказок на Amazon Bedrock | Amazon Web Services PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Люсія Сантамарія є старшим прикладним науковцем в Університеті машинного навчання Amazon, де вона зосереджена на підвищенні рівня компетентності в галузі машинного навчання в компанії за допомогою практичного навчання. Лусія має ступінь доктора філософії з астрофізики та пристрасно прагне демократизувати доступ до технічних знань та інструментів.

Часова мітка:

Більше від AWS Машинне навчання