AWS는 LLM(Large Language Model)에서 미세 조정을 수행하여 대형 게임 회사의 독성 발언을 분류합니다. | 아마존 웹 서비스

AWS는 LLM(Large Language Model)에서 미세 조정을 수행하여 대형 게임 회사의 독성 발언을 분류합니다. | 아마존 웹 서비스

비디오 게임 산업은 전 세계적으로 약 3억 명 이상의 사용자 기반을 보유하고 있습니다.1. 그것은 매일 서로 가상으로 상호 작용하는 엄청난 양의 플레이어로 구성됩니다. 안타깝게도 실제 세계에서와 마찬가지로 모든 플레이어가 적절하고 정중하게 의사소통하는 것은 아닙니다. 사회적으로 책임 있는 게임 환경을 만들고 유지하기 위한 노력의 일환으로 AWS Professional Services는 온라인 게임 플레이어 상호 작용 내에서 부적절한 언어(독성 발언)를 감지하는 메커니즘을 구축하라는 요청을 받았습니다. 전반적인 비즈니스 결과는 기존 수동 프로세스를 자동화하여 조직의 운영을 개선하고 플레이어 간의 부적절한 상호 작용을 감지하는 속도와 품질을 향상하여 궁극적으로 보다 깨끗하고 건강한 게임 환경을 촉진함으로써 사용자 경험을 개선하는 것이었습니다.

고객의 요청은 음성 및 텍스트 발췌를 자체적으로 정의된 유독한 언어 범주로 분류하는 영어 감지기를 만드는 것이었습니다. 그들은 주어진 언어 발췌문이 유해한지 먼저 판단한 다음 욕설이나 욕설과 같이 고객이 정의한 특정 유해 범주로 발췌문을 분류하기를 원했습니다.

AWS ProServe는 GAIIC(Generative AI Innovation Center)와 MLDT(ProServe ML Delivery Team) 간의 공동 노력을 통해 이 사용 사례를 해결했습니다. AWS GAIIC는 PoC(개념 증명) 빌드를 사용하여 광범위한 비즈니스 사용 사례를 위한 생성 AI 솔루션을 개발하기 위해 고객과 전문가를 연결하는 AWS ProServe 내의 그룹입니다. 그런 다음 AWS ProServe MLDT는 고객을 위해 솔루션을 확장, 강화 및 통합하여 프로덕션을 통해 PoC를 수행합니다.

이 고객 사용 사례는 두 개의 개별 게시물로 표시됩니다. 이 게시물(1부)은 과학적 방법론에 대한 심층 분석을 제공합니다. 모델 교육 및 개발 프로세스를 포함하여 솔루션 이면의 사고 프로세스 및 실험에 대해 설명합니다. 2부에서는 프로덕션 솔루션에 대해 자세히 살펴보고 설계 결정, 데이터 흐름, 모델 교육 및 배포 아키텍처의 그림을 설명합니다.

이 게시물에서는 다음 주제를 다룹니다.

  • 이 사용 사례를 위해 AWS ProServe가 해결해야 했던 과제
  • 대규모 언어 모델(LLM)에 대한 역사적 맥락과 이 기술이 이 사용 사례에 완벽하게 적합한 이유
  • 데이터 과학 및 기계 학습(ML) 관점에서 본 AWS GAIIC의 PoC 및 AWS ProServe MLDT 솔루션

데이터 챌린지

AWS ProServe가 유독한 언어 분류자를 교육할 때 직면한 주요 과제는 처음부터 정확한 모델을 교육할 수 있도록 고객으로부터 레이블이 지정된 데이터를 충분히 확보하는 것이었습니다. AWS는 고객으로부터 약 100개의 레이블이 지정된 데이터 샘플을 받았습니다. 이는 데이터 과학 커뮤니티에서 LLM을 미세 조정하기 위해 권장되는 1,000개 샘플보다 훨씬 적습니다.

추가된 내재적 문제로, 자연어 처리(NLP) 분류자는 역사적으로 훈련하는 데 비용이 많이 들고 원금, 정확한 예측을 생성합니다. 엄격하고 효과적인 NLP 솔루션은 충분한 양의 레이블이 지정된 데이터가 제공되는 경우 고객의 레이블이 지정된 데이터를 사용하여 사용자 지정 언어 모델을 교육하는 것입니다. 모델은 플레이어의 게임 어휘로만 훈련되어 게임에서 관찰되는 언어에 맞게 조정됩니다. 고객은 이 솔루션을 실행 불가능하게 만드는 비용 및 시간 제약이 있었습니다. AWS ProServe는 상대적으로 작은 레이블이 지정된 데이터 세트로 정확한 언어 독성 분류자를 교육하는 솔루션을 찾아야 했습니다. 해결책은 전학 학습.

전이 학습의 기본 아이디어는 사전 훈련된 모델의 지식을 사용하여 다르지만 비교적 유사한 문제에 적용하는 것입니다. 예를 들어 이미지 분류자가 이미지에 고양이가 포함되어 있는지 예측하도록 훈련된 경우 모델이 훈련 중에 얻은 지식을 사용하여 호랑이와 같은 다른 동물을 인식할 수 있습니다. 이 언어 사용 사례의 경우 AWS ProServe는 유해한 언어를 감지하고 고객의 레이블이 지정된 데이터를 사용하여 이를 미세 조정하도록 훈련된 이전에 훈련된 언어 분류자를 찾아야 했습니다.

해결책은 독성 언어를 분류하기 위해 LLM을 찾아 미세 조정하는 것이었습니다. LLM은 레이블이 지정되지 않은 데이터를 사용하여 일반적으로 수십억 개 정도의 엄청난 수의 매개 변수를 사용하여 훈련된 신경망입니다. AWS 솔루션으로 이동하기 전에 다음 섹션에서는 LLM의 기록 및 과거 사용 사례에 대한 개요를 제공합니다.

LLM의 힘 활용

ChatGPT가 역사상 가장 빠르게 성장하는 소비자 애플리케이션이 되어 대중의 마음을 사로잡은 이후 LLM은 최근 ML의 새로운 애플리케이션을 찾는 기업의 초점이 되었습니다.2, 출시 100개월 만인 2023년 2월까지 XNUMX억 명의 활성 사용자를 달성합니다. 그러나 LLM은 ML 공간에서 새로운 기술이 아닙니다. 감정 분석, 코퍼스 요약, 키워드 추출, 음성 번역 및 텍스트 분류와 같은 NLP 작업을 수행하는 데 광범위하게 사용되었습니다.

텍스트의 순차적 특성으로 인해 순환 신경망(RNN)은 NLP 모델링을 위한 최신 기술이었습니다. 특히, 인코더 디코더 네트워크 아키텍처는 임의 길이의 입력을 취하고 임의 길이의 출력을 생성할 수 있는 RNN 구조를 생성했기 때문에 공식화되었습니다. 이것은 일반적으로 입력과 출력 사이의 단어 수가 다른 다른 언어의 입력 구에서 한 언어의 출력 구를 예측할 수 있는 번역과 같은 NLP 작업에 이상적이었습니다. 트랜스포머 아키텍처3 (Vaswani, 2017)는 인코더-디코더의 획기적인 개선이었습니다. 의 개념을 도입했다. 자기주의, 모델이 입력 및 출력 문구의 다른 단어에 주의를 집중할 수 있게 했습니다. 일반적인 인코더-디코더에서 각 단어는 동일한 방식으로 모델에 의해 해석됩니다. 모델이 입력 구문의 각 단어를 순차적으로 처리하기 때문에 처음의 의미 정보는 구문이 끝날 때 손실될 수 있습니다. 셀프 어텐션 메커니즘은 인코더와 디코더 블록 모두에 어텐션 레이어를 추가하여 모델이 출력 문구에서 특정 단어를 생성할 때 입력 문구의 특정 단어에 다른 가중치를 부여할 수 있도록 변경했습니다. 따라서 변압기 모델의 기초가 탄생했습니다.

트랜스포머 아키텍처는 오늘날 가장 유명하고 널리 사용되는 LLM인 BERT(Bidirectional Encoder Representations from Transformers)의 기반이 되었습니다.4 (Radford, 2018) 및 GPT(Generative Pretrained Transformer)5 (데블린 2018). GPT 모델의 최신 버전인 GPT3 및 GPT4는 ChatGPT 애플리케이션을 구동하는 엔진입니다. LLM을 매우 강력하게 만드는 방법의 마지막 부분은 ULMFiT이라는 프로세스를 통해 광범위한 레이블 지정이나 사전 처리 없이 방대한 텍스트 코퍼스에서 정보를 추출하는 기능입니다. 이 방법에는 일반 텍스트를 수집할 수 있는 사전 훈련 단계가 있으며 모델은 이전 단어를 기반으로 다음 단어를 예측하는 작업에 대해 훈련됩니다. 여기에서 이점은 학습에 사용되는 모든 입력 텍스트가 텍스트 순서에 따라 미리 레이블이 지정된다는 것입니다. LLM은 진정으로 인터넷 규모의 데이터에서 학습할 수 있습니다. 예를 들어 원래 BERT 모델은 BookCorpus 및 전체 영어 Wikipedia 텍스트 데이터 세트에서 사전 훈련되었습니다.

이 새로운 모델링 패러다임은 기초 모델(FM)과 제너레이티브 AI라는 두 가지 새로운 개념을 낳았습니다. 기존 지도 학습의 일반적인 경우인 작업별 데이터를 사용하여 처음부터 모델을 교육하는 것과는 달리 LLM은 훨씬 더 작은 특정 작업 또는 도메인에 적용되기 전에 광범위한 텍스트 데이터 세트에서 일반 지식을 추출하도록 사전 교육됩니다. 데이터 세트(일반적으로 수백 개의 샘플 정도). 새로운 ML 워크플로는 이제 기초 모델이라는 사전 훈련된 모델로 시작됩니다. 올바른 토대 위에 구축하는 것이 중요하며 새로운 아마존 타이탄 FM, AWS에서 출시 예정 아마존 기반암. 이러한 새 모델은 출력이 사람이 해석할 수 있고 입력 데이터와 동일한 데이터 유형이기 때문에 생성 모델로 간주됩니다. 과거의 ML 모델은 고양이 대 개의 이미지를 분류하는 것과 같이 설명적이었지만 LLM은 출력이 입력 단어를 기반으로 하는 다음 단어 세트이기 때문에 생성적입니다. 이를 통해 생성하는 콘텐츠에서 표현할 수 있는 ChatGPT와 같은 대화형 애플리케이션을 구동할 수 있습니다.

Hugging Face는 AWS와 파트너십을 맺었습니다. FM을 민주화하고 쉽게 액세스하고 구축할 수 있도록 합니다. Hugging Face는 트랜스포머 API 사전 훈련된 모델 가중치에 대한 액세스를 포함하여 서로 다른 ML 프레임워크에서 50개 이상의 서로 다른 변환기 아키텍처를 통합합니다. 모델 허브, 이 게시물을 작성하는 시점에서 200,000개 이상의 모델로 성장했습니다. 다음 섹션에서는 개념 증명, 솔루션 및 고객을 위한 이 유해한 음성 분류 사용 사례를 해결하기 위한 기반으로 테스트되고 선택된 FM을 살펴봅니다.

AWS GAIIC 개념 증명

AWS GAIIC는 독성 언어 분류자를 미세 조정하기 위해 BERT 아키텍처로 LLM 기초 모델을 실험하기로 했습니다. Hugging Face의 모델 허브에서 총 세 가지 모델을 테스트했습니다.

세 가지 모델 아키텍처는 모두 다음을 기반으로 합니다. BERT위트 건축학. BERTweet은 로베르타 사전 교육 절차. RoBERTa 사전 교육 절차는 BERT 모델 교육을 위한 레시피를 개선하기 위해 하이퍼파라미터 튜닝 및 교육 세트 크기의 효과를 평가한 BERT 사전 교육의 복제 연구 결과입니다.6 (리우 2019). 실험은 기본 아키텍처를 변경하지 않고 BERT의 성능 결과를 개선하는 사전 학습 방법을 찾고자 했습니다. 연구 결과에 따르면 다음과 같은 사전 훈련 수정이 BERT의 성능을 크게 향상시켰습니다.

  • 더 많은 데이터에 대해 더 큰 배치로 모델 훈련
  • 다음 문장 예측 목표 제거
  • 더 긴 시퀀스에 대한 교육
  • 학습 데이터에 적용된 마스킹 패턴을 동적으로 변경

bertweet-base 모델은 RoBERTa 연구의 이전 사전 훈련 절차를 사용하여 850억 XNUMX천만 개의 영어 트윗을 사용하여 원래 BERT 아키텍처를 사전 훈련합니다. 영어 트윗용으로 사전 훈련된 최초의 공개 대규모 언어 모델입니다.

트윗을 사용하는 사전 훈련된 FM은 두 가지 주요 이론적 이유 때문에 사용 사례에 적합하다고 생각되었습니다.

  • 트윗의 길이는 온라인 게임 채팅에서 발견되는 부적절하거나 독성이 있는 문구의 길이와 매우 유사합니다.
  • 트윗은 게임 플랫폼에서 발견되는 인구와 유사하게 다양한 사용자가 있는 인구에서 나옵니다.

AWS는 기준선을 얻기 위해 먼저 고객의 레이블이 지정된 데이터로 BERTweet을 미세 조정하기로 결정했습니다. 그런 다음 bertweet-base-offensive 및 bertweet-base-hate에서 두 개의 다른 FM을 미세 조정하기로 선택했습니다. 이 FM은 잠재적으로 더 높은 정확도를 달성하기 위해 더 관련성이 높은 독성 트윗에 대해 특별히 사전 훈련되었습니다. bertweet-base-offensive 모델은 기본 BertTweet FM을 사용하고 공격적인 것으로 간주된 14,100개의 주석이 달린 트윗에 대해 사전 훈련됩니다.7 (잠피에리 2019). bertweet-base-hate 모델도 기본 BertTweet FM을 사용하지만 증오심 표현으로 간주된 19,600개의 트윗에 대해 추가 사전 훈련을 받았습니다.8 (바질 2019).

PoC 모델의 성능을 더욱 향상시키기 위해 AWS GAIIC는 두 가지 설계 결정을 내렸습니다.

  • 첫 번째 모델이 텍스트 조각이 독성이 있는지 여부를 분류하는 이진 분류기 역할을 하는 XNUMX단계 예측 흐름을 만들었습니다. 두 번째 모델은 고객이 정의한 독성 유형을 기반으로 텍스트를 분류하는 세분화된 모델입니다. 첫 번째 모델이 텍스트를 독성으로 예측하는 경우에만 텍스트가 두 번째 모델로 전달됩니다.
  • 교육 데이터를 보강하고 공개 Kaggle 대회에서 제XNUMX자 레이블이 지정된 독성 텍스트 데이터 세트의 하위 집합을 추가했습니다(직소 독성) 고객으로부터 받은 원래 100개의 샘플에. 그들은 Jigsaw 레이블을 관련 고객 정의 독성 레이블에 매핑하고 훈련 데이터로 80%, 테스트 데이터로 20% 분할하여 모델을 검증했습니다.

AWS는 대규모 게임 회사를 위해 LLM(대형 언어 모델)을 미세 조정하여 유해한 음성을 분류합니다 | Amazon Web Services PlatoBlockchain 데이터 인텔리전스. 수직 검색. 일체 포함.

AWS GAIIC 사용 아마존 세이지 메이커 미세 조정 실험을 실행하기 위해 노트북을 사용하고 bertweet-base-offensive 모델이 검증 세트에서 최고의 점수를 달성했음을 발견했습니다. 다음 표에는 관찰된 지표 점수가 요약되어 있습니다.

모델 Precision 소환 F1 AUC
이진 . 92 . 90 . 91 . 92
세밀한 . 81 . 80 . 81 . 89

이 시점부터 GAIIC는 PoC를 생산하기 위해 PoC를 AWS ProServe ML 제공 팀에 전달했습니다.

AWS ProServe ML 제공 팀 솔루션

모델 아키텍처를 생산하기 위해 고객은 AWS ProServe ML 딜리버리 팀(MLDT)에 확장 가능하고 유지 관리가 쉬운 솔루션을 생성해 달라는 요청을 받았습니다. XNUMX단계 모델 접근 방식에는 다음과 같은 몇 가지 유지 관리 문제가 있었습니다.

  • 모델에는 두 배의 모델 모니터링이 필요하므로 재교육 타이밍이 일관되지 않습니다. 한 모델을 다른 모델보다 더 자주 재교육해야 하는 경우가 있을 수 있습니다.
  • 하나가 아닌 두 개의 모델을 실행하는 비용이 증가했습니다.
  • 두 가지 모델을 거치기 때문에 추론 속도가 느려집니다.

이러한 문제를 해결하기 위해 AWS ProServe MLDT는 XNUMX단계 모델 아키텍처를 단일 모델 아키텍처로 전환하는 동시에 XNUMX단계 아키텍처의 정확도를 계속 유지할 수 있는 방법을 찾아야 했습니다.

해결책은 먼저 고객에게 더 많은 교육 데이터를 요청한 다음 무독성 샘플을 포함한 모든 라벨의 bertweet-base-offensive 모델을 하나의 모델로 미세 조정하는 것이었습니다. 아이디어는 더 많은 데이터로 하나의 모델을 미세 조정하면 더 적은 데이터로 XNUMX단계 모델 아키텍처를 미세 조정하는 것과 유사한 결과가 나온다는 것입니다. XNUMX단계 모델 아키텍처를 미세 조정하기 위해 AWS ProServe MLDT는 무독성 클래스를 나타내는 하나의 추가 노드를 포함하도록 사전 훈련된 모델 다중 레이블 분류 헤드를 업데이트했습니다.

다음은 변환기 플랫폼을 사용하여 Hugging Face 모델 허브에서 사전 훈련된 모델을 미세 조정하고 모델의 다중 레이블 분류 헤드를 변경하여 원하는 클래스 수를 예측하는 방법에 대한 코드 샘플입니다. AWS ProServe MLDT는 이 청사진을 미세 조정의 기반으로 사용했습니다. 학습 데이터와 유효성 검사 데이터가 준비되어 있고 올바른 입력 형식이라고 가정합니다.

먼저, Hugging Face 모델 허브에서 Python 모듈과 원하는 사전 훈련된 모델을 가져옵니다.

# Imports.
from transformers import ( AutoModelForSequenceClassification, AutoTokenizer, DataCollatorWithPadding, PreTrainedTokenizer, Trainer, TrainingArguments,
) # Load pretrained model from model hub into a tokenizer.
model_checkpoint = “cardiffnlp/bertweet-base-offensive”
tokenizer = AutoTokenizer.from_pretrained(checkpoint)

사전 훈련된 모델은 미세 조정을 위해 로드되고 준비됩니다. 이것은 독성 범주의 수와 모든 모델 매개변수가 정의되는 단계입니다.

# Load pretrained model into a sequence classifier to be fine-tuned and define the number of classes you want to classify in the num_labels parameter. model = AutoModelForSequenceClassification.from_pretrained( model_checkpoint, num_labels=[number of classes] ) # Set your training parameter arguments. The below are some key parameters that AWS ProServe MLDT tuned:
training_args = TrainingArguments( num_train_epochs=[enter input] per_device_train_batch_size=[enter input] per_device_eval_batch_size=[enter input] evaluation_strategy="epoch", logging_strategy="epoch", save_strategy="epoch", learning_rate=[enter input] load_best_model_at_end=True, metric_for_best_model=[enter input] optim=[enter input], )

모델 미세 조정은 교육 및 검증 데이터 세트에 경로를 입력하는 것으로 시작됩니다.

# Finetune the model from the model_checkpoint, tokenizer, and training_args defined assuming train and validation datasets are correctly preprocessed.
trainer = Trainer( model=model, args=training_args, train_dataset=[enter input], eval_dataset=[enter input], tokenizer=tokenizer, data_collator=data_collator, ) # Finetune model command.
trainer.train()

AWS ProServe MLDT는 약 5,000개 이상의 레이블이 지정된 데이터 샘플(무독성 3,000개, 독성 2,000개)을 수신하고 5,000개의 bertweet 기반 모델을 모두 미세 조정하여 모든 레이블을 하나의 모델로 결합했습니다. 그들은 PoC의 80개 샘플과 함께 이 데이터를 사용하여 동일한 20% 훈련 세트, XNUMX% 테스트 세트 방법을 사용하여 새로운 XNUMX단계 모델을 미세 조정했습니다. 다음 표는 성능 점수가 XNUMX단계 모델의 성능 점수와 유사함을 보여줍니다.

모델 Precision 소환 F1 AUC
bertweet-base(1단계) . 76 . 72 . 74 . 83
bertweet-base-hate (1단계) . 85 . 82 . 84 . 87
bertweet-base-offensive (1단계) . 88 . 83 . 86 . 89
bertweet-base-offensive (2단계) . 91 . 90 . 90 . 92

3단계 모델 접근 방식은 정밀도를 XNUMX%만 줄이면서 비용 및 유지 관리를 개선했습니다. 장단점을 고려한 후 고객은 XNUMX단계 모델을 생산하기 위해 AWS ProServe MLDT를 선택했습니다.

레이블이 지정된 데이터가 더 많은 하나의 모델을 미세 조정함으로써 AWS ProServe MLDT는 모델 정확도에 대한 고객의 임계값을 충족하는 솔루션을 제공할 수 있을 뿐만 아니라 비용을 낮추고 견고성을 높이면서 유지 관리 용이성에 대한 고객의 요구를 충족할 수 있었습니다.

결론

대규모 게임 고객은 사회적으로 책임 있는 게임 환경을 촉진하기 위해 커뮤니케이션 채널 내에서 유해한 언어를 감지할 수 있는 방법을 찾고 있었습니다. AWS GAIIC는 유해한 언어를 탐지하기 위해 LLM을 미세 조정하여 유해한 언어 탐지기의 PoC를 생성했습니다. 그런 다음 AWS ProServe MLDT는 모델 교육 흐름을 XNUMX단계 접근 방식에서 XNUMX단계 접근 방식으로 업데이트하고 고객이 대규모로 사용할 수 있도록 LLM을 생산했습니다.

이 게시물에서 AWS는 이 고객 사용 사례를 해결하기 위해 LLM을 미세 조정하는 효과와 실용성을 보여주고, 기초 모델 및 LLM의 역사에 대한 컨텍스트를 공유하고, AWS Generative AI Innovation Center와 AWS ProServe ML 간의 워크플로를 소개합니다. 배송팀. 이 시리즈의 다음 게시물에서는 AWS ProServe MLDT가 SageMaker를 사용하여 결과 XNUMX단계 모델을 생산한 방법에 대해 자세히 살펴보겠습니다.

AWS와 협력하여 Generative AI 솔루션을 구축하는 데 관심이 있는 경우 다음으로 문의하십시오. 가이크. 그들은 귀하의 사용 사례를 평가하고, Generative-AI 기반 개념 증명을 구축하고, 결과 PoC를 프로덕션에 구현하기 위해 AWS와의 협업을 확장할 수 있는 옵션을 갖게 됩니다.

참고자료

  1. 게이머 인구 통계: 세계에서 가장 인기 있는 취미에 대한 사실 및 통계
  2. ChatGPT는 가장 빠르게 성장하는 사용자 기반 기록을 세웠습니다 – 분석가 노트
  3. Vaswani 외, "주의가 필요한 전부입니다"
  4. Radford et al., "생성 사전 훈련을 통한 언어 이해 개선"
  5. Devlin et al., "BERT: 언어 이해를 위한 심층 양방향 변환기 사전 훈련"
  6. Yinhan Liu 외, "RoBERTa: A Robustly Optimized BERT Pretraining Approach"
  7. Marcos Zampieri 외, "SemEval-2019 작업 6: 소셜 미디어에서 공격적인 언어 식별 및 분류(OffensEval)"
  8. Valerio Basile et al., "SemEval-2019 작업 5: 트위터에서 이민자 및 여성에 대한 증오심 표현의 다국어 탐지"

저자 소개

AWS는 대규모 게임 회사를 위해 LLM(대형 언어 모델)을 미세 조정하여 유해한 음성을 분류합니다 | Amazon Web Services PlatoBlockchain 데이터 인텔리전스. 수직 검색. 일체 포함.제임스 포퀴즈 캘리포니아 오렌지 카운티에 위치한 AWS Professional Services의 데이터 과학자입니다. 그는 University of California, Irvine에서 컴퓨터 공학 학사 학위를 취득했으며 데이터 도메인에서 수년간 다양한 역할을 수행한 경험이 있습니다. 현재 그는 AWS 클라이언트를 위한 비즈니스 성과를 달성하기 위해 확장 가능한 ML 솔루션을 구현하고 배포하는 일을 하고 있습니다.

AWS는 대규모 게임 회사를 위해 LLM(대형 언어 모델)을 미세 조정하여 유해한 음성을 분류합니다 | Amazon Web Services PlatoBlockchain 데이터 인텔리전스. 수직 검색. 일체 포함.한만 캘리포니아주 샌디에이고에 본사를 둔 AWS Professional Services의 선임 데이터 과학 및 기계 학습 관리자입니다. 그는 Northwestern University에서 공학 박사 학위를 받았으며 제조, 금융 서비스 및 에너지 분야에서 고객에게 조언하는 경영 컨설턴트로 수년간의 경험을 가지고 있습니다. 현재 그는 AWS에서 ML 및 GenAI 솔루션을 개발하고 구현하기 위해 다양한 산업 분야의 주요 고객과 열정적으로 협력하고 있습니다.

AWS는 대규모 게임 회사를 위해 LLM(대형 언어 모델)을 미세 조정하여 유해한 음성을 분류합니다 | Amazon Web Services PlatoBlockchain 데이터 인텔리전스. 수직 검색. 일체 포함.사파 티나즈테페 AWS Professional Services의 풀스택 데이터 과학자입니다. 그는 Emory University에서 컴퓨터 과학 학사 학위를 받았으며 MLOps, 분산 시스템 및 web3에 관심이 있습니다.

타임 스탬프 :

더보기 AWS 기계 학습