AWS מבצעת כוונון עדין על מודל שפה גדול (LLM) כדי לסווג דיבור רעיל עבור חברת משחקים גדולה | שירותי האינטרנט של אמזון

AWS מבצעת כוונון עדין על מודל שפה גדול (LLM) כדי לסווג דיבור רעיל עבור חברת משחקים גדולה | שירותי האינטרנט של אמזון

לתעשיית משחקי הווידאו יש בסיס משתמשים מוערך של למעלה מ-3 מיליארד ברחבי העולם1. זה מורכב מכמויות אדירות של שחקנים המקיימים אינטראקציה כמעט זה עם זה מדי יום. למרבה הצער, כמו בעולם האמיתי, לא כל השחקנים מתקשרים בצורה הולמת ומכבדת. במאמץ ליצור ולתחזק סביבת משחק אחראית חברתית, שירותים מקצועיים של AWS התבקשו לבנות מנגנון שמזהה שפה לא הולמת (דיבור רעיל) בתוך אינטראקציות עם שחקנים מקוונים. התוצאה העסקית הכוללת הייתה שיפור הפעילות של הארגון על ידי אוטומציה של תהליך ידני קיים ושיפור חווית המשתמש על ידי הגברת המהירות והאיכות באיתור אינטראקציות לא מתאימות בין שחקנים, ובסופו של דבר קידום סביבת משחק נקייה ובריאה יותר.

בקשת הלקוח הייתה ליצור גלאי שפה אנגלית המסווגת קטעי קול וטקסט לקטגוריות שפה רעילות המוגדרות בהתאמה אישית. הם רצו קודם כל לקבוע אם קטע השפה הנתון הוא רעיל, ולאחר מכן לסווג את הקטע בקטגוריה ספציפית המוגדרת על ידי הלקוח של רעילות כגון ניבול פה או שפה פוגענית.

AWS ProServe פתרה את מקרה השימוש הזה באמצעות מאמץ משותף בין ה- Generative AI Innovation Center (GAIIC) וצוות ה-ProServe ML Delivery (MLDT). ה-AWS GAIIC היא קבוצה בתוך AWS ProServe שמשלבת לקוחות עם מומחים כדי לפתח פתרונות AI גנרטיביים עבור מגוון רחב של מקרי שימוש עסקיים תוך שימוש בבניית הוכחה לקונספציה (PoC). לאחר מכן, AWS ProServe MLDT מעביר את ה-PoC דרך הייצור על ידי קנה מידה, הקשחה ושילוב הפתרון עבור הלקוח.

מקרה שימוש זה של לקוחות יוצג בשני פוסטים נפרדים. פוסט זה (חלק 1) משמש כצלילה עמוקה לתוך המתודולוגיה המדעית. הוא יסביר את תהליך החשיבה והניסוי מאחורי הפתרון, כולל תהליך ההכשרה והפיתוח של המודל. חלק 2 יתעמק בפתרון המיוצר, ויסביר את החלטות התכנון, זרימת הנתונים והמחשה של ארכיטקטורת ההדרכה והפריסה של המודל.

פוסט זה מכסה את הנושאים הבאים:

  • האתגרים ש-AWS ProServe היה צריך לפתור עבור מקרה השימוש הזה
  • הקשר היסטורי לגבי מודלים של שפה גדולה (LLMs) ומדוע טכנולוגיה זו מתאימה באופן מושלם למקרה שימוש זה
  • הפתרון של PoC ו-AWS ProServe MLDT של AWS GAIIC מנקודת מבט של מדעי נתונים ולמידת מכונה (ML)

אתגר נתונים

האתגר העיקרי שעמד בפני AWS ProServe בהכשרת מסווג שפה רעילה היה השגת מספיק נתונים מסומנים מהלקוח כדי לאמן מודל מדויק מאפס. AWS קיבלה מהלקוח כ-100 דגימות של נתונים מתויגים, וזה הרבה פחות מ-1,000 הדגימות המומלצות לכוונון עדין של לימודי LLM בקהילת מדעי הנתונים.

כאתגר מובנה נוסף, ידועים היסטוריים כי מסווגים לעיבוד שפה טבעית (NLP) יקרים מאוד לאימון ודורשים מערך גדול של אוצר מילים, המכונה גוף, כדי לייצר תחזיות מדויקות. פתרון NLP קפדני ויעיל, אם יסופק כמויות מספקות של נתונים מתויגים, יהיה הדרכה של מודל שפה מותאם אישית באמצעות הנתונים המסומנים של הלקוח. המודל יאומן אך ורק עם אוצר המילים של השחקנים, מה שהופך אותו מותאם לשפה הנצפית במשחקים. ללקוח היו גם מגבלות עלויות וגם מגבלות זמן שהפכו את הפתרון הזה לבלתי כדאי. AWS ProServe נאלץ למצוא פתרון לאימון מסווג רעילות שפה מדויק עם מערך נתונים קטן יחסית עם תווית. הפתרון טמון במה שמכונה העברת למידה.

הרעיון מאחורי למידת העברה הוא להשתמש בידע של מודל שהוכשר מראש וליישם אותו על בעיה שונה אך דומה יחסית. לדוגמה, אם מסווג תמונות הוכשר לחזות אם תמונה מכילה חתול, אתה יכול להשתמש בידע שהמודל צבר במהלך הכשרתו כדי לזהות חיות אחרות כמו נמרים. במקרה של שימוש בשפה זה, AWS ProServe היה צריך למצוא מסווג שפה שעבר הכשרה שעברה הכשרה לזהות שפה רעילה ולכוונן אותה באמצעות הנתונים המסומנים של הלקוח.

הפתרון היה למצוא ולכוונן LLM כדי לסווג שפה רעילה. LLMs הן רשתות עצביות שהוכשרו באמצעות מספר עצום של פרמטרים, בדרך כלל בסדר גודל של מיליארדים, תוך שימוש בנתונים לא מסומנים. לפני שנכנסים לפתרון AWS, הסעיף הבא מספק סקירה כללית של ההיסטוריה של LLMs ומקרי השימוש ההיסטוריים שלהם.

מנצלים את הכוח של LLMs

LLMs הפכו לאחרונה למוקד לעסקים המחפשים יישומים חדשים של ML, מאז ש-ChatGPT תפס את שיתוף הפעולה הציבורי בהיותו יישום הצרכנים הצומח ביותר בהיסטוריה2, להגיע ל-100 מיליון משתמשים פעילים עד ינואר 2023, חודשיים בלבד לאחר שחרורו. עם זאת, LLMs אינם טכנולוגיה חדשה בתחום ה-ML. נעשה בהם שימוש נרחב לביצוע משימות NLP כגון ניתוח סנטימנט, סיכום גופים, חילוץ מילות מפתח, תרגום דיבור וסיווג טקסט.

בשל האופי הרציף של טקסט, רשתות עצביות חוזרות (RNNs) היו המצב המתקדם ביותר עבור דוגמנות NLP. באופן ספציפי, ה מקודד-מפענח ארכיטקטורת הרשת גובשה מכיוון שהיא יצרה מבנה RNN המסוגל לקחת קלט באורך שרירותי ולייצר פלט באורך שרירותי. זה היה אידיאלי עבור משימות NLP כמו תרגום שבהן ניתן היה לחזות ביטוי פלט של שפה אחת מביטוי קלט של שפה אחרת, בדרך כלל עם מספר שונה של מילים בין הקלט והפלט. ארכיטקטורת הרובוטריק3 (Vaswani, 2017) היה שיפור פורץ דרך במקודד-מפענח; זה הציג את המושג של תשומת לב עצמית, מה שאפשר למודל למקד את תשומת הלב שלו במילים שונות על ביטויי הקלט והפלט. במקודד-מפענח טיפוסי, כל מילה מתפרשת על ידי הדגם בצורה זהה. כאשר המודל מעבד ברצף כל מילה בביטוי קלט, המידע הסמנטי בתחילת הביטוי עלול ללכת לאיבוד עד סוף הביטוי. מנגנון הקשב העצמי שינה זאת על ידי הוספת שכבת קשב הן לבלוק המקודד והן לבלוק המפענח, כך שהמודל יוכל לשים משקלים שונים על מילים מסוימות מביטוי הקלט בעת יצירת מילה מסוימת בביטוי הפלט. כך נולד הבסיס של מודל השנאים.

ארכיטקטורת השנאים הייתה הבסיס לשניים מה-LLMs הידועים והפופולריים ביותר בשימוש כיום, ייצוגי הקוד הדו-כיווני של רובוטריקים (BERT)4 (רדפורד, 2018) והשנאי המוכשר מראש (GPT)5 (Devlin 2018). גרסאות מאוחרות יותר של דגם ה-GPT, כלומר GPT3 ו-GPT4, הן המנוע שמניע את אפליקציית ChatGPT. החלק האחרון של המתכון שהופך את ה-LLM לעוצמתי כל כך הוא היכולת לזקק מידע מגופי טקסט עצומים ללא תיוג מקיף או עיבוד מקדים באמצעות תהליך הנקרא ULMFiT. לשיטה זו יש שלב אימון קדם שבו ניתן לאסוף טקסט כללי ולאמן את המודל במשימה של חיזוי המילה הבאה על סמך מילים קודמות; היתרון כאן הוא שכל טקסט קלט המשמש לאימון מסומן מטבעו על סמך סדר הטקסט. לימודי תואר שני מסוגלים באמת ללמוד מנתונים בקנה מידה אינטרנט. לדוגמה, המודל המקורי של BERT עבר הכשרה מוקדמת ב-BookCorpus ובכל מערכי הטקסט של ויקיפדיה האנגלית.

פרדיגמת הדוגמנות החדשה הזו הולידה שני מושגים חדשים: מודלים בסיסיים (FMs) ו- Generative AI. בניגוד לאימון מודל מאפס עם נתונים ספציפיים למשימה, שהוא המקרה הרגיל ללמידה מפוקחת קלאסית, LLMs מאומנים מראש כדי לחלץ ידע כללי ממערך טקסט רחב לפני שהם מותאמים למשימות ספציפיות או לתחומים עם הרבה יותר קטן מערך נתונים (בדרך כלל בסדר גודל של מאות דוגמאות). זרימת העבודה החדשה של ML מתחילה כעת עם מודל מאומן מראש המכונה מודל יסוד. חשוב לבנות על הבסיס הנכון, ויש יותר ויותר אפשרויות, כמו החדשה מכשירי אמזון טיטאן FM, שישוחרר על ידי AWS כחלק מ סלע אמזון. מודלים חדשים אלה נחשבים גם ליצירתיים מכיוון שהתפוקות שלהם ניתנות לפירוש אנושי ובאותו סוג נתונים כמו נתוני הקלט. בעוד שמודלים של ML בעבר היו תיאוריים, כמו סיווג תמונות של חתולים לעומת כלבים, LLMs הם יצירתיים מכיוון שהפלט שלהם הוא קבוצת המילים הבאה המבוססת על מילות קלט. זה מאפשר להם להפעיל יישומים אינטראקטיביים כמו ChatGPT שיכולים להיות אקספרסיביים בתוכן שהם מייצרים.

Hugging Face שיתף פעולה עם AWS לעשות דמוקרטיזציה של חברות FM ולהפוך אותן קלות לגישה ולבנייה איתם. חיבוק פנים יצר א רובוטריקים API שמאחד יותר מ-50 ארכיטקטורות שנאים שונות במסגרות ML שונות, כולל גישה למשקולות מודל מאומנות מראש רכזת דגם, שצמח ליותר מ-200,000 דגמים נכון לכתיבת הפוסט הזה. בסעיפים הבאים, אנו חוקרים את הוכחת הרעיון, הפתרון וה-FM שנבדקו ונבחרו כבסיס לפתרון מקרה השימוש בסיווג דיבור רעיל זה עבור הלקוח.

AWS GAIIC הוכחה לקונספט

AWS GAIIC בחרה להתנסות במודלים של בסיס LLM עם ארכיטקטורת BERT כדי לכוונן עדין סיווג שפה רעילה. בסך הכל נבדקו שלושה דגמים ממרכז הדגמים של Hugging Face:

כל שלוש ארכיטקטורות המודל מבוססות על BERTweet ארכיטקטורה. BERTweet מאומן על בסיס ה רוברטה הליך טרום אימון. הליך ההדרכה המקדים של RoBERTa הוא תוצאה של מחקר שכפול של אימון מקדים של BERT שהעריך את ההשפעות של כוונון היפרפרמטרים וגודל מערך האימון כדי לשפר את המתכון לאימון מודלים של BERT6 (ליו 2019). הניסוי ביקש למצוא שיטת אימון מוקדמת ששיפרה את תוצאות הביצועים של BERT מבלי לשנות את הארכיטקטורה הבסיסית. מסקנת המחקר מצאה שהשינויים הבאים לפני האימון שיפרו משמעותית את הביצועים של BERT:

  • אימון המודל עם אצוות גדולות יותר על פני יותר נתונים
  • הסרת מטרת חיזוי המשפט הבא
  • אימון על רצפים ארוכים יותר
  • שינוי דינמי של תבנית המיסוך המוחלת על נתוני האימון

המודל הבסיסי של bertweet משתמש בהליך ההכשרה הקודמת ממחקר RoBERTa כדי לאמן מראש את ארכיטקטורת BERT המקורית באמצעות 850 מיליון ציוצים באנגלית. זהו מודל השפה הציבורי הראשון בקנה מידה גדול שהוכשר מראש לציוצים באנגלית.

FM מיומנים מראש המשתמשים בציוצים נחשבו להתאים למקרה השימוש משתי סיבות תיאורטיות עיקריות:

  • אורך הציוץ דומה מאוד לאורכו של ביטוי לא הולם או רעיל שנמצא בצ'אטים של משחקים מקוונים
  • ציוצים מגיעים מאוכלוסיה עם מגוון גדול של משתמשים שונים, בדומה לזה של האוכלוסייה שנמצאת בפלטפורמות המשחקים

AWS החליטה תחילה לכוונן את BERTweet עם הנתונים המסומנים של הלקוח כדי לקבל קו בסיס. לאחר מכן בחרו לכוונן שני FMs אחרים ב-bertweet-base-offensive and bertweet-base-hate שהוכשרו מראש במיוחד על ציוצים רעילים רלוונטיים יותר כדי להשיג דיוק פוטנציאלי גבוה יותר. המודל של bertweet-base-offensive משתמש בבסיס BertTweet FM והוא מיומן מראש על 14,100 ציוצים מוערים שנחשבו כפוגעניים7 (Zampieri 2019). מודל ה-bertweet-base-hate משתמש גם ב-BertTweet FM הבסיסי, אך מיומן מראש על 19,600 ציוצים שנחשבו כדברי שטנה8 (בזיל 2019).

כדי לשפר עוד יותר את הביצועים של מודל PoC, AWS GAIIC קיבלה שתי החלטות עיצוביות:

  • יצר זרימת חיזוי דו-שלבית שבה המודל הראשון פועל כמסווג בינארי שמסווג אם קטע טקסט רעיל או לא רעיל. הדגם השני הוא דגם עדין המסווג טקסט לפי סוגי הרעילים המוגדרים של הלקוח. רק אם המודל הראשון מנבא את הטקסט כרעיל, הוא מועבר לדגם השני.
  • הגדילו את נתוני האימון והוסיפו תת-קבוצה של מערך נתונים של טקסט רעיל מסומן על ידי צד שלישי מתחרות Kaggle ציבורית (רעילות פאזל) ל-100 הדגימות המקוריות שהתקבלו מהלקוח. הם מיפו את תוויות הפאזל לתוויות הרעילות המוגדרות על ידי הלקוח, ועשו פיצול של 80% כנתוני אימון ו-20% כנתוני בדיקה כדי לאמת את המודל.

AWS מבצעת כוונון עדין על מודל שפה גדול (LLM) כדי לסווג דיבור רעיל עבור חברת משחקים גדולה | Amazon Web Services PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

נעשה שימוש ב-AWS GAIIC אמזון SageMaker מחברות כדי להריץ את ניסויי הכוונון העדין שלהם וגילו שהמודל של bertweet-base-offensive השיג את הציונים הטובים ביותר בערכת האימות. הטבלה הבאה מסכמת את הציונים המטריים שנצפו.

מספר סימוכין דיוק להיזכר F1 AUC
בינרי . 92 . 90 . 91 . 92
עדין . 81 . 80 . 81 . 89

מנקודה זו, GAIIC מסרה את ה-PoC לצוות המסירה של AWS ProServe ML כדי לייצר את ה-PoC.

פתרון AWS ProServe ML Delivery Team

כדי לייצר את ארכיטקטורת המודל, AWS ProServe ML Delivery Team (MLDT) התבקש על ידי הלקוח ליצור פתרון שניתן להרחבה וקל לתחזוקה. היו כמה אתגרי תחזוקה של גישת מודל דו-שלבי:

  • המודלים ידרשו כמות כפולה של ניטור מודל, מה שהופך את תזמון ההכשרה מחדש ללא עקבי. ייתכנו מקרים שדגם אחד יצטרך לעבור הכשרה מחדש לעתים קרובות יותר מהשני.
  • עלויות מוגברות של הפעלת שני דגמים בניגוד לאחד.
  • מהירות ההסקה מואטת מכיוון שהמסק עובר דרך שני מודלים.

כדי להתמודד עם האתגרים הללו, AWS ProServe MLDT היה צריך להבין כיצד להפוך את ארכיטקטורת המודל הדו-שלבי לארכיטקטורת מודל יחיד, תוך כדי יכולת לשמור על הדיוק של הארכיטקטורה הדו-שלבית.

הפתרון היה קודם כל לבקש מהלקוח עוד נתוני הכשרה, ואז לכוונן את המודל הפוגעני של bertweet על כל התוויות, כולל דגימות לא רעילות, לדגם אחד. הרעיון היה שכוונון עדין של מודל אחד עם יותר נתונים יביא לתוצאות דומות כמו כוונון עדין של ארכיטקטורת מודל דו-שלבי על פחות נתונים. כדי לכוונן עדין את ארכיטקטורת המודל הדו-שלבי, AWS ProServe MLDT עדכנה את ראש הסיווג הרב-תווית של המודל שהוכשר מראש כך שיכלול צומת אחד נוסף כדי לייצג את המחלקה הלא רעילה.

להלן דגימת קוד של האופן שבו תוכל לכוונן דגם מאומן מראש ממרכז המודלים של Hugging Face באמצעות פלטפורמת השנאים שלהם ולשנות את ראש הסיווג הרב-תוויות של הדגם כדי לחזות את מספר המחלקות הרצוי. AWS ProServe MLDT השתמש בתוכנית זו כבסיס לכוונון עדין. זה מניח שנתוני הרכבת ונתוני האימות שלך מוכנים ובפורמט הקלט הנכון.

ראשית, מודולי Python מיובאים כמו גם הדגם המיומן מראש ממרכז המודלים של Hugging Face:

# Imports.
from transformers import ( AutoModelForSequenceClassification, AutoTokenizer, DataCollatorWithPadding, PreTrainedTokenizer, Trainer, TrainingArguments,
) # Load pretrained model from model hub into a tokenizer.
model_checkpoint = “cardiffnlp/bertweet-base-offensive”
tokenizer = AutoTokenizer.from_pretrained(checkpoint)

לאחר מכן, הדגם שהוכשר מראש נטען ומוכן לכוונון עדין. זהו השלב שבו מגדירים את מספר הקטגוריות הרעילות וכל פרמטרי המודל:

# Load pretrained model into a sequence classifier to be fine-tuned and define the number of classes you want to classify in the num_labels parameter. model = AutoModelForSequenceClassification.from_pretrained( model_checkpoint, num_labels=[number of classes] ) # Set your training parameter arguments. The below are some key parameters that AWS ProServe MLDT tuned:
training_args = TrainingArguments( num_train_epochs=[enter input] per_device_train_batch_size=[enter input] per_device_eval_batch_size=[enter input] evaluation_strategy="epoch", logging_strategy="epoch", save_strategy="epoch", learning_rate=[enter input] load_best_model_at_end=True, metric_for_best_model=[enter input] optim=[enter input], )

כוונון עדין של המודל מתחיל בהזנת נתיבים למערכי הנתונים של ההדרכה והאימות:

# Finetune the model from the model_checkpoint, tokenizer, and training_args defined assuming train and validation datasets are correctly preprocessed.
trainer = Trainer( model=model, args=training_args, train_dataset=[enter input], eval_dataset=[enter input], tokenizer=tokenizer, data_collator=data_collator, ) # Finetune model command.
trainer.train()

AWS ProServe MLDT קיבלה עוד כ-5,000 דגימות נתונים מתויגות, 3,000 אינן רעילות ו-2,000 רעילות, וכיוונה עדינה את כל שלושת הדגמים המבוססים על bertweet, תוך שילוב כל התוויות לדגם אחד. הם השתמשו בנתונים אלה בנוסף ל-5,000 הדגימות מה-PoC כדי לכוונן מודלים חד-שלביים חדשים באמצעות אותה שיטת 80% רכבת, 20% ערכת בדיקה. הטבלה הבאה מראה שציוני הביצועים היו דומים לזה של המודל הדו-שלבי.

מספר סימוכין דיוק להיזכר F1 AUC
bertweet-base (1-Stage) . 76 . 72 . 74 . 83
bertweet-base-hate (1-Stage) . 85 . 82 . 84 . 87
bertweet-base-offensive (1-Stage) . 88 . 83 . 86 . 89
bertweet-base-offensive (2-Stage) . 91 . 90 . 90 . 92

גישת המודל החד-שלבי סיפקה את שיפורי העלות והתחזוקה תוך הפחתת הדיוק ב-3%. לאחר שקלול הפשרות, הלקוח בחר ב-AWS ProServe MLDT כדי לייצר את הדגם החד-שלבי.

על ידי כוונון עדין של דגם אחד עם נתונים מתויגים יותר, AWS ProServe MLDT הצליח לספק פתרון שעמד בסף של הלקוח לדיוק הדגם, כמו גם לספק את בקשתו לקלות תחזוקה, תוך הפחתת עלויות והגדלת החוסן.

סיכום

לקוח משחק גדול חיפש דרך לזהות שפה רעילה בתוך ערוצי התקשורת שלו כדי לקדם סביבת משחקים אחראית חברתית. AWS GAIIC יצרה PoC של גלאי שפה רעילה על ידי כוונון עדין של LLM לזיהוי שפה רעילה. AWS ProServe MLDT עדכנה אז את זרימת ההדרכה של המודל מגישה דו-שלבית לגישה חד-שלבית ויצרה את ה-LLM עבור הלקוח לשימוש בקנה מידה.

בפוסט זה, AWS מדגים את האפקטיביות והמעשיות של כוונון עדין של LLM כדי לפתור מקרה שימוש זה של לקוחות, חולק הקשר על ההיסטוריה של מודלים בסיסיים ו-LLMs, ומציג את זרימת העבודה בין AWS Generative AI Innovation Center ו-AWS ProServe ML צוות משלוחים. בפוסט הבא בסדרה זו, נצלול לעומק כיצד AWS ProServe MLDT ייצר את הדגם החד-שלבי שנוצר באמצעות SageMaker.

אם אתה מעוניין לעבוד עם AWS כדי לבנות פתרון AI Generative, אנא פנה אל GAIIC. הם יעריכו את מקרה השימוש שלך, יבנו הוכחה מבוססת AI מבוססת, ויהיה להם אפשרויות להרחיב את שיתוף הפעולה עם AWS כדי ליישם את ה-PoC שנוצר לייצור.

הפניות

  1. דמוגרפיה של גיימרים: עובדות וסטטיסטיקות על התחביב הפופולרי ביותר בעולם
  2. ChatGPT קובע שיא עבור בסיס המשתמשים הצומח ביותר - הערת אנליסט
  3. Vaswani וחב', "תשומת לב היא כל מה שאתה צריך"
  4. רדפורד וחב', "שיפור הבנת השפה על ידי אימון מקדים גנרטיבי"
  5. Devlin וחב', "BERT: אימון מקדים של רובוטריקים דו-כיווניים עמוקים להבנת שפה"
  6. Yinhan Liu וחב', "RoBERTa: A Robustly Optimized Pretraining BERT Approach"
  7. Marcos Zampieri וחב', "SemEval-2019 משימה 6: זיהוי וסיווג שפה פוגענית במדיה חברתית (OffensEval)"
  8. Valerio Basile וחב', "SemEval-2019 משימה 5: זיהוי רב לשוני של דברי שנאה נגד מהגרים ונשים בטוויטר"

על המחברים

AWS מבצעת כוונון עדין על מודל שפה גדול (LLM) כדי לסווג דיבור רעיל עבור חברת משחקים גדולה | Amazon Web Services PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.ג'יימס פוקיז הוא מדען נתונים עם שירותים מקצועיים של AWS שבסיסו במחוז אורנג', קליפורניה. יש לו תואר ראשון במדעי המחשב מאוניברסיטת קליפורניה, אירווין ויש לו כמה שנות ניסיון בעבודה בתחום הנתונים לאחר שמילא תפקידים רבים ושונים. כיום הוא עובד על הטמעה ופריסה של פתרונות ML הניתנים להרחבה כדי להשיג תוצאות עסקיות עבור לקוחות AWS.

AWS מבצעת כוונון עדין על מודל שפה גדול (LLM) כדי לסווג דיבור רעיל עבור חברת משחקים גדולה | Amazon Web Services PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.האן מן הוא מנהל בכיר למדעי נתונים ולמידת מכונה עם שירותים מקצועיים של AWS שבסיסו בסן דייגו, קליפורניה. יש לו דוקטורט בהנדסה מאוניברסיטת נורת'ווסטרן ויש לו ניסיון של מספר שנים כיועץ ניהולי בייעוץ ללקוחות בייצור, שירותים פיננסיים ואנרגיה. כיום, הוא עובד בלהט עם לקוחות מפתח ממגוון רחב של ענפים כדי לפתח ולהטמיע פתרונות ML ו-GenAI ב-AWS.

AWS מבצעת כוונון עדין על מודל שפה גדול (LLM) כדי לסווג דיבור רעיל עבור חברת משחקים גדולה | Amazon Web Services PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.סאפא טינזטפה הוא מדען נתונים מלא עם שירותים מקצועיים של AWS. יש לו תואר ראשון במדעי המחשב מאוניברסיטת אמורי ויש לו תחומי עניין ב-MLOps, מערכות מבוזרות ו-web3.

בול זמן:

עוד מ למידת מכונות AWS