Χρησιμοποιήστε μια προσέγγιση με επίκεντρο τα δεδομένα για να ελαχιστοποιήσετε την ποσότητα δεδομένων που απαιτείται για την εκπαίδευση των μοντέλων του Amazon SageMaker

Χρησιμοποιήστε μια προσέγγιση με επίκεντρο τα δεδομένα για να ελαχιστοποιήσετε την ποσότητα δεδομένων που απαιτείται για την εκπαίδευση των μοντέλων του Amazon SageMaker

Καθώς τα μοντέλα μηχανικής μάθησης (ML) έχουν βελτιωθεί, οι επιστήμονες δεδομένων, οι μηχανικοί ML και οι ερευνητές έχουν στρέψει περισσότερο την προσοχή τους στον καθορισμό και τη βελτίωση της ποιότητας των δεδομένων. Αυτό οδήγησε στην εμφάνιση μιας προσέγγισης με επίκεντρο τα δεδομένα στο ML και σε διάφορες τεχνικές για τη βελτίωση της απόδοσης του μοντέλου εστιάζοντας στις απαιτήσεις δεδομένων. Η εφαρμογή αυτών των τεχνικών επιτρέπει στους επαγγελματίες ML να μειώσουν τον όγκο των δεδομένων που απαιτούνται για την εκπαίδευση ενός μοντέλου ML.

Ως μέρος αυτής της προσέγγισης, προηγμένες τεχνικές επιλογής υποσυνόλων δεδομένων έχουν εμφανιστεί για να επιταχύνουν την εκπαίδευση μειώνοντας την ποσότητα δεδομένων εισόδου. Αυτή η διαδικασία βασίζεται στην αυτόματη επιλογή ενός δεδομένου αριθμού σημείων που προσεγγίζουν την κατανομή ενός μεγαλύτερου δεδομένων και στη χρήση του για εκπαίδευση. Η εφαρμογή αυτού του τύπου τεχνικής μειώνει τον χρόνο που απαιτείται για την εκπαίδευση ενός μοντέλου ML.

Σε αυτήν την ανάρτηση, περιγράφουμε την εφαρμογή αρχών τεχνητής νοημοσύνης με επίκεντρο τα δεδομένα Amazon SageMaker Ground Αλήθεια, πώς να εφαρμόσετε τεχνικές επιλογής υποσυνόλου δεδομένων χρησιμοποιώντας το ΚΟΡΔΟΝΙΑ αποθετήριο σε Amazon Sage Maker για τη μείωση του όγκου των δεδομένων που απαιτούνται για την εκπαίδευση ενός αρχικού μοντέλου και τον τρόπο εκτέλεσης πειραμάτων χρησιμοποιώντας αυτήν την προσέγγιση Πειράματα Amazon SageMaker.

Μια προσέγγιση με επίκεντρο τα δεδομένα στη μηχανική μάθηση

Πριν προχωρήσετε σε πιο προηγμένες τεχνικές με επίκεντρο τα δεδομένα, όπως η επιλογή υποσυνόλου δεδομένων, μπορείτε να βελτιώσετε τα σύνολα δεδομένων σας με πολλούς τρόπους, εφαρμόζοντας ένα σύνολο βασικών αρχών στη διαδικασία επισήμανσης δεδομένων. Για αυτό, το Ground Truth υποστηρίζει διάφορους μηχανισμούς για τη βελτίωση της συνοχής της ετικέτας και της ποιότητας των δεδομένων.

Η συνέπεια της ετικέτας είναι σημαντική για τη βελτίωση της απόδοσης του μοντέλου. Χωρίς αυτό, τα μοντέλα δεν μπορούν να δημιουργήσουν ένα όριο απόφασης που να χωρίζει κάθε σημείο που ανήκει σε διαφορετικές κλάσεις. Ένας τρόπος για να διασφαλιστεί η συνέπεια είναι η χρήση ενοποίηση σχολιασμού στο Ground Truth, το οποίο σας επιτρέπει να προβάλετε ένα δεδομένο παράδειγμα σε πολλούς ετικετοποιητές και να χρησιμοποιήσετε τη συγκεντρωτική ετικέτα που παρέχεται ως βασική αλήθεια για αυτό το παράδειγμα. Η απόκλιση στην ετικέτα μετριέται με τη βαθμολογία εμπιστοσύνης που δημιουργείται από το Ground Truth. Όταν υπάρχει απόκλιση στις ετικέτες, θα πρέπει να κοιτάξετε για να δείτε εάν υπάρχει ασάφεια στις οδηγίες επισήμανσης που παρέχονται στους ετικετογράφους σας και μπορούν να αφαιρεθούν. Αυτή η προσέγγιση μετριάζει τις επιπτώσεις της μεροληψίας μεμονωμένων ετικετών, κάτι που είναι κεντρικό για να γίνουν οι ετικέτες πιο συνεπείς.

Ένας άλλος τρόπος για τη βελτίωση της απόδοσης του μοντέλου εστιάζοντας στα δεδομένα περιλαμβάνει την ανάπτυξη μεθόδων για την ανάλυση σφαλμάτων στις ετικέτες καθώς καταλήγουν στον εντοπισμό του πιο σημαντικού υποσυνόλου δεδομένων προς βελτίωση. μπορείτε να το κάνετε αυτό για το σύνολο δεδομένων εκπαίδευσής σας με έναν συνδυασμό χειροκίνητων προσπαθειών που περιλαμβάνουν κατάδυση σε παραδείγματα με ετικέτα και χρησιμοποιώντας το amazoncloudwatch αρχεία καταγραφής και μετρήσεις που δημιουργούνται από εργασίες επισήμανσης Ground Truth. Είναι επίσης σημαντικό να εξετάζουμε τα λάθη που κάνει το μοντέλο κατά το χρόνο συμπερασμάτων για να οδηγήσουμε στην επόμενη επανάληψη της επισήμανσης για το σύνολο δεδομένων μας. Εκτός από αυτούς τους μηχανισμούς, Amazon SageMaker Clerify επιτρέπει σε επιστήμονες δεδομένων και μηχανικούς ML να εκτελούν αλγόριθμους όπως KernelSHAP να τους επιτρέψει να ερμηνεύσουν τις προβλέψεις του μοντέλου τους. Όπως αναφέρθηκε, μια βαθύτερη εξήγηση στις προβλέψεις του μοντέλου μπορεί να συσχετιστεί με την αρχική διαδικασία επισήμανσης για τη βελτίωσή της.

Τέλος, μπορείτε να σκεφτείτε να πετάξετε θορυβώδη ή υπερβολικά περιττά παραδείγματα. Κάνοντας αυτό, μπορείτε να μειώσετε τον χρόνο εκπαίδευσης αφαιρώντας παραδείγματα που δεν συμβάλλουν στη βελτίωση της απόδοσης του μοντέλου. Ωστόσο, η μη αυτόματη αναγνώριση ενός χρήσιμου υποσυνόλου ενός δεδομένου συνόλου δεδομένων είναι δύσκολη και χρονοβόρα. Η εφαρμογή των τεχνικών επιλογής υποσυνόλου δεδομένων που περιγράφονται σε αυτήν την ανάρτηση σάς επιτρέπει να αυτοματοποιήσετε αυτήν τη διαδικασία σε καθιερωμένα πλαίσια.

Περίπτωση χρήσης

Όπως αναφέρθηκε, η τεχνητή νοημοσύνη με επίκεντρο τα δεδομένα εστιάζει στη βελτίωση της εισαγωγής του μοντέλου και όχι στην αρχιτεκτονική του ίδιου του μοντέλου. Αφού εφαρμόσετε αυτές τις αρχές κατά την επισήμανση δεδομένων ή τη μηχανική χαρακτηριστικών, μπορείτε να συνεχίσετε να εστιάζετε στην εισαγωγή του μοντέλου εφαρμόζοντας την επιλογή υποσυνόλου δεδομένων κατά την εκπαίδευση.

Για αυτήν την ανάρτηση, εφαρμόζουμε Επιλογή υποσυνόλου δεδομένων βάσει γενίκευσης για αποτελεσματική και ισχυρή μάθηση (GLISTER), η οποία είναι μία από τις πολλές τεχνικές επιλογής υποσυνόλων δεδομένων που εφαρμόζονται στο αποθετήριο CORDS, στον αλγόριθμο εκπαίδευσης ενός ResNet-18 μοντέλο για να ελαχιστοποιηθεί ο χρόνος που χρειάζεται για την εκπαίδευση ενός μοντέλου για ταξινόμηση CIFAR-10 εικόνες. Ακολουθούν μερικά δείγματα εικόνων με τις αντίστοιχες ετικέτες τους από το σύνολο δεδομένων CIFAR-10.

Σύνολο δεδομένων CIFAR

Το ResNet-18 χρησιμοποιείται συχνά για εργασίες ταξινόμησης. Είναι ένα βαθύ συνελικτικό νευρωνικό δίκτυο 18 επιπέδων. Το σύνολο δεδομένων CIFAR-10 χρησιμοποιείται συχνά για την αξιολόγηση της εγκυρότητας διαφόρων τεχνικών και προσεγγίσεων στο ML. Αποτελείται από 60,000 έγχρωμες εικόνες 32×32 με ετικέτα σε 10 κατηγορίες.

Στις ακόλουθες ενότητες, δείχνουμε πώς το GLISTER μπορεί να σας βοηθήσει να απαντήσετε σε κάποιο βαθμό στην ακόλουθη ερώτηση:

Τι ποσοστό ενός δεδομένου συνόλου δεδομένων μπορούμε να χρησιμοποιήσουμε και να επιτύχουμε καλή απόδοση μοντέλου κατά τη διάρκεια της εκπαίδευσης;

Η εφαρμογή του GLISTER στον προπονητικό σας αλγόριθμο θα εισαγάγει το κλάσμα ως υπερπαράμετρο στον αλγόριθμο προπόνησής σας. Αυτό αντιπροσωπεύει το ποσοστό του δεδομένου δεδομένων που θέλετε να χρησιμοποιήσετε. Όπως με κάθε υπερπαράμετρο, η εύρεση της τιμής που παράγει το καλύτερο αποτέλεσμα για το μοντέλο και τα δεδομένα σας απαιτεί συντονισμό. Δεν μπαίνουμε σε βάθος σε συντονισμό υπερπαραμέτρων σε αυτήν την ανάρτηση. Για περισσότερες πληροφορίες, ανατρέξτε στο Βελτιστοποιήστε τις υπερπαραμέτρους με το Amazon SageMaker Automatic Model Tuning.

Εκτελούμε πολλές δοκιμές χρησιμοποιώντας τα πειράματα SageMaker για να μετρήσουμε τον αντίκτυπο της προσέγγισης. Τα αποτελέσματα θα διαφέρουν ανάλογα με το αρχικό σύνολο δεδομένων, επομένως είναι σημαντικό να δοκιμάσουμε την προσέγγιση σε σχέση με τα δεδομένα μας σε διαφορετικά μεγέθη υποσυνόλου.

Αν και συζητάμε τη χρήση του GLISTER σε εικόνες, μπορείτε επίσης να το εφαρμόσετε σε αλγόριθμους εκπαίδευσης που εργάζονται με δομημένα ή πινακοποιημένα δεδομένα.

Επιλογή υποσυνόλου δεδομένων

Ο σκοπός της επιλογής υποσυνόλου δεδομένων είναι να επιταχύνει τη διαδικασία εκπαίδευσης, ελαχιστοποιώντας παράλληλα τις επιπτώσεις στην ακρίβεια και αυξάνοντας την ευρωστία του μοντέλου. Πιο συγκεκριμένα, το GLISTER-ONLINE επιλέγει ένα υποσύνολο καθώς μαθαίνει το μοντέλο, επιχειρώντας να μεγιστοποιήσει την πιθανότητα καταγραφής αυτού του υποσυνόλου δεδομένων εκπαίδευσης στο σύνολο επικύρωσης που καθορίζετε. Η βελτιστοποίηση της επιλογής υποσυνόλου δεδομένων με αυτόν τον τρόπο μετριάζει τον θόρυβο και την ανισορροπία κλάσης που συναντάται συχνά σε σύνολα δεδομένων του πραγματικού κόσμου και επιτρέπει στη στρατηγική επιλογής υποσυνόλου να προσαρμόζεται καθώς μαθαίνει το μοντέλο.

Η αρχική Χαρτί GLISTER περιγράφει μια αντιστάθμιση επιτάχυνσης/ακρίβειας σε διάφορα μεγέθη υποσυνόλου δεδομένων όπως ακολουθείται χρησιμοποιώντας α LeNet μοντέλο:

Μέγεθος υποσυνόλου επιτάχυνση Ακρίβεια
10% 6x -3%
30% 2.5x -1.20%
50% 1.5x -0.20%

Για να εκπαιδεύσουμε το μοντέλο, τρέχουμε ένα Εργασία εκπαίδευσης SageMaker χρησιμοποιώντας ένα προσαρμοσμένο σενάριο εκπαίδευσης. Έχουμε ήδη ανεβάσει το σύνολο δεδομένων εικόνων μας στο Απλή υπηρεσία αποθήκευσης Amazon (Amazon S3). Όπως με κάθε εργασία εκπαίδευσης του SageMaker, πρέπει να ορίσουμε ένα Estimator αντικείμενο. Ο εκτιμητής PyTorch από το sagemaker.pytorch Το πακέτο μας επιτρέπει να τρέξουμε το δικό μας σενάριο εκπαίδευσης σε ένα διαχειριζόμενο κοντέινερ PyTorch. ο inputs μεταβλητή μεταβιβάστηκε στον εκτιμητή .fit Η συνάρτηση περιέχει ένα λεξικό της θέσης S3 του συνόλου δεδομένων εκπαίδευσης και επικύρωσης.

Η train.py Το σενάριο εκτελείται όταν εκκινείται μια εργασία εκπαίδευσης. Σε αυτό το σενάριο, εισάγουμε το μοντέλο ResNet-18 από τη βιβλιοθήκη CORDS και του μεταβιβάζουμε τον αριθμό των κλάσεων στο σύνολο δεδομένων μας ως εξής:

from cords.utils.models import ResNet18 numclasses = 10
model = ResNet18(numclasses)

Στη συνέχεια, χρησιμοποιούμε το gen_dataset λειτουργία από το CORDS για τη δημιουργία συνόλων δεδομένων εκπαίδευσης, επικύρωσης και δοκιμής:

from cords.utils.data.datasets.SL import gen_dataset train_set, validation_set, test_set, numclasses = gen_dataset(
datadir="/opt/ml/input/data/training",
dset_name="cifar10",
feature="dss",
type="image")

Από κάθε σύνολο δεδομένων, δημιουργούμε ένα αντίστοιχο πρόγραμμα φόρτωσης δεδομένων PyTorch:

train_loader = torch.utils.data.DataLoader(train_set,
batch_size=batch_size,
shuffle=True) validation_loader = torch.utils.data.DataLoader(validation_set,
batch_size=batch_size,
shuffle=False)

Τέλος, χρησιμοποιούμε αυτά τα προγράμματα φόρτωσης δεδομένων για να δημιουργήσουμε ένα GLISTERDataLoader από τη βιβλιοθήκη CORDS. Χρησιμοποιεί μια υλοποίηση της στρατηγικής επιλογής GLISTER-ONLINE, η οποία εφαρμόζει την επιλογή υποσυνόλων καθώς ενημερώνουμε το μοντέλο κατά τη διάρκεια της εκπαίδευσης, όπως συζητήθηκε νωρίτερα σε αυτήν την ανάρτηση.

Για να δημιουργήσουμε το αντικείμενο, περνάμε τα συγκεκριμένα ορίσματα στρατηγικής επιλογής ως α DotMap αντικείμενο μαζί με το train_loader, validation_loader, να logger:

import logging
from cords.utils.data.dataloader.SL.adaptive import GLISTERDataLoader
from dotmap import DotMap dss_args = # GLISTERDataLoader specific arguments
dss_args = DotMap(dss_args)
dataloader = GLISTERDataLoader(train_loader,
validation_loader,
dss_args,
logger,
batch_size=batch_size,
shuffle=True,
pin_memory=False)

Η GLISTERDataLoader μπορεί τώρα να εφαρμοστεί ως κανονικός φορτωτής δεδομένων σε βρόχο εκπαίδευσης. Θα επιλέξει υποσύνολα δεδομένων για την επόμενη παρτίδα εκπαίδευσης καθώς το μοντέλο μαθαίνει με βάση την απώλεια αυτού του μοντέλου. Όπως αποδεικνύεται στον προηγούμενο πίνακα, η προσθήκη μιας στρατηγικής επιλογής υποσυνόλου δεδομένων μάς επιτρέπει να μειώσουμε σημαντικά τον χρόνο εκπαίδευσης, ακόμη και με το πρόσθετο βήμα της επιλογής υποσυνόλου δεδομένων, με μικρή αντιστάθμιση στην ακρίβεια.

Οι επιστήμονες δεδομένων και οι μηχανικοί ML χρειάζεται συχνά να αξιολογήσουν την εγκυρότητα μιας προσέγγισης συγκρίνοντάς την με κάποια βασική γραμμή. Δείχνουμε πώς να το κάνετε αυτό στην επόμενη ενότητα.

Πειραματική παρακολούθηση

Μπορείτε να χρησιμοποιήσετε το SageMaker Experiments για να μετρήσετε την εγκυρότητα της προσέγγισης επιλογής υποσυνόλου δεδομένων. Για περισσότερες πληροφορίες, βλ Πειράματα Amazon SageMaker επόμενης γενιάς – Οργανώστε, παρακολουθήστε και συγκρίνετε τις εκπαιδεύσεις μηχανικής εκμάθησης σε κλίμακα.

Στην περίπτωσή μας, εκτελούμε τέσσερα πειράματα: μια γραμμή βάσης χωρίς εφαρμογή επιλογής υποσυνόλου δεδομένων και άλλα τρία με διαφορετικά fraction παραμέτρους, οι οποίες αντιπροσωπεύουν το μέγεθος του υποσυνόλου σε σχέση με το συνολικό σύνολο δεδομένων. Φυσικά, χρησιμοποιώντας ένα μικρότερο fraction Η παράμετρος θα πρέπει να έχει ως αποτέλεσμα μειωμένους χρόνους εκπαίδευσης, αλλά και χαμηλότερη ακρίβεια μοντέλου.

Για αυτήν τη θέση, κάθε διαδρομή εκπαίδευσης αντιπροσωπεύεται ως α Run στο SageMaker Experiments. Οι εκτελέσεις που σχετίζονται με το πείραμά μας ομαδοποιούνται όλες σε μία Experiment αντικείμενο. Οι εκτελέσεις μπορούν να προσαρτηθούν σε ένα κοινό πείραμα κατά τη δημιουργία του Estimator με το SDK. Δείτε τον παρακάτω κώδικα:

from sagemaker.utils import unique_name_from_base
from sagemaker.experiments.run import Run, load_run experiment_name = unique_name_from_base("data-centric-experiment")
with Run(
experiment_name=experiment_name,
sagemaker_session=sess
) as run:
estimator = PyTorch('train.py',
source_dir="source",
role=role,
instance_type=instance_type,
instance_count=1,
framework_version=framework_version,
py_version='py3',
env={ 'SAGEMAKER_REQUIREMENTS': 'requirements.txt',
})
estimator.fit(inputs)

Ως μέρος του προσαρμοσμένου σεναρίου εκπαίδευσης, μπορείτε να συλλέξετε μετρήσεις εκτέλεσης χρησιμοποιώντας load_run:

from sagemaker.experiments.run import load_run
from sagemaker.session import Session if __name__ == "__main__":
args = parse_args()
session = Session(boto3.session.Session(region_name=args.region))
with load_run(sagemaker_session=session) as run:
train(args, run)

Στη συνέχεια, χρησιμοποιώντας το αντικείμενο εκτέλεσης που επιστράφηκε από την προηγούμενη λειτουργία, μπορείτε να συλλέξετε σημεία δεδομένων ανά εποχή με κλήση run.log_metric(name, value, step) και παρέχοντας το μετρικό όνομα, την τιμή και τον τρέχοντα αριθμό εποχής.

Για να μετρήσουμε την εγκυρότητα της προσέγγισής μας, συλλέγουμε μετρήσεις που αντιστοιχούν σε απώλεια προπόνησης, ακρίβεια εκπαίδευσης, απώλεια επικύρωσης, ακρίβεια επικύρωσης και χρόνο για την ολοκλήρωση μιας εποχής. Στη συνέχεια, αφού εκτελέσουμε τις εργασίες εκπαίδευσης, μπορούμε ελέγξτε τα αποτελέσματα του πειράματός μας in Στούντιο Amazon SageMaker ή μέσω του SageMaker Experiments SDK.

Για να δείτε τις ακρίβειες επικύρωσης στο Studio, επιλέξτε Αναλύστε στο πείραμα Τρέχει .

Λίστα πειραμάτων

Προσθέστε ένα γράφημα, ορίστε τις ιδιότητες του γραφήματος και επιλέξτε Δημιουργία. Όπως φαίνεται στο παρακάτω στιγμιότυπο οθόνης, θα δείτε μια γραφική παράσταση με τις ακρίβειες επικύρωσης σε κάθε εποχή για όλες τις εκτελέσεις.

Διάγραμμα πειραμάτων

Το SDK σάς επιτρέπει επίσης να ανακτήσετε πληροφορίες που σχετίζονται με το πείραμα ως πλαίσιο δεδομένων Pandas:

from sagemaker.analytics import ExperimentAnalytics trial_component_analytics = ExperimentAnalytics(
sagemaker_session=sess.sagemaker_client,
experiment_name=experiment_name
)
analytic_table = trial_component_analytics.dataframe()

Προαιρετικά, οι εργασίες κατάρτισης μπορούν να ταξινομηθούν. Για παράδειγμα, θα μπορούσαμε να προσθέσουμε "metrics.validation:accuracy.max" ως η αξία του sort_by η παράμετρος μεταβιβάστηκε σε ExperimentAnalytics για να επιστρέψετε το αποτέλεσμα διατεταγμένο με ακρίβεια επικύρωσης.

Όπως ήταν αναμενόμενο, τα πειράματά μας δείχνουν ότι η εφαρμογή του GLISTER και της επιλογής υποσυνόλου δεδομένων στον αλγόριθμο εκπαίδευσης μειώνει τον χρόνο εκπαίδευσης. Κατά την εκτέλεση του βασικού μας αλγόριθμου εκπαίδευσης, ο διάμεσος χρόνος για την ολοκλήρωση μιας μεμονωμένης εποχής κυμαίνεται γύρω στα 27 δευτερόλεπτα. Αντίθετα, η εφαρμογή του GLISTER για την επιλογή ενός υποσυνόλου ισοδύναμου με το 50%, 30% και 10% του συνολικού συνόλου δεδομένων έχει ως αποτέλεσμα χρόνους να συμπληρωθεί μια εποχή περίπου 13, 8.5 και 2.75 δευτερολέπτων, αντίστοιχα, σε ml.p3.2x μεγάλες περιπτώσεις .

Παρατηρούμε επίσης μια σχετικά ελάχιστη επίδραση στην ακρίβεια επικύρωσης, ειδικά όταν χρησιμοποιούνται υποσύνολα δεδομένων 50%. Μετά από εκπαίδευση για 100 εποχές, η βασική γραμμή παράγει μια ακρίβεια επικύρωσης 92.72%. Αντίθετα, η εφαρμογή του GLISTER για την επιλογή ενός υποσυνόλου ισοδύναμου με το 50%, το 30% και το 10% του συνολικού συνόλου δεδομένων έχει ως αποτέλεσμα ακρίβειες επικύρωσης 91.42%, 89.76% και 82.82% αντίστοιχα.

Συμπέρασμα

Τα πειράματα SageMaker Ground Truth και SageMaker επιτρέπουν μια προσέγγιση με επίκεντρο τα δεδομένα στη μηχανική μάθηση, επιτρέποντας σε επιστήμονες δεδομένων και μηχανικούς ML να παράγουν πιο συνεπή σύνολα δεδομένων και να παρακολουθούν τον αντίκτυπο πιο προηγμένων τεχνικών καθώς τις εφαρμόζουν στη φάση κατασκευής μοντέλων. Η εφαρμογή μιας προσέγγισης με επίκεντρο τα δεδομένα στο ML σάς επιτρέπει να μειώσετε τον όγκο των δεδομένων που απαιτείται από το μοντέλο σας και να βελτιώσετε την ευρωστία του.

Δοκιμάστε το και πείτε μας τη γνώμη σας στα σχόλια.


Σχετικά με τους συγγραφείς

Use a data-centric approach to minimize the amount of data required to train Amazon SageMaker models PlatoBlockchain Data Intelligence. Vertical Search. Ai.Νικολά Μπερνιέ είναι Αρχιτέκτονας Λύσεων, μέλος της ομάδας του Καναδικού Δημόσιου Τομέα στο AWS. Επί του παρόντος πραγματοποιεί μεταπτυχιακό δίπλωμα με ερευνητικό τομέα στο Deep Learning και είναι κάτοχος πέντε πιστοποιήσεων AWS, συμπεριλαμβανομένης της Πιστοποίησης Ειδικότητας ML. Ο Nicolas είναι παθιασμένος με το να βοηθά τους πελάτες να εμβαθύνουν τις γνώσεις τους για το AWS συνεργαζόμενος μαζί τους για να μεταφράσουν τις επιχειρηματικές τους προκλήσεις σε τεχνικές λύσεις.

Use a data-centric approach to minimize the amount of data required to train Amazon SageMaker models PlatoBlockchain Data Intelligence. Vertical Search. Ai.Τζιβανίλντο Άλβες είναι Αρχιτέκτονας Πρωτοτύπων με την ομάδα Prototyping and Cloud Engineering στο Amazon Web Services, βοηθώντας τους πελάτες να καινοτομήσουν και να επιταχύνουν δείχνοντας την τέχνη του δυνατού στο AWS, έχοντας ήδη εφαρμόσει πολλά πρωτότυπα γύρω από την τεχνητή νοημοσύνη. Έχει μακρά καριέρα στη μηχανική λογισμικού και στο παρελθόν εργάστηκε ως Μηχανικός Ανάπτυξης Λογισμικού στο Amazon.com.br.

Σφραγίδα ώρας:

Περισσότερα από Μηχανική εκμάθηση AWS