Οι διαδικτυακές συνομιλίες είναι πανταχού παρούσες στη σύγχρονη ζωή, καλύπτοντας κλάδους από βιντεοπαιχνίδια έως τηλεπικοινωνίες. Αυτό οδήγησε σε μια εκθετική αύξηση του όγκου των δεδομένων διαδικτυακών συνομιλιών, γεγονός που βοήθησε στην ανάπτυξη υπερσύγχρονων συστημάτων επεξεργασίας φυσικής γλώσσας (NLP), όπως τα chatbots και τα μοντέλα παραγωγής φυσικής γλώσσας (NLG). Με την πάροδο του χρόνου, διάφορες τεχνικές NLP για την ανάλυση κειμένου έχουν επίσης εξελιχθεί. Αυτό απαιτεί την απαίτηση για μια πλήρως διαχειριζόμενη υπηρεσία που μπορεί να ενσωματωθεί σε εφαρμογές που χρησιμοποιούν κλήσεις API χωρίς την ανάγκη εκτεταμένης τεχνογνωσίας μηχανικής εκμάθησης (ML). Η AWS προσφέρει προεκπαιδευμένες υπηρεσίες AWS AI όπως Κατανοήστε το Amazon, το οποίο μπορεί να χειριστεί αποτελεσματικά περιπτώσεις χρήσης NLP που περιλαμβάνουν ταξινόμηση, σύνοψη κειμένου, αναγνώριση οντοτήτων και πολλά άλλα για τη συλλογή πληροφοριών από το κείμενο.
Επιπλέον, οι διαδικτυακές συνομιλίες έχουν οδηγήσει σε ένα ευρέως διαδεδομένο φαινόμενο μη παραδοσιακής χρήσης της γλώσσας. Οι παραδοσιακές τεχνικές NLP συχνά έχουν κακή απόδοση σε αυτά τα δεδομένα κειμένου λόγω των συνεχώς εξελισσόμενων και ειδικών λεξιλογίων που υπάρχουν σε διαφορετικές πλατφόρμες, καθώς και των σημαντικών λεξιλογικών αποκλίσεων των λέξεων από τα σωστά Αγγλικά, είτε τυχαία είτε σκόπιμα ως μια μορφή αντίθετης επίθεσης .
Σε αυτήν την ανάρτηση, περιγράφουμε πολλαπλές προσεγγίσεις ML για την ταξινόμηση κειμένου των διαδικτυακών συνομιλιών με εργαλεία και υπηρεσίες που διατίθενται στο AWS.
Προϋποθέσεις
Πριν βουτήξετε βαθιά σε αυτήν την περίπτωση χρήσης, συμπληρώστε τις ακόλουθες προϋποθέσεις:
- Δημιουργήστε ένα Λογαριασμός AWS και δημιουργήστε έναν χρήστη IAM.
- Ρυθμίστε το AWS CLI και SDK AWS.
- (Προαιρετικό) Ρυθμίστε το δικό σας Περιβάλλον Cloud9 IDE.
Σύνολο δεδομένων
Για αυτήν την ανάρτηση, χρησιμοποιούμε το Το Jigsaw Unintended Bias στο σύνολο δεδομένων ταξινόμησης τοξικότητας, ένα σημείο αναφοράς για το συγκεκριμένο πρόβλημα της ταξινόμησης της τοξικότητας στις διαδικτυακές συνομιλίες. Το σύνολο δεδομένων παρέχει ετικέτες τοξικότητας καθώς και πολλά χαρακτηριστικά υποομάδας, όπως άσεμνο, επίθεση ταυτότητας, προσβολή, απειλή και σεξουαλικά ρητά. Οι ετικέτες παρέχονται ως κλασματικές τιμές, οι οποίες αντιπροσωπεύουν το ποσοστό των ανθρώπινων σχολιαστών που πίστευαν ότι το χαρακτηριστικό εφαρμόζεται σε ένα δεδομένο κομμάτι κειμένου, οι οποίες σπάνια είναι ομόφωνες. Για τη δημιουργία δυαδικών ετικετών (για παράδειγμα, τοξικές ή μη τοξικές), εφαρμόζεται ένα όριο 0.5 στις κλασματικές τιμές και τα σχόλια με τιμές μεγαλύτερες από το όριο αντιμετωπίζονται ως η θετική κατηγορία για αυτήν την ετικέτα.
Ενσωμάτωση υπολέξεων και RNN
Για την πρώτη μας προσέγγιση μοντελοποίησης, χρησιμοποιούμε έναν συνδυασμό ενσωμάτωσης υπολέξεων και επαναλαμβανόμενων νευρωνικών δικτύων (RNNs) για την εκπαίδευση μοντέλων ταξινόμησης κειμένου. Οι ενσωματώσεις υπολέξεων εισήχθησαν από Οι Bojanowski et al. το 2017 ως βελτίωση σε σχέση με προηγούμενες μεθόδους ενσωμάτωσης σε επίπεδο λέξης. Τα παραδοσιακά μοντέλα skip-gram Word2Vec εκπαιδεύονται για να μάθουν μια στατική διανυσματική αναπαράσταση μιας λέξης στόχου που προβλέπει βέλτιστα το πλαίσιο αυτής της λέξης. Τα μοντέλα υπολέξεων, από την άλλη πλευρά, αντιπροσωπεύουν κάθε λέξη-στόχο ως μια τσάντα των χαρακτήρων n-grams που αποτελούν τη λέξη, όπου ένα n-gram αποτελείται από ένα σύνολο n διαδοχικών χαρακτήρων. Αυτή η μέθοδος επιτρέπει στο μοντέλο ενσωμάτωσης να αντιπροσωπεύει καλύτερα την υποκείμενη μορφολογία των σχετικών λέξεων στο σώμα καθώς και τον υπολογισμό των ενσωματώσεων για νέες λέξεις εκτός λεξιλογίου (OOV). Αυτό είναι ιδιαίτερα σημαντικό στο πλαίσιο των διαδικτυακών συνομιλιών, ενός προβληματικού χώρου στον οποίο οι χρήστες συχνά γράφουν λάθος λέξεις (μερικές φορές σκόπιμα για να αποφύγουν τον εντοπισμό) και χρησιμοποιούν επίσης ένα μοναδικό, συνεχώς εξελισσόμενο λεξιλόγιο που μπορεί να μην καταγραφεί από ένα γενικό εκπαιδευτικό σώμα.
Amazon Sage Maker διευκολύνει την εκπαίδευση και τη βελτιστοποίηση ενός μοντέλου ενσωμάτωσης υπολέξεων χωρίς επίβλεψη στο δικό σας σώμα δεδομένων κειμένου για συγκεκριμένο τομέα με το ενσωματωμένο Αλγόριθμος BlazingText. Μπορούμε επίσης να κατεβάσουμε υπάρχοντα μοντέλα γενικής χρήσης που έχουν εκπαιδευτεί σε μεγάλα σύνολα δεδομένων διαδικτυακού κειμένου, όπως τα παρακάτω Μοντέλα αγγλικής γλώσσας διαθέσιμα απευθείας από το fastText. Από την παρουσία του φορητού υπολογιστή SageMaker, απλώς εκτελέστε τα παρακάτω για να πραγματοποιήσετε λήψη ενός προεκπαιδευμένου μοντέλου fastText:
Είτε έχετε εκπαιδεύσει τις δικές σας ενσωματώσεις με το BlazingText είτε κατεβάσατε ένα προεκπαιδευμένο μοντέλο, το αποτέλεσμα είναι ένα συμπιεσμένο δυαδικό μοντέλο που μπορείτε να χρησιμοποιήσετε με τη βιβλιοθήκη gensim για να ενσωματώσετε μια δεδομένη λέξη-στόχο ως διάνυσμα με βάση τις υπολέξεις που τις αποτελούν:
Αφού προεπεξεργαστούμε ένα δεδομένο τμήμα κειμένου, μπορούμε να χρησιμοποιήσουμε αυτήν την προσέγγιση για να δημιουργήσουμε μια διανυσματική αναπαράσταση για κάθε μία από τις συστατικές λέξεις (όπως χωρίζονται με κενά). Στη συνέχεια, χρησιμοποιούμε το SageMaker και ένα πλαίσιο βαθιάς μάθησης, όπως το PyTorch, για να εκπαιδεύσουμε ένα προσαρμοσμένο RNN με στόχο ταξινόμησης δυαδικών ή πολλαπλών ετικετών για να προβλέψουμε εάν το κείμενο είναι τοξικό ή όχι και τον συγκεκριμένο υπο-τύπο τοξικότητας με βάση παραδείγματα εκπαίδευσης με ετικέτα.
Για να ανεβάσετε το προεπεξεργασμένο κείμενο σας στο Απλή υπηρεσία αποθήκευσης Amazon (Amazon S3), χρησιμοποιήστε τον ακόλουθο κωδικό:
Για να ξεκινήσετε την κλιμακούμενη εκπαίδευση μοντέλων πολλαπλών GPU με το SageMaker, εισαγάγετε τον ακόλουθο κωδικό:
Εντός , ορίζουμε ένα σύνολο δεδομένων PyTorch που χρησιμοποιείται από train.py
για την προετοιμασία των δεδομένων κειμένου για εκπαίδευση και αξιολόγηση του μοντέλου:
Σημειώστε ότι αυτός ο κώδικας προβλέπει ότι το vectors.zip
θα αποθηκευτεί το αρχείο που περιέχει τις ενσωματώσεις fastText ή BlazingText .
Επιπλέον, μπορείτε εύκολα να αναπτύξετε μόνα τους προεκπαιδευμένα μοντέλα fastText σε ζωντανά τελικά σημεία του SageMaker για να υπολογίσετε διανύσματα ενσωμάτωσης εν κινήσει για χρήση σε σχετικές εργασίες σε επίπεδο λέξης. Δείτε το παρακάτω Παράδειγμα GitHub Για περισσότερες πληροφορίες.
Μετασχηματιστές με πρόσωπο που αγκαλιάζει
Για τη δεύτερη προσέγγιση μοντελοποίησης, μεταβαίνουμε στη χρήση μετασχηματιστών, που εισάγονται στην εργασία Η προσοχή είναι το μόνο που χρειάζεστε. Οι μετασχηματιστές είναι μοντέλα βαθιάς μάθησης που έχουν σχεδιαστεί για να αποφεύγουν σκόπιμα τις παγίδες των RNN βασιζόμενοι σε έναν μηχανισμό αυτοπροσοχής για να αντλούν παγκόσμιες εξαρτήσεις μεταξύ εισόδου και εξόδου. Η αρχιτεκτονική του μοντέλου Transformer επιτρέπει σημαντικά καλύτερη παραλληλοποίηση και μπορεί να επιτύχει υψηλή απόδοση σε σχετικά σύντομο χρόνο εκπαίδευσης.
Βασισμένο στην επιτυχία των Transformers, BERT, που παρουσιάστηκε στην εφημερίδα BERT: Προ-κατάρτιση Deep Bidirectional Transformers για κατανόηση γλωσσών, προστέθηκε αμφίδρομη προεκπαίδευση για γλωσσική αναπαράσταση. Εμπνευσμένο από την εργασία Cloze, το BERT είναι προεκπαιδευμένο με μοντελοποίηση μάσκας γλώσσας (MLM), στο οποίο το μοντέλο μαθαίνει να ανακτά τις αρχικές λέξεις για τυχαία καλυμμένα διακριτικά. Το μοντέλο BERT είναι επίσης προεκπαιδευμένο στην εργασία πρόβλεψης επόμενης πρότασης (NSP) για να προβλέψει εάν δύο προτάσεις είναι σε σωστή σειρά ανάγνωσης. Από την εμφάνισή του το 2018, το BERT και οι παραλλαγές του έχουν χρησιμοποιηθεί ευρέως σε εργασίες ταξινόμησης κειμένου.
Η λύση μας χρησιμοποιεί μια παραλλαγή του BERT γνωστή ως RoBERTa, η οποία εισήχθη στην εργασία RoBERTa: Μια ισχυρά βελτιστοποιημένη προσέγγιση προ-κατάρτισης BERT. Το RoBERTa βελτιώνει περαιτέρω την απόδοση του BERT σε μια ποικιλία εργασιών φυσικής γλώσσας μέσω βελτιστοποιημένης εκπαίδευσης μοντέλων, συμπεριλαμβανομένων μοντέλων εκπαίδευσης μεγαλύτερης διάρκειας σε 10 φορές μεγαλύτερο σώμα, χρησιμοποιώντας βελτιστοποιημένες υπερπαραμέτρους, δυναμική τυχαία κάλυψη, κατάργηση της εργασίας NSP και άλλα.
Τα μοντέλα μας που βασίζονται σε RoBERTa χρησιμοποιούν το Αγκαλιάζοντας μετασχηματιστές προσώπου βιβλιοθήκη, η οποία είναι ένα δημοφιλές πλαίσιο Python ανοιχτού κώδικα που παρέχει υλοποιήσεις υψηλής ποιότητας όλων των ειδών υπερσύγχρονων μοντέλων Transformer για μια ποικιλία εργασιών NLP. Το Hugging Face συνεργάστηκε με την AWS για να σας επιτρέψει να εκπαιδεύσετε και να αναπτύξετε εύκολα μοντέλα Transformer στο SageMaker. Αυτή η λειτουργία είναι διαθέσιμη μέσω Εικόνες του κοντέινερ Deep Learning AWS Hugging Face, οι οποίες περιλαμβάνουν τις βιβλιοθήκες Transformers, Tokenizers και Datasets και βελτιστοποιημένη ενσωμάτωση με το SageMaker για εκπαίδευση μοντέλων και συμπέρασμα.
Κατά την υλοποίησή μας, κληρονομούμε τη ραχοκοκαλιά της αρχιτεκτονικής RoBERTa από το πλαίσιο Hugging Face Transformers και χρησιμοποιούμε το SageMaker για να εκπαιδεύσουμε και να αναπτύξουμε το δικό μας μοντέλο ταξινόμησης κειμένου, το οποίο ονομάζουμε RoBERTox. Το RoBERTox χρησιμοποιεί κωδικοποίηση ζεύγους byte (BPE), που εισήχθη στο Μετάφραση Νευρωνικής Μηχανής Σπάνιων Λέξεων με Μονάδες Υπολέξεων, για την ενοποίηση του κειμένου εισαγωγής σε αναπαραστάσεις υπολέξεων. Στη συνέχεια, μπορούμε να εκπαιδεύσουμε τα μοντέλα και τα tokenizers μας στα δεδομένα Jigsaw ή σε οποιοδήποτε μεγάλο σώμα συγκεκριμένου τομέα (όπως τα αρχεία καταγραφής συνομιλιών από ένα συγκεκριμένο παιχνίδι) και να τα χρησιμοποιήσουμε για προσαρμοσμένη ταξινόμηση κειμένου. Ορίζουμε την τάξη μοντέλου προσαρμοσμένης ταξινόμησης στον ακόλουθο κώδικα:
Πριν από την εκπαίδευση, προετοιμάζουμε τα δεδομένα κειμένου και τις ετικέτες μας χρησιμοποιώντας τη βιβλιοθήκη συνόλων δεδομένων του Hugging Face και ανεβάζουμε το αποτέλεσμα στο Amazon S3:
Ξεκινάμε την εκπαίδευση του μοντέλου με παρόμοιο τρόπο με το RNN:
Τέλος, το ακόλουθο απόσπασμα κώδικα Python απεικονίζει τη διαδικασία εξυπηρέτησης του RoBERTox μέσω ενός ζωντανού τερματικού σημείου SageMaker για ταξινόμηση κειμένου σε πραγματικό χρόνο για ένα αίτημα JSON:
Αξιολόγηση της απόδοσης του μοντέλου: Σύνολο δεδομένων ακούσιας μεροληψίας Jigsaw
Ο παρακάτω πίνακας περιέχει μετρήσεις απόδοσης για μοντέλα που εκπαιδεύτηκαν και αξιολογήθηκαν σε δεδομένα από τον διαγωνισμό Jigsaw Unintended Bias in Toxicity Detection Kaggle. Εκπαιδεύσαμε μοντέλα για τρεις διαφορετικές αλλά αλληλένδετες εργασίες:
- Δυαδική θήκη – Το μοντέλο εκπαιδεύτηκε στο πλήρες σύνολο δεδομένων εκπαίδευσης για την πρόβλεψη του
toxicity
μόνο ετικέτα - Λεπτόκοκκη θήκη – Το υποσύνολο των δεδομένων εκπαίδευσης για το οποίο
toxicity>=0.5
χρησιμοποιήθηκε για την πρόβλεψη άλλων ετικετών υποτύπου τοξικότητας (obscene
,threat
,insult
,identity_attack
,sexual_explicit
) - Θήκη πολλαπλών εργασιών – Το πλήρες σύνολο δεδομένων εκπαίδευσης χρησιμοποιήθηκε για την ταυτόχρονη πρόβλεψη και των έξι ετικετών
Εκπαιδεύσαμε μοντέλα RNN και RoBERTa για καθεμία από αυτές τις τρεις εργασίες χρησιμοποιώντας τις κλασματικές ετικέτες που παρέχονται από το Jigsaw, οι οποίες αντιστοιχούν στην αναλογία των σχολιαστών που θεώρησαν ότι η ετικέτα ήταν κατάλληλη για το κείμενο, καθώς και με δυαδικές ετικέτες σε συνδυασμό με βάρη κλάσεων στο δίκτυο λειτουργία απώλειας. Στο σχήμα δυαδικής επισήμανσης, οι αναλογίες ορίστηκαν στο 0.5 για κάθε διαθέσιμη ετικέτα (1 εάν ετικέτα>=0.5, 0 διαφορετικά) και οι συναρτήσεις απώλειας μοντέλου σταθμίστηκαν με βάση τις σχετικές αναλογίες κάθε δυαδικής ετικέτας στο σύνολο δεδομένων εκπαίδευσης. Σε όλες τις περιπτώσεις, διαπιστώσαμε ότι η χρήση των κλασματικών ετικετών είχε άμεσα ως αποτέλεσμα την καλύτερη απόδοση, υποδεικνύοντας την προστιθέμενη αξία των πληροφοριών που είναι εγγενείς στον βαθμό συμφωνίας μεταξύ των σχολιαστών.
Εμφανίζουμε δύο μετρήσεις μοντέλων: τη μέση ακρίβεια (AP), η οποία παρέχει μια σύνοψη της καμπύλης ακριβείας-ανάκλησης υπολογίζοντας τον σταθμισμένο μέσο όρο των τιμών ακρίβειας που επιτυγχάνονται σε κάθε όριο ταξινόμησης και την περιοχή κάτω από τη χαρακτηριστική καμπύλη λειτουργίας του δέκτη (AUC) , το οποίο συγκεντρώνει την απόδοση του μοντέλου σε όλα τα όρια ταξινόμησης σε σχέση με το πραγματικό θετικό ποσοστό και το ψευδώς θετικό ποσοστό. Σημειώστε ότι η αληθινή κλάση για μια δεδομένη παρουσία κειμένου στο σύνολο δοκιμής αντιστοιχεί στο εάν η αληθινή αναλογία είναι μεγαλύτερη ή ίση με 0.5 (1 εάν label>=0.5, 0 διαφορετικά).
. | Ενσωμάτωση υπολέξεων + RNN | ΡοΜΠΕΡΤΑ | ||
. | Κλασματικές ετικέτες | Δυαδικές ετικέτες + στάθμιση τάξης | Κλασματικές ετικέτες | Δυαδικές ετικέτες + στάθμιση τάξης |
Binary | AP=0.746, AUC=0.966 | AP=0.730, AUC=0.963 | AP=0.758, AUC=0.966 | AP=0.747, AUC=0.963 |
Λεπτόκοκκος | AP=0.906, AUC=0.909 | AP=0.850, AUC=0.851 | AP=0.913, AUC=0.913 | AP=0.911, AUC=0.912 |
Multitask | AP=0.721, AUC=0.972 | AP=0.535, AUC=0.907 | AP=0.740, AUC=0.972 | AP=0.711, AUC=0.961 |
Συμπέρασμα
Σε αυτήν την ανάρτηση, παρουσιάσαμε δύο προσεγγίσεις ταξινόμησης κειμένου για διαδικτυακές συνομιλίες που χρησιμοποιούν υπηρεσίες AWS ML. Μπορείτε να γενικεύσετε αυτές τις λύσεις σε διαδικτυακές πλατφόρμες επικοινωνίας, με βιομηχανίες όπως τα τυχερά παιχνίδια να είναι ιδιαίτερα πιθανό να επωφεληθούν από τη βελτιωμένη ικανότητα ανίχνευσης επιβλαβούς περιεχομένου. Σε μελλοντικές αναρτήσεις, σκοπεύουμε να συζητήσουμε περαιτέρω μια αρχιτεκτονική από άκρο σε άκρο για απρόσκοπτη ανάπτυξη μοντέλων στον λογαριασμό σας AWS.
Εάν θέλετε βοήθεια για την επιτάχυνση της χρήσης του ML στα προϊόντα και τις διαδικασίες σας, επικοινωνήστε με το Εργαστήριο Amazon ML Solutions.
Σχετικά με τους Συγγραφείς
Μάρκα Ryan είναι Επιστήμονας δεδομένων στο Εργαστήριο Λύσεων Μηχανικής Μάθησης του Αμαζονίου. Έχει ειδική εμπειρία στην εφαρμογή της μηχανικής μάθησης σε προβλήματα υγείας και βιοεπιστημών, και στον ελεύθερο χρόνο του απολαμβάνει την ανάγνωση ιστορίας και επιστημονικής φαντασίας.
Σουράβ Μπαμπές είναι Επιστήμονας Δεδομένων στο Amazon ML Solutions Lab. Αναπτύσσει λύσεις AI/ML για πελάτες AWS σε διάφορους κλάδους. Η ειδικότητά του είναι η Επεξεργασία Φυσικής Γλώσσας (NLP) και είναι παθιασμένος με τη βαθιά μάθηση. Εκτός δουλειάς του αρέσει να διαβάζει βιβλία και να ταξιδεύει.
Liutong Zhou είναι Εφαρμοσμένος Επιστήμονας στο Amazon ML Solutions Lab. Κατασκευάζει εξατομικευμένες λύσεις AI/ML για πελάτες AWS σε διάφορους κλάδους. Ειδικεύεται στην Επεξεργασία Φυσικής Γλώσσας (NLP) και είναι παθιασμένος με την πολυτροπική βαθιά μάθηση. Είναι λυρικός τενόρος και του αρέσει να τραγουδά όπερες εκτός δουλειάς.
Σία Γκολάμη είναι Senior Data Scientist στο Amazon ML Solutions Lab, όπου κατασκευάζει λύσεις AI/ML για πελάτες σε διάφορους κλάδους. Είναι παθιασμένος με την επεξεργασία φυσικής γλώσσας (NLP) και τη βαθιά μάθηση. Εκτός δουλειάς, η Sia απολαμβάνει να περνά χρόνο στη φύση και να παίζει τένις.
Ντάνιελ Χόροβιτς είναι Διευθυντής Εφαρμοσμένης Επιστήμης AI. Διευθύνει μια ομάδα επιστημόνων στο Amazon ML Solutions Lab που εργάζονται για την επίλυση προβλημάτων πελατών και την προώθηση της υιοθέτησης του cloud με την ML.
- Coinsmart. Το καλύτερο ανταλλακτήριο Bitcoin και Crypto στην Ευρώπη.
- Platoblockchain. Web3 Metaverse Intelligence. Ενισχύθηκε η γνώση. ΕΛΕΥΘΕΡΗ ΠΡΟΣΒΑΣΗ.
- CryptoHawk. Ραντάρ Altcoin. Δωρεάν δοκιμή.
- Πηγή: https://aws.amazon.com/blogs/machine-learning/text-classification-for-online-conversations-with-machine-learning-on-aws/
- '
- "
- 10
- 100
- 7
- a
- ικανότητα
- Σχετικά
- επιταχύνοντας
- Λογαριασμός
- Κατορθώνω
- επιτευχθεί
- απέναντι
- προστιθέμενη
- Υιοθεσία
- Συμφωνία
- AI
- Υπηρεσίες AI
- Όλα
- επιτρέπει
- Amazon
- ποσό
- ανάλυση
- api
- εφαρμογές
- εφαρμοσμένος
- Εφαρμογή
- εφαρμόζοντας
- πλησιάζω
- προσεγγίσεις
- κατάλληλος
- αρχιτεκτονική
- ΠΕΡΙΟΧΗ
- γνωρίσματα
- διαθέσιμος
- μέσος
- AWS
- τσάντα
- αναφοράς
- όφελος
- ΚΑΛΎΤΕΡΟΣ
- Καλύτερα
- μεταξύ
- μεγαλύτερος
- Βιβλία
- Χτίζει
- ενσωματωμένο
- κλήση
- περίπτωση
- περιπτώσεις
- χαρακτήρες
- τάξη
- ταξινόμηση
- Backup
- κωδικός
- συνδυασμός
- σε συνδυασμό
- σχόλια
- Επικοινωνία
- ανταγωνισμός
- πλήρης
- συγκείμενο
- υπολογισμός
- Υπολογίστε
- χρήση υπολογιστή
- συνεχής
- συνεχώς
- επικοινωνήστε μαζί μας
- Δοχείο
- Περιέχει
- περιεχόμενο
- Συνομιλία
- συνομιλίες
- δημιουργία
- καμπύλη
- έθιμο
- πελάτης
- Πελάτες
- ημερομηνία
- επιστήμονας δεδομένων
- βαθύς
- παρατάσσω
- ανάπτυξη
- περιγράφουν
- σχεδιασμένα
- καθέκαστα
- Ανίχνευση
- Προσδιορίστε
- Ανάπτυξη
- διαφορετικές
- Διάσταση
- κατευθείαν
- συζητήσουν
- Display
- κατεβάσετε
- αυτοκίνητο
- κατά την διάρκεια
- δυναμικός
- κάθε
- εύκολα
- αποτελεσματικά
- ενεργοποιήσετε
- από άκρη σε άκρη
- Τελικό σημείο
- Αγγλικά
- εισάγετε
- οντότητα
- εκτίμηση
- εξελίσσεται
- παράδειγμα
- παραδείγματα
- υφιστάμενα
- εμπειρία
- εξειδίκευση
- εκτενής
- Πρόσωπο
- Μόδα
- Μυθιστόρημα
- Όνομα
- Εξής
- μορφή
- Προς τα εμπρός
- Βρέθηκαν
- κλασματικός
- Πλαίσιο
- Δωρεάν
- από
- πλήρη
- λειτουργία
- λειτουργικότητα
- λειτουργίες
- περαιτέρω
- μελλοντικός
- παιχνίδι
- Games
- τυχερών παιχνιδιών
- General
- γενικού σκοπού
- παράγουν
- γενεά
- Παγκόσμιο
- μεγαλύτερη
- Ανάπτυξη
- λαβή
- κεφάλι
- υγειονομική περίθαλψη
- βοήθεια
- βοήθησε
- Ψηλά
- υψηλής ποιότητας
- ιστορία
- HTTPS
- ανθρώπινος
- Ταυτότητα
- εκτέλεση
- σημαντικό
- βελτιωθεί
- βελτίωση
- περιλαμβάνουν
- Συμπεριλαμβανομένου
- βιομηχανίες
- πληροφορίες
- συμφυής
- εισαγωγή
- ιδέες
- εμπνευσμένος
- παράδειγμα
- Προσβολή
- ενσωματωθεί
- ολοκλήρωση
- IT
- παζλ
- Δουλειά
- πλήκτρα
- γνωστός
- εργαστήριο
- επιγραφή
- τιτλοφόρηση
- Ετικέτες
- Γλώσσα
- large
- μεγαλύτερος
- στρώμα
- Οδηγεί
- ΜΑΘΑΊΝΩ
- μάθηση
- Led
- Βιβλιοθήκη
- Επιστήμες της Ζωής
- Πιθανός
- ζω
- φορτίο
- μηχανή
- μάθηση μηχανής
- κάνω
- ΚΑΝΕΙ
- διαχειρίζεται
- διευθυντής
- μάσκα
- Masks
- Ταίριασμα
- Μήτρα
- μηχανισμός
- Μνήμη
- μέθοδοι
- Metrics
- ενδέχεται να
- ML
- μοντέλο
- μοντέλα
- περισσότερο
- πολλαπλούς
- Φυσικό
- Φύση
- δίκτυο
- δίκτυα
- επόμενη
- σημειωματάριο
- αριθμός
- προσφορές
- διαδικτυακά (online)
- λειτουργίας
- Βελτιστοποίηση
- βελτιστοποιημένη
- τάξη
- πρωτότυπο
- ΑΛΛΑ
- αλλιώς
- δική
- Χαρτί
- ιδιαίτερα
- συνεργάστηκε
- παθιασμένος
- επίδοση
- κομμάτι
- Πλατφόρμες
- παιχνίδι
- σας παρακαλούμε
- Δημοφιλής
- θετικός
- Δημοσιεύσεις
- προβλέψει
- πρόβλεψη
- Προετοιμάστε
- προηγούμενος
- Πρόβλημα
- προβλήματα
- διαδικασια μας
- Διεργασίες
- μεταποίηση
- Προϊόντα
- Προβολή
- παρέχεται
- παρέχει
- Ανάγνωση
- σε πραγματικό χρόνο
- Ανάκτηση
- αφαίρεση
- εκπροσωπώ
- αντιπροσώπευση
- εκπροσωπούν
- ζητήσει
- απόδοση
- Επιστροφές
- Ρόλος
- τρέξιμο
- επεκτάσιμη
- σχέδιο
- Επιστήμη
- ΕΠΙΣΤΗΜΕΣ
- Επιστήμονας
- επιστήμονες
- αδιάλειπτη
- τμήμα
- υπηρεσία
- Υπηρεσίες
- εξυπηρετούν
- σειρά
- διάφοροι
- Κοντά
- σημαντικός
- παρόμοιες
- Απλούς
- αφού
- ΕΞΙ
- Μέγεθος
- λύση
- Λύσεις
- SOLVE
- Χώρος
- χώρων
- ειδικεύεται
- Ειδικότητα
- συγκεκριμένες
- Δαπάνες
- state-of-the-art
- Μελών
- χώρος στο δίσκο
- επιτυχία
- συστήματα
- στόχος
- εργασίες
- τεχνικές
- τηλεπικοινωνιών
- δοκιμή
- Η
- τρία
- κατώφλι
- Μέσω
- ώρα
- φορές
- κουπόνια
- εργαλεία
- δάδα
- παραδοσιακός
- Τρένο
- Εκπαίδευση
- μετάβαση
- Μετάφραση
- Ταξίδια
- υπό
- μοναδικός
- χρήση
- Χρήστες
- επικύρωση
- αξία
- ποικιλία
- διάφορα
- Βίντεο
- βιντεοπαιχνίδια
- αν
- Ο ΟΠΟΊΟΣ
- εντός
- χωρίς
- λόγια
- Εργασία
- εργαζόμενος
- Σας