Σε αυτήν την ανάρτηση, σας δείχνουμε πώς να εφαρμόσετε ένα από τα προεκπαιδευμένα μοντέλα Hugging Face με τις περισσότερες λήψεις που χρησιμοποιούνται για τη σύνοψη κειμένου, DistilBART-CNN-12-6, μέσα σε ένα σημειωματάριο Jupyter χρησιμοποιώντας Amazon Sage Maker και την SageMaker Hugging Face Inference Toolkit. Με βάση τα βήματα που εμφανίζονται σε αυτήν την ανάρτηση, μπορείτε να δοκιμάσετε να συνοψίσετε κείμενο από το WikiText-2 σύνολο δεδομένων διοικείται από fast.ai, διαθέσιμο στο Μητρώο Ανοικτών Δεδομένων στο AWS.
Ο παγκόσμιος όγκος δεδομένων αυξάνεται σε κλίμακα zettabyte καθώς οι εταιρείες και οι καταναλωτές επεκτείνουν τη χρήση ψηφιακών προϊόντων και διαδικτυακών υπηρεσιών. Για την καλύτερη κατανόηση αυτών των αυξανόμενων δεδομένων, οι τεχνικές επεξεργασίας φυσικής γλώσσας (NLP) της μηχανικής εκμάθησης (ML) για ανάλυση κειμένου έχουν εξελιχθεί για να αντιμετωπίσουν περιπτώσεις χρήσης που περιλαμβάνουν σύνοψη κειμένου, αναγνώριση οντοτήτων, ταξινόμηση, μετάφραση και άλλα. Το AWS προσφέρει προεκπαιδευμένο Υπηρεσίες AWS AI που μπορούν να ενσωματωθούν σε εφαρμογές που χρησιμοποιούν κλήσεις API και δεν απαιτούν εμπειρία ML. Για παράδειγμα, Κατανοήστε το Amazon μπορεί να εκτελέσει εργασίες NLP, όπως αναγνώριση προσαρμοσμένων οντοτήτων, ανάλυση συναισθήματος, εξαγωγή φράσεων-κλειδιών, μοντελοποίηση θεμάτων και πολλά άλλα για τη συλλογή πληροφοριών από το κείμενο. Μπορεί να αποδώσει ανάλυση κειμένου σε μια μεγάλη ποικιλία γλωσσών για τα διάφορα χαρακτηριστικά του.
Η σύνοψη κειμένου είναι μια χρήσιμη τεχνική για την κατανόηση μεγάλων ποσοτήτων δεδομένων κειμένου, επειδή δημιουργεί ένα υποσύνολο πληροφοριών με νόημα από τα συμφραζόμενα από έγγραφα προέλευσης. Μπορείτε να εφαρμόσετε αυτήν την τεχνική NLP σε έγγραφα κειμένου και άρθρα μεγαλύτερης μορφής, επιτρέποντας ταχύτερη κατανάλωση και πιο αποτελεσματική ευρετηρίαση εγγράφων, για παράδειγμα για τη σύνοψη σημειώσεων κλήσεων από συσκέψεις.
Αγκαλιάζοντας το πρόσωπο είναι μια δημοφιλής βιβλιοθήκη ανοιχτού κώδικα για το NLP, με περισσότερα από 49,000 προεκπαιδευμένα μοντέλα σε περισσότερες από 185 γλώσσες με υποστήριξη για διαφορετικά πλαίσια. Το AWS και το Hugging Face έχουν α εταιρική σχέση που επιτρέπει την απρόσκοπτη ενσωμάτωση μέσω του SageMaker με ένα σύνολο AWS Deep Learning Containers (DLC) για εκπαίδευση και εξαγωγή συμπερασμάτων σε PyTorch ή TensorFlow και εκτιμητές και προγνωστικά Hugging Face για το SageMaker Python SDK. Αυτές οι δυνατότητες στο SageMaker βοηθούν τους προγραμματιστές και τους επιστήμονες δεδομένων να ξεκινήσουν πιο εύκολα με το NLP στο AWS. Η επεξεργασία κειμένων με μετασχηματιστές σε πλαίσια βαθιάς μάθησης όπως το PyTorch είναι συνήθως μια πολύπλοκη και χρονοβόρα εργασία για τους επιστήμονες δεδομένων, που συχνά οδηγεί σε απογοήτευση και έλλειψη αποτελεσματικότητας κατά την ανάπτυξη έργων NLP. Η άνοδος κοινοτήτων τεχνητής νοημοσύνης όπως το Hugging Face, σε συνδυασμό με τη δύναμη των υπηρεσιών ML στο cloud όπως το SageMaker, επιταχύνουν και απλοποιούν την ανάπτυξη αυτών των εργασιών επεξεργασίας κειμένου. Το SageMaker σάς βοηθά να δημιουργήσετε, να εκπαιδεύσετε, να αναπτύξετε και να εφαρμόσετε μοντέλα Hugging Face.
Επισκόπηση σύνοψης κειμένου
Μπορείτε να εφαρμόσετε τη σύνοψη κειμένου για να προσδιορίσετε βασικές προτάσεις σε ένα έγγραφο ή να προσδιορίσετε βασικές προτάσεις σε πολλά έγγραφα. Η σύνοψη κειμένου μπορεί να παράγει δύο τύπους περιλήψεων: εξαγωγικές και αφηρημένες. Οι εξαγωγικές περιλήψεις δεν περιέχουν κείμενο που δημιουργείται από μηχανή και είναι μια συλλογή σημαντικών προτάσεων που επιλέγονται από το έγγραφο εισαγωγής. Οι αφηρημένες περιλήψεις περιέχουν νέες αναγνώσιμες από τον άνθρωπο φράσεις και προτάσεις που δημιουργούνται από το μοντέλο σύνοψης κειμένου. Τα περισσότερα συστήματα σύνοψης κειμένων βασίζονται σε εξαγωγική σύνοψη επειδή είναι δύσκολο να επιτευχθεί ακριβής αφηρημένη σύνοψη κειμένου.
Το Hugging Face διαθέτει πάνω από 400 προεκπαιδευμένα state-of-the-art διαθέσιμα μοντέλα σύνοψης κειμένου, εφαρμόζοντας διαφορετικούς συνδυασμούς τεχνικών NLP. Αυτά τα μοντέλα εκπαιδεύονται σε διαφορετικά σύνολα δεδομένων, τα οποία ανεβαίνουν και συντηρούνται από εταιρείες τεχνολογίας και μέλη της κοινότητας Hugging Face. Μπορείτε να φιλτράρετε τα μοντέλα με βάση τα πιο ληφθέντα ή τα πιο αρεστά και να τα φορτώσετε απευθείας όταν χρησιμοποιείτε το σωλήνωση περίληψης API μετασχηματιστή Hugging Face. Ο μετασχηματιστής Hugging Face απλοποιεί τη διαδικασία υλοποίησης του NLP, έτσι ώστε τα μοντέλα NLP υψηλής απόδοσης να μπορούν να ρυθμιστούν με ακρίβεια για να παρέχουν περιλήψεις κειμένου, χωρίς να απαιτείται εκτενής γνώση λειτουργίας ML.
Μοντέλα σύνοψης κειμένου Hugging Face στο AWS
Το SageMaker προσφέρει σε επιχειρησιακούς αναλυτές, επιστήμονες δεδομένων και μηχανικούς MLOps μια επιλογή εργαλείων για το σχεδιασμό και τη λειτουργία φόρτου εργασίας ML στο AWS. Αυτά τα εργαλεία σάς παρέχουν ταχύτερη υλοποίηση και δοκιμή μοντέλων ML για να επιτύχετε τα βέλτιστα αποτελέσματα.
Από το SageMaker Hugging Face Inference Toolkit, μια βιβλιοθήκη ανοιχτού κώδικα, περιγράφουμε τρεις διαφορετικούς τρόπους υλοποίησης και φιλοξενίας μοντέλων σύνοψης κειμένου Hugging Face χρησιμοποιώντας ένα σημειωματάριο Jupyter:
- Σωλήνα σύνοψης Hugging Face - Δημιουργώ ένα Σωλήνα σύνοψης Hugging Face χρησιμοποιώντας το "
summarization
" αναγνωριστικό εργασιών για να χρησιμοποιήσετε ένα προεπιλεγμένο μοντέλο σύνοψης κειμένου για συμπέρασμα στο σημειωματάριό σας Jupyter. Αυτοί οι αγωγοί αφαιρούν τον περίπλοκο κώδικα, προσφέροντας στους αρχάριους επαγγελματίες ML ένα απλό API για γρήγορη υλοποίηση της σύνοψης κειμένου χωρίς να διαμορφώνουν ένα τελικό σημείο συμπερασμάτων. Ο αγωγός επιτρέπει επίσης στον επαγγελματία ML να επιλέξει ένα συγκεκριμένο προεκπαιδευμένο μοντέλο και το σχετικό tokenizer. Οι Tokenizers προετοιμάζουν κείμενο για να είναι έτοιμο ως είσοδος για το μοντέλο διαιρώντας το κείμενο σε λέξεις ή υπολέξεις, οι οποίες στη συνέχεια μετατρέπονται σε αναγνωριστικά μέσω ενός πίνακα αναζήτησης. Για απλότητα, το ακόλουθο απόσπασμα κώδικα παρέχει την προεπιλεγμένη περίπτωση κατά τη χρήση αγωγών. ο DistilBART-CNN-12-6 Το μοντέλο είναι ένα από τα μοντέλα σύνοψης με τις περισσότερες λήψεις στο Hugging Face και είναι το προεπιλεγμένο μοντέλο για τον αγωγό σύνοψης. Η τελευταία γραμμή καλεί το εκ των προτέρων εκπαιδευμένο μοντέλο για να λάβει μια σύνοψη για το κείμενο που πέρασε με βάση τα δύο παρεχόμενα ορίσματα. - SageMaker τελικό σημείο με προεκπαιδευμένο μοντέλο – Δημιουργήστε ένα τελικό σημείο SageMaker με ένα προεκπαιδευμένο μοντέλο από το Hub Model Hugging Face και αναπτύξτε το σε ένα τελικό σημείο συμπερασμάτων, όπως το παράδειγμα ml.m5.xlarge στο ακόλουθο απόσπασμα κώδικα. Αυτή η μέθοδος επιτρέπει στους έμπειρους επαγγελματίες ML να επιλέγουν γρήγορα συγκεκριμένα μοντέλα ανοιχτού κώδικα, να τα ρυθμίζουν με ακρίβεια και να αναπτύσσουν τα μοντέλα σε στιγμιότυπα συμπερασμάτων υψηλής απόδοσης.
- Τελικό σημείο του SageMaker με εκπαιδευμένο μοντέλο – Δημιουργήστε ένα τελικό σημείο μοντέλου SageMaker με ένα εκπαιδευμένο μοντέλο αποθηκευμένο σε ένα Απλή υπηρεσία αποθήκευσης Amazon (Amazon S3) κουβά και αναπτύξτε το σε ένα τελικό σημείο συμπερασμάτων. Αυτή η μέθοδος επιτρέπει στους έμπειρους επαγγελματίες ML να αναπτύξουν γρήγορα τα δικά τους μοντέλα που είναι αποθηκευμένα στο Amazon S3 σε στιγμιότυπα συμπερασμάτων υψηλής απόδοσης. Το ίδιο το μοντέλο κατεβάζεται από το Hugging Face και συμπιέζεται και στη συνέχεια μπορεί να μεταφορτωθεί στο Amazon S3. Αυτό το βήμα παρουσιάζεται στο ακόλουθο απόσπασμα κώδικα:
Το AWS έχει αρκετούς πόρους διαθέσιμους για να σας βοηθήσουν στην ανάπτυξη του φόρτου εργασίας σας ML. ο Φακός μηχανικής εκμάθησης του Καλά αρχιτεκτονημένο πλαίσιο AWS συνιστά βέλτιστες πρακτικές φόρτου εργασίας ML, συμπεριλαμβανομένης της βελτιστοποίησης των πόρων και της μείωσης του κόστους. Αυτές οι συνιστώμενες αρχές σχεδίασης διασφαλίζουν ότι οι καλά σχεδιασμένοι φόρτοι εργασίας ML στο AWS αναπτύσσονται στην παραγωγή. Amazon SageMaker Inference Recommender σας βοηθά να επιλέξετε το σωστό παράδειγμα για να αναπτύξετε τα μοντέλα ML σας με τη βέλτιστη απόδοση συμπερασμάτων και το κόστος. Το Inference Recommender επιταχύνει την ανάπτυξη του μοντέλου και μειώνει τον χρόνο για την αγορά, αυτοματοποιώντας τη δοκιμή φόρτωσης και βελτιστοποιώντας την απόδοση του μοντέλου σε περιπτώσεις ML.
Στις επόμενες ενότητες, παρουσιάζουμε πώς να φορτώσετε ένα εκπαιδευμένο μοντέλο από έναν κάδο S3 και να το αναπτύξετε σε ένα κατάλληλο παράδειγμα συμπερασμάτων.
Προϋποθέσεις
Για αυτήν την καθοδήγηση, θα πρέπει να έχετε τις ακόλουθες προϋποθέσεις:
- An Λογαριασμός AWS.
- Ένα σημειωματάριο Jupyter μέσα Στούντιο Amazon SageMaker ή περιπτώσεις φορητών υπολογιστών SageMaker. Σε αυτήν την ανάρτηση, χρησιμοποιούμε την εικόνα "Python 3 (PyTorch 1.4 Python 3.6 CPU Optimized)" με τα παρεχόμενα αποσπάσματα κώδικα, αλλά μπορείτε να χρησιμοποιήσετε οποιαδήποτε άλλη εικόνα PyTorch ανώτερης έκδοσης από το διαθέσιμοι πυρήνες SageMaker.
- Ένα σύνολο δεδομένων στον κάδο S3 σας, όπως το WikiText-2 σύνολο δεδομένων από το Μητρώο Ανοικτών Δεδομένων στο AWS.
Φορτώστε το μοντέλο Hugging Face στο SageMaker για συμπέρασμα σύνοψης κειμένου
Χρησιμοποιήστε τον παρακάτω κώδικα για να πραγματοποιήσετε λήψη του προεκπαιδευμένου μοντέλου σύνοψης κειμένου Hugging Face DistilBART-CNN-12-6 και το tokenizer του και αποθηκεύστε τα τοπικά στο SageMaker στον κατάλογο του σημειωματάριου Jupyter:
Συμπιέστε το αποθηκευμένο μοντέλο σύνοψης κειμένου και το tokenizer του σε μορφή tar.gz και μεταφορτώστε το συμπιεσμένο μοντέλο σε έναν κάδο S3:
Επιλέξτε ένα συμπέρασμα εικόνα κοντέινερ Docker για να εκτελέσετε το συμπέρασμα σύνοψης κειμένου. Καθορίστε την έκδοση Linux OS, PyTorch frame και Hugging Face Transformer και καθορίστε το Amazon Elastic Compute Cloud (Amazon EC2) τύπος παρουσίας για τη λειτουργία του κοντέινερ.
Η εικόνα Docker είναι διαθέσιμη στο Μητρώο εμπορευματοκιβωτίων Amazon Elastic (Amazon ECR) του ίδιου λογαριασμού AWS και ο σύνδεσμος για αυτήν την εικόνα κοντέινερ επιστρέφεται ως URI.
Καθορίστε το μοντέλο σύνοψης κειμένου που θα αναπτυχθεί από την επιλεγμένη εικόνα κοντέινερ που εκτελεί συμπεράσματα. Στο ακόλουθο απόσπασμα κώδικα, αναπτύσσεται το συμπιεσμένο μοντέλο που μεταφορτώθηκε στο Amazon S3:
Δοκιμάστε το αναπτυγμένο μοντέλο σύνοψης κειμένου σε ένα δείγμα εισαγωγής:
Χρησιμοποιήστε το Inference Recommender για να αξιολογήσετε τη βέλτιστη παρουσία EC2 για την εργασία εξαγωγής συμπερασμάτων
Στη συνέχεια, δημιουργήστε πολλά δείγματα ωφέλιμου φορτίου κειμένου εισόδου σε μορφή JSON και συμπιέστε τα σε ένα μόνο αρχείο ωφέλιμου φορτίου. Αυτά τα δείγματα ωφέλιμου φορτίου χρησιμοποιούνται από το Inference Recommender για να συγκρίνουν την απόδοση συμπερασμάτων μεταξύ διαφορετικών τύπων παρουσιών EC2. Κάθε ένα από τα δείγματα ωφέλιμου φορτίου πρέπει να ταιριάζει με τη μορφή JSON που παρουσιάστηκε νωρίτερα. Μπορείτε να πάρετε παραδείγματα από το WikiText-2 σύνολο δεδομένων διοικείται από fast.ai, διαθέσιμο στο Μητρώο Ανοικτών Δεδομένων στο AWS.
Ανεβάστε το τεχνούργημα του μοντέλου σύνοψης συμπιεσμένου κειμένου και το συμπιεσμένο αρχείο ωφέλιμου δείγματος στον κάδο S3. Ανεβάσαμε το μοντέλο σε προηγούμενο βήμα, αλλά για λόγους σαφήνειας συμπεριλαμβάνουμε τον κωδικό για να το ανεβάσουμε ξανά:
Ελέγξτε τη λίστα των τυπικών μοντέλων ML που είναι διαθέσιμα στο SageMaker κοινά μοντέλα ζωολογικών κήπων, όπως το NLP και η όραση υπολογιστή. Επιλέξτε ένα μοντέλο NLP για να εκτελέσετε το συμπέρασμα σύνοψης κειμένου:
Το παρακάτω παράδειγμα χρησιμοποιεί το bert-base-cased
Μοντέλο NLP. Καταχωρίστε το μοντέλο σύνοψης κειμένου στο Μητρώο μοντέλων SageMaker με τον σωστά προσδιορισμένο τομέα, πλαίσιο και εργασία από το προηγούμενο βήμα. Οι παράμετροι για αυτό το παράδειγμα εμφανίζονται στην αρχή του παρακάτω αποσπάσματος κώδικα.
Σημειώστε το εύρος των τύπων παρουσιών EC2 που θα αξιολογηθούν από το Inference Recommender κάτω από SupportedRealtimeInferenceInstanceTypes
στον παρακάτω κώδικα. Βεβαιωθείτε ότι το όρια υπηρεσιών για τον λογαριασμό AWS επιτρέπουν την ανάπτυξη αυτών των τύπων κόμβων συμπερασμάτων.
Δημιουργήστε μια προεπιλεγμένη εργασία Inference Recommender χρησιμοποιώντας το ModelPackageVersion
που προκύπτει από το προηγούμενο βήμα. ο uuid
Η βιβλιοθήκη Python χρησιμοποιείται για τη δημιουργία ενός μοναδικού ονόματος για την εργασία.
Μπορείτε να λάβετε την κατάσταση της εργασίας του Inference Recommender εκτελώντας τον ακόλουθο κώδικα:
Όταν η κατάσταση εργασίας είναι COMPLETED
, συγκρίνετε την καθυστέρηση συμπερασμάτων, το χρόνο εκτέλεσης και άλλες μετρήσεις των τύπων παρουσιών EC2 που αξιολογούνται από την προεπιλεγμένη εργασία του Inference Recommender. Επιλέξτε τον κατάλληλο τύπο κόμβου με βάση τις απαιτήσεις της περίπτωσης χρήσης σας.
Συμπέρασμα
Το SageMaker προσφέρει πολλούς τρόπους χρήσης μοντέλων Hugging Face. για περισσότερα παραδείγματα, ρίξτε μια ματιά στο Δείγματα AWS GitHub. Ανάλογα με την πολυπλοκότητα της περίπτωσης χρήσης και την ανάγκη να τελειοποιήσετε το μοντέλο, μπορείτε να επιλέξετε τον βέλτιστο τρόπο χρήσης αυτών των μοντέλων. Οι αγωγοί Hugging Face μπορούν να είναι ένα καλό σημείο εκκίνησης για να πειραματιστείτε γρήγορα και να επιλέξετε κατάλληλα μοντέλα. Όταν χρειάζεται να προσαρμόσετε και να παραμετροποιήσετε τα επιλεγμένα μοντέλα, μπορείτε να κάνετε λήψη των μοντέλων και να τα αναπτύξετε σε προσαρμοσμένα τελικά σημεία συμπερασμάτων. Για να ρυθμίσετε καλύτερα το μοντέλο για μια συγκεκριμένη περίπτωση χρήσης, θα πρέπει να εκπαιδεύσετε το μοντέλο μετά τη λήψη του.
Τα μοντέλα NLP γενικά, συμπεριλαμβανομένων των μοντέλων σύνοψης κειμένου, αποδίδουν καλύτερα αφού εκπαιδευτούν σε ένα σύνολο δεδομένων που είναι συγκεκριμένο για την περίπτωση χρήσης. Τα MLOP και οι δυνατότητες παρακολούθησης μοντέλων του SageMaker διασφαλίζουν ότι το αναπτυσσόμενο μοντέλο συνεχίζει να αποδίδει σύμφωνα με τις προσδοκίες. Σε αυτήν την ανάρτηση, χρησιμοποιήσαμε το Inference Recommender για να αξιολογήσουμε τον καταλληλότερο τύπο παρουσίας για την ανάπτυξη του μοντέλου σύνοψης κειμένου. Αυτές οι συστάσεις μπορούν να βελτιστοποιήσουν την απόδοση και το κόστος για την περίπτωση χρήσης ML.
Σχετικά με τους Συγγραφείς
Δρ Nidal AlBeiruti είναι Senior Solutions Architect στο Amazon Web Services, με πάθος για λύσεις μηχανικής μάθησης. Η Nidal έχει πάνω από 25 χρόνια εμπειρίας στην εργασία σε διάφορους παγκόσμιους ρόλους πληροφορικής σε διαφορετικά επίπεδα και κλάδους. Η Nidal λειτουργεί ως αξιόπιστος σύμβουλος για πολλούς πελάτες AWS για να υποστηρίξει και να επιταχύνει το ταξίδι υιοθέτησης του cloud.
Ντάρεν Κο είναι αρχιτέκτονας Solutions με έδρα το Λονδίνο. Συμβουλεύει τους πελάτες μικρομεσαίων επιχειρήσεων του Ηνωμένου Βασιλείου και της Ιρλανδίας σχετικά με την εκ νέου αρχιτεκτονική και την καινοτομία στο cloud. Ο Darren ενδιαφέρεται για εφαρμογές που έχουν κατασκευαστεί με αρχιτεκτονικές χωρίς διακομιστή και είναι παθιασμένος με την επίλυση προκλήσεων βιωσιμότητας με τη μηχανική μάθηση.
- Coinsmart. Το καλύτερο ανταλλακτήριο Bitcoin και Crypto στην Ευρώπη.
- Platoblockchain. Web3 Metaverse Intelligence. Ενισχύθηκε η γνώση. ΕΛΕΥΘΕΡΗ ΠΡΟΣΒΑΣΗ.
- CryptoHawk. Ραντάρ Altcoin. Δωρεάν δοκιμή.
- Πηγή: https://aws.amazon.com/blogs/machine-learning/text-summarization-with-amazon-sagemaker-and-hugging-face/
- '
- "
- 000
- 10
- 100
- 28
- a
- Σχετικά
- ΠΕΡΙΛΗΨΗ
- επιταχύνουν
- Λογαριασμός
- ακριβής
- Κατορθώνω
- απέναντι
- διεύθυνση
- Υιοθεσία
- σύμβουλος
- AI
- επιτρέπει
- Amazon
- Amazon υπηρεσίες Web
- Ποσά
- ανάλυση
- api
- Apple
- εφαρμογές
- Εφαρμογή
- επιχειρήματα
- εμπορεύματα
- συσχετισμένη
- αυτοματοποίηση
- διαθέσιμος
- απονέμεται
- AWS
- επειδή
- Αρχή
- είναι
- ΚΑΛΎΤΕΡΟΣ
- βέλτιστες πρακτικές
- μεταξύ
- χτίζω
- επιχείρηση
- κλήση
- Μπορεί να πάρει
- δυνατότητες
- περίπτωση
- περιπτώσεις
- προκλήσεις
- επιλογή
- τάξη
- ταξινόμηση
- Backup
- κωδικός
- συλλογή
- συνδυασμοί
- σε συνδυασμό
- Κοινοτήτων
- κοινότητα
- Εταιρείες
- συγκρότημα
- Υπολογίστε
- υπολογιστή
- διαμόρφωση
- Καταναλωτές
- κατανάλωση
- Δοχείο
- Εμπορευματοκιβώτια
- συνεχίζεται
- δημιουργία
- δημιουργεί
- έθιμο
- Πελάτες
- προσαρμόσετε
- ημερομηνία
- ημέρα
- βαθύς
- διανομή
- αποδεικνύουν
- κατέδειξε
- Σε συνάρτηση
- παρατάσσω
- αναπτυχθεί
- ανάπτυξη
- ανάπτυξη
- Υπηρεσίες
- προγραμματιστές
- ανάπτυξη
- Ανάπτυξη
- διαφορετικές
- δύσκολος
- ψηφιακό
- κατευθείαν
- Display
- Λιμενεργάτης
- Γιατρός
- έγγραφα
- τομέα
- domains
- κατεβάσετε
- κάθε
- εύκολα
- Αποτελεσματικός
- αποδοτικότητα
- ενεργοποίηση
- Τελικό σημείο
- Μηχανικοί
- οντότητα
- Περιβάλλον
- αξιολογήσει
- παράδειγμα
- παραδείγματα
- Ανάπτυξη
- προσδοκίες
- εμπειρία
- έμπειρος
- πείραμα
- εκτενής
- Πρόσωπο
- FAST
- γρηγορότερα
- Χαρακτηριστικά
- Εξής
- μορφή
- Πλαίσιο
- πλαισίων
- από
- General
- παράγουν
- παράγεται
- Παγκόσμιο
- καλός
- Μεγαλώνοντας
- βοήθεια
- χρήσιμο
- βοηθά
- υψηλότερο
- Πως
- Πώς να
- HTTPS
- Hub
- αναγνώσιμη από άνθρωπο
- προσδιορίσει
- εικόνα
- εφαρμογή
- εκτέλεση
- εκτελεστικών
- σημαντικό
- περιλαμβάνουν
- Συμπεριλαμβανομένου
- πληροφορίες
- καινοτόμος
- εισαγωγή
- ιδέες
- παράδειγμα
- ενσωματωθεί
- ολοκλήρωση
- ενδιαφερόμενος
- Ιρλανδία
- IT
- εαυτό
- Δουλειά
- ταξίδι
- Κλειδί
- γνώση
- Γλώσσα
- Γλώσσες
- large
- που οδηγεί
- μάθηση
- επίπεδα
- Βιβλιοθήκη
- όρια
- γραμμή
- LINK
- linux
- Λίστα
- φορτίο
- τοπικά
- Λονδίνο
- αναζήτηση
- μηχανή
- μάθηση μηχανής
- κάνω
- αγορά
- Ταίριασμα
- νόημα
- συναντήσεις
- Μέλη
- Metrics
- ML
- μοντέλο
- μοντέλα
- παρακολούθηση
- περισσότερο
- πλέον
- πολλαπλούς
- Φυσικό
- επόμενη
- κόμβων
- σημειωματάριο
- Notes
- προσφορά
- προσφορές
- διαδικτυακά (online)
- ανοίξτε
- λειτουργούν
- λειτουργία
- Βελτιστοποίηση
- βελτιστοποιημένη
- βελτιστοποίηση
- ΑΛΛΑ
- δική
- πάθος
- παθιασμένος
- επίδοση
- εκτέλεση
- φράσεις
- Σημείο
- Δημοφιλής
- δύναμη
- Προετοιμάστε
- προηγούμενος
- διαδικασια μας
- μεταποίηση
- παράγει
- παραγωγή
- Προϊόντα
- έργα
- παρέχουν
- παρέχεται
- παρέχει
- γρήγορα
- σειρά
- συνιστά
- μείωση
- περιοχή
- κάντε ΕΓΓΡΑΦΗ
- ζητήσει
- απαιτούν
- απαιτήσεις
- Υποστηρικτικό υλικό
- με αποτέλεσμα
- Ρόλος
- τρέξιμο
- τρέξιμο
- ίδιο
- Κλίμακα
- επιστήμονες
- SDK
- αδιάλειπτη
- επιλέγονται
- συναίσθημα
- Χωρίς διακομιστή
- Υπηρεσίες
- σειρά
- διάφοροι
- παρουσιάζεται
- Απλούς
- ενιαίας
- So
- Λύσεις
- συγκεκριμένες
- ταχύτητες
- πρότυπο
- ξεκίνησε
- state-of-the-art
- Κατάσταση
- χώρος στο δίσκο
- υποστήριξη
- Βιωσιμότητα
- συστήματα
- εργασίες
- τεχνικές
- Τεχνολογία
- Δοκιμές
- Η
- τρία
- Μέσω
- ώρα
- χρονοβόρος
- εργαλεία
- τοπικός
- Εκπαίδευση
- Μετάφραση
- Έμπιστος
- τύποι
- συνήθως
- Uk
- υπό
- καταλαβαίνω
- κατανόηση
- μοναδικός
- χρήση
- ποικιλία
- διάφορα
- εκδοχή
- κατακόρυφα
- όραμα
- όγκους
- τρόπους
- ιστός
- διαδικτυακές υπηρεσίες
- εντός
- χωρίς
- λόγια
- εργαζόμενος
- X
- χρόνια
- Σας