Σε αυτήν την ανάρτηση, παρουσιάζουμε τη λεπτομέρεια ενός μοντέλου Llama 2 χρησιμοποιώντας μια μέθοδο Παράμετρου Αποτελεσματικής Μικροσυντονισμού (PEFT) και αναπτύσσουμε το τελειοποιημένο μοντέλο σε AWS Inferentia2. Χρησιμοποιούμε το AWS Neuron κιτ ανάπτυξης λογισμικού (SDK) για να αποκτήσετε πρόσβαση στη συσκευή AWS Inferentia2 και να επωφεληθείτε από την υψηλή απόδοσή της. Στη συνέχεια χρησιμοποιούμε ένα μεγάλο μοντέλο κοντέινερ συμπερασμάτων που τροφοδοτείται από Βιβλιοθήκη Deep Java (DJLServing) ως η λύση εξυπηρέτησης μοντέλων μας.
Επισκόπηση λύσεων
Αποτελεσματικός συντονισμός του Llama2 με χρήση QLoRa
Η οικογένεια Llama 2 μεγάλων γλωσσικών μοντέλων (LLMs) είναι μια συλλογή προεκπαιδευμένων και βελτιστοποιημένων μοντέλων δημιουργίας κειμένου που κυμαίνονται σε κλίμακα από 7 δισεκατομμύρια έως 70 δισεκατομμύρια παραμέτρους. Το Llama 2 ήταν προεκπαιδευμένο σε 2 τρισεκατομμύρια μάρκες δεδομένων από δημόσια διαθέσιμες πηγές. Οι πελάτες AWS μερικές φορές επιλέγουν να βελτιστοποιήσουν τα μοντέλα Llama 2 χρησιμοποιώντας τα δεδομένα των ίδιων των πελατών για να επιτύχουν καλύτερη απόδοση για εργασίες κατάντη. Ωστόσο, λόγω του μεγάλου αριθμού παραμέτρων του μοντέλου Llama 2, η πλήρης ρύθμιση θα μπορούσε να είναι απαγορευτικά δαπανηρή και χρονοβόρα. Η προσέγγιση του Parameter-Efficient Fine-Tuning (PEFT) μπορεί να αντιμετωπίσει αυτό το πρόβλημα, ρυθμίζοντας μόνο έναν μικρό αριθμό επιπλέον παραμέτρων μοντέλου, ενώ παγώνει τις περισσότερες παραμέτρους του προεκπαιδευμένου μοντέλου. Για περισσότερες πληροφορίες σχετικά με το PEFT, μπορείτε να διαβάσετε αυτό θέση. Σε αυτήν την ανάρτηση, χρησιμοποιούμε QLoRa για να τελειοποιήσετε ένα μοντέλο Llama 2 7B.
Αναπτύξτε ένα προσαρμοσμένο μοντέλο στο Inf2 χρησιμοποιώντας το Amazon SageMaker
Το AWS Inferentia2 είναι ειδικά κατασκευασμένος επιταχυντής μηχανικής μάθησης (ML) που έχει σχεδιαστεί για φόρτους εργασίας εξαγωγής συμπερασμάτων και προσφέρει υψηλή απόδοση με έως και 40% χαμηλότερο κόστος για παραγωγικούς φόρτους εργασίας AI και LLM σε σχέση με άλλες βελτιστοποιημένες περιπτώσεις συμπερασμάτων στο AWS. Σε αυτήν την ανάρτηση, χρησιμοποιούμε το Amazon Elastic Compute Cloud (Amazon EC2) Περίπτωση Inf2, με AWS Inferentia2, τους επιταχυντές Inferentia2 δεύτερης γενιάς, που το καθένα περιέχει δύο NeuronCores-v2. Κάθε NeuronCore-v2 είναι μια ανεξάρτητη, ετερογενής υπολογιστική μονάδα, με τέσσερις κύριες μηχανές: κινητήρες Tensor, Vector, Scalar και GPSIMD. Περιλαμβάνει μια μνήμη SRAM που διαχειρίζεται λογισμικό στο chip για μεγιστοποίηση της εντοπιότητας δεδομένων. Δεδομένου ότι πολλά ιστολόγια στο Inf2 έχουν δημοσιευτεί, ο αναγνώστης μπορεί να ανατρέξει σε αυτό θέση και το κομμάτι τεκμηρίωση για περισσότερες πληροφορίες σχετικά με το Inf2.
Για να αναπτύξουμε μοντέλα στο Inf2, χρειαζόμαστε το AWS Neuron SDK ως το επίπεδο λογισμικού που τρέχει πάνω από το υλικό Inf2. Το AWS Neuron είναι το SDK που χρησιμοποιείται για την εκτέλεση εργασιών βαθιάς μάθησης στο AWS Inferentia και Aws trainium βασισμένες περιπτώσεις. Επιτρέπει τον κύκλο ζωής ανάπτυξης ML από άκρο σε άκρο να δημιουργεί νέα μοντέλα, να εκπαιδεύει και να βελτιστοποιεί αυτά τα μοντέλα και να τα αναπτύσσει για παραγωγή. Το AWS Neuron περιλαμβάνει μια βαθιά μάθηση μεταγλωττιστής, runtime, να εργαλεία που είναι εγγενώς ενσωματωμένα με δημοφιλή πλαίσια όπως το TensorFlow και το PyTorch. Σε αυτό το ιστολόγιο, θα χρησιμοποιήσουμε transformers-neuronx
, το οποίο αποτελεί μέρος του AWS Neuron SDK για ροές εργασίας συμπερασμάτων αποκωδικοποιητή μετασχηματιστή. Το υποστηρίζει μια σειρά από δημοφιλή μοντέλα, συμπεριλαμβανομένου του Llama 2.
Για να αναπτύξετε μοντέλα σε Amazon Sage Maker, συνήθως χρησιμοποιούμε ένα κοντέινερ που περιέχει τις απαιτούμενες βιβλιοθήκες, όπως το Neuron SDK και transformers-neuronx
καθώς και το στοιχείο εξυπηρέτησης μοντέλου. διατηρεί το Amazon SageMaker δοχεία βαθιάς μάθησης (DLC) με δημοφιλείς βιβλιοθήκες ανοιχτού κώδικα για φιλοξενία μεγάλων μοντέλων. Σε αυτήν την ανάρτηση, χρησιμοποιούμε το Μεγάλο μοντέλο συμπερασματικού δοχείου για νευρώνα. Αυτό το κοντέινερ έχει όλα όσα χρειάζεστε για να αναπτύξετε το μοντέλο σας Llama 2 στο Inf2. Για πόρους για να ξεκινήσετε με το LMI στο Amazon SageMaker, ανατρέξτε σε πολλές από τις υπάρχουσες αναρτήσεις μας (Ιστολόγιο 1, Ιστολόγιο 2, Ιστολόγιο 3) πανω σε αυτο το θεμα. Εν ολίγοις, μπορείτε να εκτελέσετε το κοντέινερ χωρίς να γράψετε επιπλέον κώδικα. Μπορείτε να χρησιμοποιήσετε το προεπιλεγμένος χειριστής για απρόσκοπτη εμπειρία χρήστη και πάσο σε ένα από τα υποστηριζόμενα ονόματα μοντέλων και οποιεσδήποτε παραμέτρους με δυνατότητα διαμόρφωσης χρόνου φόρτωσης. Αυτό μεταγλωττίζει και εξυπηρετεί ένα LLM σε μια παρουσία Inf2. Για παράδειγμα, για ανάπτυξη OpenAssistant/llama2-13b-orca-8k-3319
, μπορείτε να παρέχετε την ακόλουθη διαμόρφωση (όπως serving.properties
αρχείο). Σε serving.properties
, καθορίζουμε τον τύπο μοντέλου ως llama2-13b-orca-8k-3319
, το μέγεθος παρτίδας είναι 4, ο παράλληλος βαθμός τανυστή ως 2, και αυτό είναι. Για την πλήρη λίστα των παραμέτρων με δυνατότητα διαμόρφωσης, ανατρέξτε στο Όλες οι επιλογές διαμόρφωσης DJL.
Εναλλακτικά, μπορείτε να γράψετε το δικό σας αρχείο χειρισμού μοντέλου όπως φαίνεται σε αυτό παράδειγμα, αλλά αυτό απαιτεί την εφαρμογή των μεθόδων φόρτωσης και συμπερασμάτων μοντέλου για να χρησιμεύσει ως γέφυρα μεταξύ των API DJLServing.
Προϋποθέσεις
Η ακόλουθη λίστα περιγράφει τις προϋποθέσεις για την ανάπτυξη του μοντέλου που περιγράφεται σε αυτήν την ανάρτηση ιστολογίου. Μπορείτε να εφαρμόσετε είτε από το Κονσόλα διαχείρισης AWS ή χρησιμοποιώντας την πιο πρόσφατη έκδοση του Διεπαφή γραμμής εντολών AWS (AWS CLI).
Walkthrough
Στην παρακάτω ενότητα, θα περιγράψουμε τον κώδικα σε δύο μέρη:
- Βελτιστοποιήστε ένα μοντέλο Llama2-7b και ανεβάστε τα τεχνουργήματα του μοντέλου σε μια καθορισμένη θέση κάδου Amazon S3.
- Αναπτύξτε το μοντέλο σε ένα Inferentia2 χρησιμοποιώντας κοντέινερ σερβιρίσματος DJL που φιλοξενείται στο Amazon SageMaker.
Τα πλήρη δείγματα κώδικα με οδηγίες μπορείτε να βρείτε σε αυτό GitHub αποθήκη.
Μέρος 1: Βελτιστοποιήστε ένα μοντέλο Llama2-7b χρησιμοποιώντας PEFT
Θα χρησιμοποιήσουμε τη μέθοδο που εισήχθη πρόσφατα στην εργασία QLoRA: Συντονισμός προσαρμογέα χαμηλής κατάταξης με επίγνωση κβαντισμού για δημιουργία γλώσσας από τους Tim Dettmers et al. Το QLoRA είναι μια νέα τεχνική για τη μείωση του αποτυπώματος μνήμης των μεγάλων μοντέλων γλώσσας κατά τη λεπτομέρεια, χωρίς να θυσιάζεται η απόδοση.
Σημείωση: Η τελειοποίηση του μοντέλου llama2-7b που παρουσιάζεται παρακάτω δοκιμάστηκε σε Amazon Σημειωματάριο SageMaker Studio με Python 2.0 GPU Optimized Kernel χρησιμοποιώντας α ml.g5.2xμεγάλο τύπος περίπτωσης. Ως βέλτιστη πρακτική, συνιστούμε τη χρήση ενός Στούντιο Amazon SageMaker Το Integrated Development Environment (IDE) κυκλοφόρησε στο δικό σας Εικονικό ιδιωτικό σύννεφο Amazon (Amazon VPC). Αυτό σας επιτρέπει να ελέγχετε, να παρακολουθείτε και να επιθεωρείτε την κυκλοφορία δικτύου εντός και εκτός του VPC σας χρησιμοποιώντας τυπικές δυνατότητες δικτύωσης και ασφάλειας AWS. Για περισσότερες πληροφορίες, βλ Εξασφάλιση της συνδεσιμότητας του Amazon SageMaker Studio χρησιμοποιώντας ένα ιδιωτικό VPC.
Κβαντίστε το βασικό μοντέλο
Αρχικά φορτώνουμε ένα κβαντισμένο μοντέλο με κβαντισμό 4 bit χρησιμοποιώντας Μετασχηματιστές αγκαλιάς προσώπου βιβλιοθήκη ως εξής:
Φόρτωση δεδομένων εκπαίδευσης
Στη συνέχεια, φορτώνουμε το σύνολο δεδομένων για να τροφοδοτήσει το μοντέλο για το βήμα λεπτομέρειας που φαίνεται ως εξής:
Συνδέστε ένα στρώμα προσαρμογέα
Εδώ επισυνάπτουμε ένα μικρό στρώμα προσαρμογέα με δυνατότητα εκπαίδευσης, διαμορφωμένο ως LoraConfig ορίζεται στα Αγκαλιαζόμενα Πρόσωπα πεφτ βιβλιοθήκη.
Εκπαιδεύστε ένα μοντέλο
Χρησιμοποιώντας τη διαμόρφωση LoRA που φαίνεται παραπάνω, θα βελτιστοποιήσουμε το μοντέλο Llama2 μαζί με τις υπερπαραμέτρους. Ένα απόσπασμα κώδικα για την εκπαίδευση του μοντέλου εμφανίζεται στα ακόλουθα:
Συγχώνευση βάρους μοντέλου
Το τελειοποιημένο μοντέλο που εκτελέστηκε παραπάνω δημιούργησε ένα νέο μοντέλο που περιέχει τα εκπαιδευμένα βάρη προσαρμογέα LoRA. Στο παρακάτω απόσπασμα κώδικα, θα συγχωνεύσουμε τον προσαρμογέα με το βασικό μοντέλο, έτσι ώστε να μπορούμε να χρησιμοποιήσουμε το βελτιωμένο μοντέλο για συμπεράσματα.
Μεταφορτώστε το βάρος του μοντέλου στο Amazon S3
Στο τελευταίο βήμα του μέρους 1, θα αποθηκεύσουμε τα βάρη των συγχωνευμένων μοντέλων σε μια καθορισμένη τοποθεσία Amazon S3. Το βάρος του μοντέλου θα χρησιμοποιηθεί από ένα κοντέινερ σερβιρίσματος μοντέλου στο Amazon SageMaker για να φιλοξενήσει το μοντέλο χρησιμοποιώντας μια παρουσία Inferentia2.
Μέρος 2: Υποδοχή μοντέλου QLoRA για συμπέρασμα με το AWS Inf2 χρησιμοποιώντας το SageMaker LMI Container
Σε αυτήν την ενότητα, θα ακολουθήσουμε τα βήματα της ανάπτυξης ενός βελτιστοποιημένου μοντέλου QLoRA σε ένα περιβάλλον φιλοξενίας Amazon SageMaker. Θα χρησιμοποιήσουμε α Σερβίρισμα DJL δοχείο από το SageMaker DLC, το οποίο ενσωματώνεται με το μετασχηματιστές-νεύρος βιβλιοθήκη για να φιλοξενήσει αυτό το μοντέλο. Η εγκατάσταση διευκολύνει τη φόρτωση μοντέλων σε επιταχυντές AWS Inferentia2, παραλληλίζει το μοντέλο σε πολλούς NeuronCore και επιτρέπει την εξυπηρέτηση μέσω τελικών σημείων HTTP.
Προετοιμάστε μοντέλα τεχνουργημάτων
Η DJL υποστηρίζει πολλές βιβλιοθήκες βελτιστοποίησης βαθιάς μάθησης, μεταξύ των οποίων Βαθιά ταχύτητα, FasterTransformer κι αλλα. Για συγκεκριμένες διαμορφώσεις μοντέλου, παρέχουμε α serving.properties
με βασικές παραμέτρους, όπως π.χ tensor_parallel_degree
και model_id
για να ορίσετε τις επιλογές φόρτωσης του μοντέλου. ο model_id
θα μπορούσε να είναι ένα αναγνωριστικό μοντέλου Hugging Face ή μια διαδρομή Amazon S3 όπου αποθηκεύονται τα βάρη του μοντέλου. Στο παράδειγμά μας, παρέχουμε τη θέση Amazon S3 του βελτιωμένου μοντέλου μας. Το ακόλουθο απόσπασμα κώδικα δείχνει τις ιδιότητες που χρησιμοποιούνται για την προβολή του μοντέλου:
Ανατρέξτε σε αυτό τεκμηρίωση για περισσότερες πληροφορίες σχετικά με τις διαμορφώσιμες επιλογές που είναι διαθέσιμες μέσω serving.properties
. Σημειώστε ότι χρησιμοποιούμε option.n_position=512
σε αυτό το ιστολόγιο για ταχύτερη συλλογή AWS Neuron. Εάν θέλετε να δοκιμάσετε μεγαλύτερο μήκος διακριτικού εισόδου, τότε συνιστούμε στον αναγνώστη να προκατασκευάσει το μοντέλο εκ των προτέρων (βλ. AOT Pre-Compile Μοντέλο στο EC2). Διαφορετικά, ενδέχεται να αντιμετωπίσετε σφάλμα χρονικού ορίου αν ο χρόνος μεταγλώττισης είναι πολύς.
Μετά το serving.properties
αρχείο ορίζεται, θα συσκευάσουμε το αρχείο σε ένα tar.gz
μορφή, ως εξής:
Στη συνέχεια, θα ανεβάσουμε το tar.gz σε μια τοποθεσία κάδου Amazon S3:
Δημιουργήστε ένα τελικό σημείο μοντέλου Amazon SageMaker
Για να χρησιμοποιήσουμε μια παρουσία Inf2 για την εξυπηρέτηση, χρησιμοποιούμε μια Amazon Δοχείο SageMaker LMI με υποστήριξη DJL neuronX. Ανατρέξτε σε αυτό θέση για περισσότερες πληροφορίες σχετικά με τη χρήση ενός κοντέινερ DJL NeuronX για συμπεράσματα. Ο παρακάτω κώδικας δείχνει πώς να αναπτύξετε ένα μοντέλο χρησιμοποιώντας το Amazon SageMaker Python SDK:
Τελικό σημείο δοκιμής μοντέλου
Μετά την επιτυχή ανάπτυξη του μοντέλου, μπορούμε να επικυρώσουμε το τελικό σημείο στέλνοντας ένα δείγμα αίτησης στον προγνωστικό:
Η έξοδος του δείγματος εμφανίζεται ως εξής:
Στο πλαίσιο της ανάλυσης δεδομένων, η Μηχανική Μάθηση (ML) αναφέρεται σε μια στατιστική τεχνική ικανή να εξάγει προγνωστική ισχύ από ένα σύνολο δεδομένων με αυξανόμενη πολυπλοκότητα και ακρίβεια περιορίζοντας επαναληπτικά το εύρος μιας στατιστικής.
Η Μηχανική Μάθηση δεν είναι μια νέα στατιστική τεχνική, αλλά μάλλον ένας συνδυασμός υπαρχουσών τεχνικών. Επιπλέον, δεν έχει σχεδιαστεί για να χρησιμοποιείται με ένα συγκεκριμένο σύνολο δεδομένων ή να παράγει ένα συγκεκριμένο αποτέλεσμα. Αντιθέτως, σχεδιάστηκε ώστε να είναι αρκετά ευέλικτο ώστε να προσαρμόζεται σε οποιοδήποτε σύνολο δεδομένων και να κάνει προβλέψεις για οποιοδήποτε αποτέλεσμα.
εκκαθάριση
Εάν αποφασίσετε ότι δεν θέλετε πλέον να διατηρείτε το τελικό σημείο του SageMaker σε λειτουργία, μπορείτε να το διαγράψετε χρησιμοποιώντας AWS SDK για Python (boto3), AWS CLI ή Amazon SageMaker Console. Επιπλέον, μπορείτε επίσης τερματίστε τη λειτουργία του Amazon SageMaker Studio Resources που δεν απαιτούνται πλέον.
Συμπέρασμα
Σε αυτήν την ανάρτηση, σας δείξαμε πώς να προσαρμόσετε με ακρίβεια ένα μοντέλο Llama2-7b χρησιμοποιώντας τον προσαρμογέα LoRA με κβαντισμό 4 bit χρησιμοποιώντας μία μόνο παρουσία GPU. Στη συνέχεια, αναπτύξαμε το μοντέλο σε μια παρουσία Inf2 που φιλοξενείται στο Amazon SageMaker χρησιμοποιώντας ένα κοντέινερ σερβιρίσματος DJL. Τέλος, επικυρώσαμε το τελικό σημείο του μοντέλου Amazon SageMaker με μια πρόβλεψη δημιουργίας κειμένου χρησιμοποιώντας το SageMaker Python SDK. Προχωρήστε και δοκιμάστε το, μας αρέσει να ακούμε τα σχόλιά σας. Μείνετε συντονισμένοι για ενημερώσεις σχετικά με περισσότερες δυνατότητες και νέες καινοτομίες με το AWS Inferentia.
Για περισσότερα παραδείγματα σχετικά με το AWS Neuron, βλ aws-neuron-samps.
Σχετικά με τους Συγγραφείς
Wei Teh είναι Senior AI/ML Specialist Solutions Architect στο AWS. Είναι παθιασμένος με το να βοηθά τους πελάτες να προχωρήσουν το ταξίδι τους στο AWS, εστιάζοντας στις υπηρεσίες Machine Learning της Amazon και σε λύσεις που βασίζονται στη μηχανική μάθηση. Εκτός δουλειάς, του αρέσουν οι υπαίθριες δραστηριότητες όπως το κάμπινγκ, το ψάρεμα και η πεζοπορία με την οικογένειά του.
Qingwei Li είναι ειδικός μηχανικής μάθησης στο Amazon Web Services. Έλαβε το διδακτορικό του στην Έρευνα Επιχειρήσεων αφού έσπασε τον λογαριασμό επιχορήγησης έρευνας του συμβούλου του και απέτυχε να παραδώσει το βραβείο Νόμπελ που υποσχέθηκε. Επί του παρόντος, βοηθά τους πελάτες του κλάδου των χρηματοοικονομικών υπηρεσιών και των ασφαλιστικών εταιρειών να δημιουργήσουν λύσεις μηχανικής μάθησης στο AWS. Στον ελεύθερο χρόνο του, του αρέσει να διαβάζει και να διδάσκει.
- SEO Powered Content & PR Distribution. Ενισχύστε σήμερα.
- PlatoData.Network Vertical Generative Ai. Ενδυναμώστε τον εαυτό σας. Πρόσβαση εδώ.
- PlatoAiStream. Web3 Intelligence. Ενισχύθηκε η γνώση. Πρόσβαση εδώ.
- PlatoESG. Ανθρακας, Cleantech, Ενέργεια, Περιβάλλον, Ηλιακός, Διαχείριση των αποβλήτων. Πρόσβαση εδώ.
- PlatoHealth. Ευφυΐα βιοτεχνολογίας και κλινικών δοκιμών. Πρόσβαση εδώ.
- πηγή: https://aws.amazon.com/blogs/machine-learning/fine-tune-llama-2-using-qlora-and-deploy-it-on-amazon-sagemaker-with-aws-inferentia2/
- :έχει
- :είναι
- :δεν
- :που
- $UP
- 1
- 10
- 100
- 11
- 15%
- 16
- 19
- 24
- 300
- 7
- 70
- 8
- a
- Σχετικα
- πάνω από
- επιταχυντής
- επιταχυντές
- πρόσβαση
- Λογαριασμός
- ακρίβεια
- Κατορθώνω
- απέναντι
- δραστηριοτήτων
- προσαρμόσει
- Πρόσθετος
- Επιπλέον
- διεύθυνση
- εκ των προτέρων
- Μετά το
- εμπρός
- AI
- AI / ML
- AL
- επιτρέπει
- κατά μήκος
- Άλφα
- Επίσης
- Amazon
- Εκμάθηση μηχανών του Αμαζονίου
- Amazon Sage Maker
- Στούντιο Amazon SageMaker
- Amazon υπηρεσίες Web
- an
- ανάλυση
- και
- κάθε
- APIs
- Εφαρμογή
- πλησιάζω
- ΕΙΝΑΙ
- AS
- At
- αποδίδουν
- αυτόματη
- διαθέσιμος
- AWS
- Αίσθηση AWS
- μπάλα
- βάση
- βασίζονται
- δοσοληψία
- BE
- ήταν
- όφελος
- ΚΑΛΎΤΕΡΟΣ
- Καλύτερα
- μεταξύ
- Δισεκατομμύριο
- Μπλοκ
- ιστολόγια
- ΓΕΦΥΡΑ
- έσπασε
- χτίζω
- αλλά
- by
- CAN
- δυνατότητες
- ικανός
- Επιλέξτε
- Backup
- κωδικός
- συλλογή
- συνδυασμός
- πλήρης
- περίπλοκο
- συστατικό
- Υπολογίστε
- διαμόρφωση
- έχει ρυθμιστεί
- Συνδεσιμότητα
- πρόξενος
- καταναλώνουν
- Δοχείο
- Περιέχει
- συμφραζόμενα
- έλεγχος
- Κόστος
- θα μπορούσε να
- δημιουργήθηκε
- Τη στιγμή
- Πελάτες
- ημερομηνία
- ανάλυση δεδομένων
- αποφασίζει
- βαθύς
- βαθιά μάθηση
- Προεπιλογή
- ορίζεται
- ορίζεται
- Πτυχίο
- παραδώσει
- παραδίδει
- παρατάσσω
- αναπτυχθεί
- ανάπτυξη
- περιγράφεται
- σχεδιασμένα
- Ανάπτυξη
- συσκευή
- Λιμενεργάτης
- κάτω
- δυο
- κατά την διάρκεια
- δυναμικός
- Ε & Τ
- κάθε
- είτε
- δίνει τη δυνατότητα
- από άκρη σε άκρη
- Τελικό σημείο
- Κινητήρας
- Κινητήρες
- αρκετά
- Περιβάλλον
- σφάλμα
- κ.λπ.
- πάντα
- παράδειγμα
- παραδείγματα
- εκτελέστηκε
- υφιστάμενα
- ακριβά
- εμπειρία
- επιπλέον
- Πρόσωπο
- διευκολύνει
- Απέτυχε
- ψευδής
- οικογένεια
- γρηγορότερα
- Χαρακτηρίζοντας
- ανατροφοδότηση
- Αρχεία
- τελικός
- Τελικά
- οικονομικός
- χρηματοπιστωτικές υπηρεσίες
- Όνομα
- Αλιεία
- εύκαμπτος
- εστιάζοντας
- ακολουθήστε
- ακολουθείται
- Εξής
- εξής
- Ίχνος
- Για
- μορφή
- Βρέθηκαν
- τέσσερα
- πλαισίων
- Πάγωμα
- από
- πλήρη
- Επί πλέον
- γενεά
- γενετική
- Παραγωγική τεχνητή νοημοσύνη
- παίρνω
- Δώστε
- Go
- μετάβαση
- GPU
- χορηγεί
- υλικού
- he
- ακούω
- βοήθεια
- βοηθά
- εδώ
- Ψηλά
- υψηλή απόδοση
- του
- οικοδεσπότης
- φιλοξενείται
- φιλοξενία
- Σπίτι
- Πως
- Πώς να
- Ωστόσο
- HTML
- http
- HTTPS
- ID
- if
- εικόνα
- εφαρμογή
- εκτελεστικών
- in
- περιλαμβάνουν
- περιλαμβάνει
- Συμπεριλαμβανομένου
- αύξηση
- ανεξάρτητος
- βιομηχανία
- πληροφορίες
- καινοτομίες
- εισαγωγή
- είσοδοι
- παράδειγμα
- οδηγίες
- ασφάλιση
- ενσωματωθεί
- Ενσωματώνει
- σε
- εισήγαγε
- IT
- επανάληψη
- ΤΟΥ
- Java
- ταξίδι
- jpg
- json
- Διατήρηση
- Κλειδί
- Κιτ (SDK)
- Γλώσσα
- large
- μεγαλύτερος
- αργότερο
- ξεκίνησε
- στρώμα
- στρώματα
- μάθηση
- Μήκος
- Επίπεδο
- βιβλιοθήκες
- Βιβλιοθήκη
- κύκλος ζωής
- Μου αρέσει
- συμπαθεί
- γραμμή
- Λιστα
- Είδος μικρής καμήλας
- LLM
- φορτίο
- φόρτωση
- τοποθεσία
- πλέον
- αγάπη
- χαμηλότερα
- μηχανή
- μάθηση μηχανής
- Κυρίως
- διατηρεί
- κάνω
- διαχείριση
- πολοί
- μεγιστοποιώντας
- Μνήμη
- πηγαίνω
- μέθοδος
- μέθοδοι
- ενδέχεται να
- ML
- μοντέλο
- μοντέλα
- ενότητες
- Παρακολούθηση
- περισσότερο
- πλέον
- πολύ
- πολλαπλούς
- ονόματα
- κατά τη
- Ανάγκη
- δίκτυο
- επισκεψιμότητα δικτύου
- δικτύωσης
- Νέα
- Όχι.
- βραβείο Νόμπελ
- Ν/Α
- σημείωση
- αριθμός
- of
- on
- ONE
- αποκλειστικά
- επάνω σε
- ανοίξτε
- ανοικτού κώδικα
- λειτουργίες
- βελτιστοποίηση
- Βελτιστοποίηση
- βελτιστοποιημένη
- Επιλογή
- Επιλογές
- or
- ΑΛΛΑ
- αλλιώς
- δικός μας
- Αποτέλεσμα
- περιγράφει
- παραγωγή
- εκτός
- επί
- δική
- πακέτο
- Χαρτί
- Παράλληλο
- παράμετρος
- παράμετροι
- μέρος
- εξαρτήματα
- passieren
- παθιασμένος
- μονοπάτι
- επίδοση
- εκτελούνται
- σχέδιο
- Πλάτων
- Πληροφορία δεδομένων Plato
- Πλάτωνα δεδομένα
- σας παρακαλούμε
- Δημοφιλής
- Θέση
- Δημοσιεύσεις
- δύναμη
- τροφοδοτείται
- πρακτική
- Ακρίβεια
- πρόβλεψη
- Προβλέψεις
- Predictor
- προαπαιτούμενα
- ιδιωτικός
- βραβείο
- Πρόβλημα
- διαδικασια μας
- παράγει
- παραγωγή
- υποσχόμενος
- ιδιότητες
- παρέχουν
- δημοσίως
- δημοσιεύθηκε
- Python
- pytorch
- σειρά
- κυμαίνεται
- μάλλον
- Διάβασε
- Αναγνώστης
- Ανάγνωση
- έλαβε
- πρόσφατα
- συνιστώ
- μείωση
- παραπέμπω
- αναφέρεται
- Αποθήκη
- ζητήσει
- αιτήματα
- απαιτείται
- Απαιτεί
- έρευνα
- Υποστηρικτικό υλικό
- απάντησης
- απαντήσεις
- δεξιά
- τρέξιμο
- τρέξιμο
- θυσιάζοντας
- σοφός
- Αποθήκευση
- Κλίμακα
- απολέπιση
- έκταση
- SDK
- αδιάλειπτη
- Δεύτερος
- Δεύτερη γενιά
- Τμήμα
- ασφάλεια
- δείτε
- αποστολή
- αρχαιότερος
- Ακολουθία
- εξυπηρετούν
- υπηρεσία
- Υπηρεσίες
- εξυπηρετούν
- σειρά
- τον καθορισμό
- setup
- διάφοροι
- Κοντά
- βιτρίνα
- έδειξε
- παρουσιάζεται
- Δείχνει
- αφού
- ενιαίας
- Μέγεθος
- small
- Απόσπασμα
- So
- λογισμικό
- ανάπτυξη λογισμικού
- κιτ ανάπτυξης λογισμικού
- λύση
- Λύσεις
- μερικές φορές
- Πηγή
- Πηγές
- ειδικός
- συγκεκριμένες
- καθορίζεται
- πρότυπο
- ξεκίνησε
- στατιστικός
- παραμονή
- Βήμα
- Βήματα
- αποθηκεύονται
- στούντιο
- Επιτυχώς
- τέτοιος
- υποστήριξη
- υποστηριζόνται!
- Υποστηρίζει
- εργασίες
- Διδασκαλία
- τεχνική
- τεχνικές
- tensorflow
- δοκιμαστεί
- κείμενο
- ότι
- Η
- τους
- Τους
- τότε
- Αυτοί
- αυτό
- Μέσω
- Tim
- ώρα
- προς την
- ένδειξη
- κουπόνια
- πολύ
- κορυφή
- τοπικός
- δάδα
- ΚΙΝΗΣΗ στους ΔΡΟΜΟΥΣ
- Τρένο
- εκπαιδευμένο
- Εκπαίδευση
- μετασχηματιστής
- Τρισεκατομμύριο
- αληθής
- προσπαθώ
- συντονισμένη
- βραχυχρόνιων διακυμάνσεων της ρευστότητας
- δύο
- τύπος
- ενημερώσεις
- Φορτώθηκε
- URL
- χρήση
- μεταχειρισμένος
- Χρήστες
- Η εμπειρία χρήστη
- χρησιμοποιώντας
- συνήθως
- ΕΠΙΚΥΡΩΝΩ
- επικυρωμένο
- εκδοχή
- μέσω
- Πραγματικός
- walk
- περιδιάβαση
- θέλω
- ήταν
- we
- ιστός
- διαδικτυακές υπηρεσίες
- βάρος
- ΛΟΙΠΌΝ
- Τι
- Τι είναι
- Ποιό
- ενώ
- θα
- με
- εντός
- χωρίς
- Εργασία
- εργάτης
- ροές εργασίας
- γράφω
- γραφή
- Εσείς
- Σας
- zephyrnet