Το Technology Innovation Institute εκπαιδεύει το υπερσύγχρονο μοντέλο βάσης Falcon LLM 40B στο Amazon SageMaker | Υπηρεσίες Ιστού της Amazon

Το Technology Innovation Institute εκπαιδεύει το υπερσύγχρονο μοντέλο βάσης Falcon LLM 40B στο Amazon SageMaker | Υπηρεσίες Ιστού της Amazon

Αυτή η ανάρτηση ιστολογίου συντάχθηκε με τον Δρ. Ebtesam Almazrouei, Executive Director–Acing Chief Researcher AI of the AI-Cross Center Unit and Project Lead for LLM Projects στο TII.

Ηνωμένα Αραβικά Εμιράτα (ΗΑΕ) Ινστιτούτο Τεχνολογικής Καινοτομίας (TII), ο πυλώνας εφαρμοσμένης έρευνας του Άμπου Ντάμπι Συμβούλιο Προηγμένης Τεχνολογίας, κυκλοφόρησε το Falcon LLM, ένα θεμελιώδες μοντέλο μεγάλων γλωσσών (LLM) με 40 δισεκατομμύρια παραμέτρους. Το TII είναι ένα κορυφαίο παγκόσμιο ερευνητικό κέντρο αφιερωμένο στην προώθηση των συνόρων της γνώσης. Η ομάδα επιστημόνων, ερευνητών και μηχανικών του TII εργάζεται για την παροχή επιστήμης ανακάλυψης και μετασχηματιστικών τεχνολογιών. Το έργο του TII επικεντρώνεται σε ανακαλύψεις που θα αποδείξουν το μέλλον της κοινωνίας μας. Εκπαιδεύτηκε σε 1 τρισεκατομμύριο μάρκες, TII Falcon LLM διαθέτει κορυφαία απόδοση ενώ παραμένει απίστευτα οικονομικά αποδοτική. Το Falcon-40B ταιριάζει με τις επιδόσεις άλλων LLM υψηλής απόδοσης και είναι το κορυφαίο μοντέλο ανοιχτού κώδικα στο κοινό Hugging Face Open LLM leaderboard. Είναι διαθέσιμο ως ανοιχτού κώδικα σε δύο διαφορετικά μεγέθη – Falcon-40B και Falcon-7B και κατασκευάστηκε από την αρχή χρησιμοποιώντας προεπεξεργασία δεδομένων και εργασίες εκπαίδευσης μοντέλων που βασίζονται σε Amazon Sage Maker. Το Open-source Falcon 40B επιτρέπει στους χρήστες να κατασκευάζουν και να προσαρμόζουν εργαλεία τεχνητής νοημοσύνης που καλύπτουν μοναδικές ανάγκες των χρηστών, διευκολύνοντας την απρόσκοπτη ενσωμάτωση και διασφαλίζοντας τη μακροπρόθεσμη διατήρηση των στοιχείων του ενεργητικού. Τα βάρη του μοντέλου είναι διαθέσιμα για λήψη, επιθεώρηση και ανάπτυξη οπουδήποτε.

Από τις 7 Ιουνίου, και τα δύο Falcon LLM θα είναι διαθέσιμα στο Amazon SageMaker JumpStart, τον κόμβο μηχανικής εκμάθησης (ML) του SageMaker που προσφέρει προεκπαιδευμένα μοντέλα, ενσωματωμένους αλγόριθμους και προκατασκευασμένα πρότυπα λύσεων για να σας βοηθήσουν να ξεκινήσετε γρήγορα με την ML. Μπορείτε να αναπτύξετε και να χρησιμοποιήσετε τα Falcon LLM με μερικά κλικ SageMaker Στούντιο ή προγραμματικά μέσω του SDK SageMaker Python. Για να αναπτύξετε και να εκτελέσετε συμπέρασμα σε Falcon LLM, ανατρέξτε στο Εισαγωγή στο SageMaker JumpStart – Δημιουργία κειμένου με Falcon LLMs παράδειγμα σημειωματάριο.

Το Technology Innovation Institute εκπαιδεύει το υπερσύγχρονο μοντέλο βάσης Falcon LLM 40B στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Ο Δρ. Ebtesam Almazrouei, Εκτελεστικός Διευθυντής–Επαγγελματίας Επικεφαλής Ερευνητής AI της Μονάδας AI-Cross Center και Επικεφαλής Έργου για Έργα LLM στο TII, μοιράζεται:

«Ανακοινώνουμε με υπερηφάνεια την επίσημη κυκλοφορία ανοιχτού κώδικα του Falcon-40B, του κορυφαίου μοντέλου γλώσσας ανοιχτού κώδικα στον κόσμο. Το Falcon-40B είναι ένα εξαιρετικό μοντέλο ανοιχτού κώδικα με παραμέτρους 40B, ειδικά σχεδιασμένο ως μοντέλο μόνο για αιτιώδη αποκωδικοποιητή. Εκπαιδεύτηκε σε ένα τεράστιο σύνολο δεδομένων 1,000 δισεκατομμυρίων διακριτικών, συμπεριλαμβανομένου του RefinedWeb ενισχυμένο με επιμελημένα σώματα. Το μοντέλο διατίθεται με την άδεια Apache 2.0, διασφαλίζοντας την προσβασιμότητα και τη χρηστικότητά του. Το Falcon-40B έχει ξεπεράσει διάσημα μοντέλα όπως τα LLaMA-65B, StableLM και MPT στο δημόσιο leaderboard που διατηρεί η Hugging Face. Η αρχιτεκτονική του Falcon-40B είναι βελτιστοποιημένη για εξαγωγή συμπερασμάτων, ενσωματώνοντας τεχνικές FlashAttention και multiquery."

«Αυτό το βήμα αντικατοπτρίζει την αφοσίωσή μας στην υπέρβαση των ορίων της καινοτομίας τεχνητής νοημοσύνης και του επιπέδου ετοιμότητας της τεχνολογίας για τη δέσμευση της κοινότητας, την εκπαίδευση, τις εφαρμογές του πραγματικού κόσμου και τη συνεργασία. Συνεχίζει ο Δρ Ebtesam. «Κυκλοφορώντας το Falcon-40B ως μοντέλο ανοιχτού κώδικα, παρέχουμε σε ερευνητές, επιχειρηματίες και οργανισμούς την ευκαιρία να εκμεταλλευτούν τις εξαιρετικές δυνατότητές του και να προωθήσουν τις εξελίξεις στις λύσεις που βασίζονται στην τεχνητή νοημοσύνη από την υγειονομική περίθαλψη στο διάστημα, τη χρηματοδότηση, την κατασκευή έως τη βιοτεχνολογία. οι δυνατότητες για λύσεις που βασίζονται στο AI είναι απεριόριστες. Για να αποκτήσετε πρόσβαση στο Falcon-40B και να εξερευνήσετε τις αξιοσημείωτες δυνατότητές του, επισκεφθείτε το FalconLLM.tii.ae. Ελάτε μαζί μας να αξιοποιήσουμε τη δύναμη του Falcon-40B για να διαμορφώσουμε το μέλλον της τεχνητής νοημοσύνης και να φέρουμε επανάσταση στις βιομηχανίες».

Σε αυτήν την ανάρτηση, βουτάμε βαθιά με τον Dr. Almazrouei σχετικά με την εκπαίδευση Falcon LLM στο SageMaker, την επιμέλεια δεδομένων, τη βελτιστοποίηση, την απόδοση και τα επόμενα βήματα.

Μια νέα γενιά LLM

Τα LLM είναι αλγόριθμοι λογισμικού εκπαιδευμένοι να συμπληρώνουν φυσικές ακολουθίες κειμένου. Λόγω του μεγέθους τους και του όγκου των δεδομένων εκπαίδευσης με τα οποία αλληλεπιδρούν, τα LLM έχουν εντυπωσιακές ικανότητες επεξεργασίας κειμένου, συμπεριλαμβανομένης της σύνοψης, της απάντησης σε ερωτήσεις, της μάθησης εντός του πλαισίου και πολλά άλλα.

Στις αρχές του 2020, ερευνητικοί οργανισμοί σε όλο τον κόσμο έδωσαν έμφαση στο μέγεθος του μοντέλου, παρατηρώντας ότι η ακρίβεια συσχετίζεται με τον αριθμό των παραμέτρων. Για παράδειγμα, το GPT-3 (2020) και το BLOOM (2022) διαθέτουν περίπου 175 δισεκατομμύρια παραμέτρους, το Gopher (2021) έχει 230 δισεκατομμύρια παραμέτρους και το MT-NLG (2021) 530 δισεκατομμύρια παραμέτρους. Το 2022, Hoffman et al. παρατήρησε ότι το τρέχον ισοζύγιο υπολογισμού μεταξύ των παραμέτρων του μοντέλου και του μεγέθους δεδομένων δεν ήταν το βέλτιστο και δημοσίευσε εμπειρικούς νόμους κλιμάκωσης που υποδηλώνουν ότι η εξισορρόπηση του υπολογιστικού προϋπολογισμού προς μικρότερα μοντέλα που εκπαιδεύονται σε περισσότερα δεδομένα θα μπορούσε να οδηγήσει σε μοντέλα με καλύτερη απόδοση. Εφάρμοσαν την καθοδήγησή τους στο μοντέλο της παραμέτρου 70B Chinchilla (2022), το οποίο ξεπέρασε τα πολύ μεγαλύτερα μοντέλα.

Εκπαίδευση LLM στο SageMaker

Το SageMaker είναι μια συλλογή διαχειριζόμενων API για ανάπτυξη, εκπαίδευση, συντονισμό και φιλοξενία μοντέλων μηχανικής εκμάθησης (ML), συμπεριλαμβανομένων των LLM. Πολλοί πελάτες βασίζονται στο SageMaker για τους φόρτους εργασίας LLM, όπως π.χ Σταθερότητα AI, Εργαστήρια AI21, Αγκαλιάζοντας το πρόσωπο, να LG AI. Εκπαίδευση SageMaker provisions υπολογίζουν συμπλέγματα με ρυθμίσεις παραμέτρων υλικού και κώδικα που καθορίζονται από τον χρήστη. Οι εργασίες υπολογισμού χρεώνονται ανά εκτέλεση, αναλογικά με τη δεύτερη, πράγμα που σημαίνει ότι οι χρήστες δεν χρεώνονται για τη χωρητικότητα της GPU όταν δεν χρησιμοποιούν την υπηρεσία. Το TII χρησιμοποίησε μεταβατικά συμπλέγματα που παρέχονται από το SageMaker Training API για να εκπαιδεύσει το Falcon LLM, έως και 48 ml.p4d.24x μεγάλες παρουσίες, που σωρεύονται σε 384 GPU NVIDIA A100. Τώρα, η TII εκπαιδεύει το επόμενο Falcon LLM και κλιμάκωσε την εκπαίδευσή τους σε 3,136 A100 GPU (392 ml.p4d στιγμιότυπα).

Ένας άνευ προηγουμένου όγκος προσαρμοσμένων καινοτομιών εισήχθη σε όλα τα επίπεδα του έργου προκειμένου να ανέβει ο πήχης της ποιότητας της επιστήμης και της ταχύτητας εκπαίδευσης. Στις επόμενες ενότητες, περιγράφουμε τις βελτιστοποιήσεις TII που πραγματοποιήθηκαν σε όλα τα επίπεδα του συστήματος εκπαίδευσης βαθιάς μάθησης (DL).

Επεκτάσιμη επιμέλεια δεδομένων

Τα LLM τελευταίας γενιάς αντλούν τη δύναμή τους από το μέγεθος και την ποιότητα των δεδομένων εκπαίδευσης. Η ομάδα έδωσε ιδιαίτερη φροντίδα στο σκάφος ενός υψηλής ποιότητας δεδομένων τρισεκατομμυρίων. Αρκετές εργασίες στο SageMaker Training CPU μετέτρεψαν petabyte φθηνών, επεκτάσιμων δεδομένων ιστού σε ένα επιμελημένο, ασφαλές σύνολο δεδομένων εκπαίδευσης. Τα αυτοματοποιημένα συστήματα φιλτράρουν και απεγγράφουν τα δεδομένα. Για παράδειγμα, οι ταξινομητές ML χρησιμοποιήθηκαν για να φιλτράρουν τις βωμολοχίες. Οι εργασίες CPU που εκτελούνται σε ml.c5.18xlarge (72 vCPU, 144 GB RAM) δημιουργήθηκαν σε μερικές κλήσεις API μέσω του SageMaker Training για την εκτέλεση εργασιών μετασχηματισμού δεδομένων. Η ομάδα χρησιμοποίησε εργασίες CPU μίας και πολλαπλής παρουσίας για περιπτώσεις διαφορετικών χρήσεων. Ορισμένες από αυτές τις εργασίες χρησιμοποιούσαν εκατοντάδες εργασίες παράλληλης αρχιτεκτονικής κοινής χρήσης (SNA), η καθεμία σε ένα μόνο μηχάνημα, και για εργασίες που απαιτούσαν συγχρονισμό μεταξύ εργαζομένων, η ομάδα ξεκίνησε εργασίες πολλαπλών παρουσιών, σωρευμένες σε δεκάδες παρουσίες και χιλιάδες vCPU. Ανέκδοτα, σε μια εργασία προετοιμασίας δεδομένων κατάντη, η ομάδα ανέβηκε στα 257 ml.c5.18xlarge σε μία μόνο εργασία SageMaker Training, σωρευτικά σε 18,504 vCPU και 37 TB μνήμης.

Μεγιστοποίηση της απόδοσης της εκπαίδευσης

Για να ελαχιστοποιήσει τόσο το κόστος εκπαίδευσης όσο και το χρόνο για την αγορά, η ομάδα ακολούθησε διάφορες κατευθύνσεις βελτιστοποίησης για να επιταχύνει την ταχύτητα εκπαίδευσης ανάλογη με τα κουπόνια εκπαίδευσης που επεξεργάζονται ανά δευτερόλεπτο και μετρώνται σε TFLOP/GPU. Η ομάδα χρησιμοποίησε ένα πλήρως προσαρμοσμένο 3D-παράλληλο εκπαιδευτικό πλαίσιο LLM, το οποίο διαθέτει προσαρμοσμένα βελτιστοποιημένα επίπεδα γραμμένα σε μεταγλωττισμένο κώδικα GPU. Η ομάδα έφτασε στο σημείο να γράψει τη δική της προσαρμοσμένη εφαρμογή πολλαπλασιασμού μήτρας για να κερδίσει περαιτέρω ταχύτητα! Η ομάδα ανέπτυξε επίσης λογική που προσαρμόζει την παράλληλη επικοινωνία στην υποκείμενη τοπολογία του δικτύου. Κατά τη διάρκεια των αρχικών πειραμάτων κλιμάκωσης, το TII μπόρεσε να φτάσει τα 166 TFLOPs/GPU σε ένα μοντέλο 147B σε 256 GPU και 173 TFLOPs/GPU σε ένα μοντέλο 13B σε 16 GPU. η ώρα της δοκιμής στα τέλη του 2022.

Αποθηκευτικός χώρος χωρίς διακομιστή

Η εκπαίδευση LLM είναι εντατική αποθήκευσης. αρκετά terabyte δεδομένων εκπαίδευσης πρέπει να διοχετεύονται στο σύμπλεγμα εκπαίδευσης και αρκετά terabyte σημείων ελέγχου μοντέλων ταξιδεύουν τακτικά από το σύμπλεγμα στη μόνιμη αποθήκευση. Τα σημεία ελέγχου πρέπει επίσης να φτάσουν στο εκπαιδευτικό σύμπλεγμα όσο το δυνατόν γρηγορότερα σε περίπτωση επανεκκίνησης της εργασίας. Στους παραδοσιακούς υπολογιστές υψηλής απόδοσης (HPC), οι κόμβοι υπολογιστών συνδέονται με κατανεμημένα συστήματα αρχείων, τα οποία παρέχουν I/O και απόδοση υψηλής απόδοσης μέσω μιας διεπαφής τύπου POSIX. Στο AWS, οι πελάτες χρησιμοποιούν τακτικά το Amazon FSx για λάμψη σύστημα αρχείων για το σκοπό αυτό (για περισσότερες λεπτομέρειες, ανατρέξτε στο Επιταχύνετε την εκπαίδευση στο Amazon SageMaker χρησιμοποιώντας το Amazon FSx για συστήματα αρχείων Luster και Amazon EFS), και τεκμηριώσαμε επίσης την αυτοδιαχειριζόμενη χρήση του BeeGFS στο μια κατανεμημένη μελέτη περίπτωσης όρασης υπολογιστή. Λόγω της εστίασής τους στο κόστος και τη λειτουργική απλότητα, η ομάδα αποφάσισε να μην εφαρμόσει και να λειτουργήσει διακομιστές συστημάτων αρχείων, αλλά αντ' αυτού ανέλαβε την πρόκληση να δημιουργήσει αποκλειστικά πάνω από την αποθήκευση αντικειμένων χωρίς διακομιστή Απλή υπηρεσία αποθήκευσης Amazon (Amazon S3). Μια προσαρμοσμένη κλάση συνόλου δεδομένων S3 δημιουργήθηκε χρησιμοποιώντας το AWS SDK για Python (Boto3) και παρείχε ικανοποιητική απόδοση, ενώ επέτρεψε στους επιστήμονες να επαναλάβουν αυτόνομα τη μηχανική I/O και την επιστήμη μοντέλων στην ίδια βάση κώδικα.

Καινοτομία από την πλευρά του πελάτη

Ένα έργο LLM σπάνια αποτελείται από μία μόνο εργασία κατάρτισης. απαιτούνται πολλές θέσεις εργασίας για τη διεξαγωγή αρχικών δοκιμών και εμπειριών. Κατά τη διάρκεια της κύριας εκπαίδευσης παραγωγής, πολλές εργασίες μπορεί να συνδεθούν με αλυσίδα, για παράδειγμα για ενημέρωση διαμόρφωσης ή εκδόσεων λογισμικού, ανάπτυξη ενημερώσεων κώδικα ή αποκατάσταση από βλάβες. Επιστήμονες από το TII πραγματοποίησαν σημαντική μηχανική για να δημιουργήσουν προσαρμοσμένους πελάτες προσαρμοσμένους στην εκπαίδευση LLM. Ένα πρόγραμμα-πελάτης εκκίνησης δημιουργήθηκε πάνω από το SageMaker Training SDK για να συγκεντρώσει πολλές λειτουργίες σε μία εντολή, για παράδειγμα έκδοση κώδικα, δημιουργία εικόνων Docker και εκκίνηση εργασιών. Επιπλέον, ένα AWS Lambda Η λειτουργία υπολογισμού χωρίς διακομιστή σχεδιάστηκε για να παρακολουθεί, να παρακολουθεί και να παρεμβαίνει σε εργασίες όπως απαιτείται.

Χρήση Slack bots για ελέγχους ποιότητας συμπερασμάτων

Προς το τέλος της εκπαίδευσης, η ομάδα ανέπτυξε το μοντέλο σε εσωτερικό SageMaker Hosting GPU τελικό σημείο για αλληλεπίδραση σε πραγματικό χρόνο. Η ομάδα έφτασε στο σημείο να δημιουργήσει ένα Slack bot για να κάνει διάλογο, να λάβει ρεαλιστικά σχόλια και να εκτελέσει ποιοτικούς ελέγχους του μοντέλου.

Εκπαίδευση και παρακολούθηση απόδοσης

Η εκπαίδευση ενός LLM απαιτεί μεγάλες ποσότητες υπολογιστικών πόρων, συμπεριλαμβανομένων πόρων CPU, GPU και μνήμης. Ως εκ τούτου, το TII χρειαζόταν να παρακολουθεί την απόδοση και τον χρόνο αδράνειας της εργασίας εκπαίδευσης για να διασφαλίσει τη βέλτιστη χρήση των υπολογιστικών πόρων και τη σχέση κόστους-αποτελεσματικότητάς τους.

Για την κατασκευή μιας αυτοματοποιημένης λύσης παρακολούθησης, χρησιμοποιήθηκε το TII amazoncloudwatch συναγερμοί για την παρακολούθηση της χρήσης GPU, CPU και μνήμης για τις εργασίες εκπαίδευσης. Το CloudWatch συλλέγει ακατέργαστα δεδομένα και τα επεξεργάζεται σε ευανάγνωστες, σχεδόν σε πραγματικό χρόνο μετρήσεις από τις υποκείμενες παρουσίες κοντέινερ που χρησιμοποιούνται στην εργασία SageMaker Training. Μετά από αυτό, ορίζουμε όρια για καθεμία από αυτές τις μετρήσεις και εάν κάποια μέτρηση πέσει κάτω από το όριο, ενεργοποιείται ένας συναγερμός. Αυτός ο συναγερμός ειδοποιεί την ομάδα της TII για τη χαμηλή χρήση πόρων, επιτρέποντάς της να λάβει διορθωτικά μέτρα για να διορθώσει τους περιορισμούς χρήσης πόρων.

Εκτός από την παρακολούθηση της χρήσης των πόρων, το TII θα μπορούσε επίσης να παρακολουθεί τον χρόνο αδράνειας των πόρων εργασίας κατάρτισης. Εάν οι πόροι εργασίας κατάρτισης ήταν αδρανείς για παρατεταμένο χρονικό διάστημα, θα μπορούσε να υποδηλώνει συμφόρηση σε οποιοδήποτε στάδιο του κύκλου εκπαίδευσης και να απαιτήσει χειροκίνητη έρευνα. Σε ορισμένες περιπτώσεις, η χρήση των πόρων ήταν ακόμα σχετικά βέλτιστη, αλλά η ίδια η διαδικασία εκπαίδευσης δεν προχωρούσε. Για αυτές τις περιπτώσεις, το TII ενσωμάτωσε συναγερμούς CloudWatch με λειτουργίες Lambda για να ρωτήσει και να διαβάσει τα δημιουργημένα αρχεία καταγραφής εκπαίδευσης και, στη συνέχεια, να προβεί σε αυτόματες ενέργειες με βάση είτε το σφάλμα που δημιουργήθηκε είτε την αδράνεια της διαδικασίας δημιουργίας αρχείων καταγραφής (το σύμπλεγμα έχει σταματήσει). Ο συναγερμός ενεργοποιεί μια ενέργεια για τη διακοπή της εργασίας εκπαίδευσης, η οποία διασφαλίζει ότι το TII δεν επιφέρει περιττό κόστος όταν οι πόροι δεν χρησιμοποιήθηκαν.

Συμπέρασμα

Χρησιμοποιώντας το SageMaker σε συνδυασμό με ιδιόκτητη, προσαρμοσμένη καινοτομία, η TII μπόρεσε να εκπαιδεύσει ένα μοντέλο αιχμής σε πολλαπλές διαστάσεις: τεχνολογική καινοτομία, ποιότητα επιστήμης, ταχύτητα εκπαίδευσης και επίσης λειτουργική απλότητα.

«Η κυκλοφορία του Falcon 40B των ΗΑΕ, του κορυφαίου μοντέλου ανοιχτού κώδικα τεχνητής νοημοσύνης στον κόσμο, απεικονίζει την ηγετική θέση στην τεχνολογία και ανοίγει το δρόμο για καινοτομία που βασίζεται στην τεχνητή νοημοσύνη στον κόσμοion» υποδεικνύει ο Δρ. Ebtesam Almazrouei. προσθέτοντας ότι «επιδεικνύουμε τη δέσμευσή μας στους στόχους που περιγράφονται στην Εθνική Στρατηγική AI 2031. Η ενεργή συμμετοχή μας στις παγκόσμιες τεχνολογικές εξελίξεις, που εκπροσωπείται από το Falcon-40B, διαδραματίζει κρίσιμο ρόλο στην επιδίωξή μας για μια οικονομία βασισμένη στη γνώση. Μέσω επενδύσεων και ανάπτυξης σε λύσεις τεχνητής νοημοσύνης, στοχεύουμε να δημιουργήσουμε νέες ευκαιρίες για οικονομική ανάπτυξη, κοινωνική πρόοδο και εκπαιδευτικές προόδους.

«Η φύση ανοιχτού κώδικα του Falcon-40B αντανακλά την αφοσίωσή μας στη συνεργασία, τη διαφάνεια, την καινοτομία και την έρευνα στον τομέα της τεχνητής νοημοσύνης. Πιστεύουμε στον εκδημοκρατισμό των προηγμένων δυνατοτήτων τεχνολογίας AI, καθιστώντας το Falcon-40B προσβάσιμο σε ερευνητές και οργανισμούς σε όλο τον κόσμο».

«Κοιτάζοντας το μέλλον, θα συνεχίσουμε να συνεισφέρουμε στην τεχνητή νοημοσύνη και τις τεχνολογικές εξελίξεις, με επερχόμενα μοντέλα στα σκαριά. Επιπλέον, θα προωθήσουμε ενεργά την υιοθέτηση προηγμένης τεχνολογίας AI σε οργανισμούς και επιχειρήσεις στη χώρα μας, ενισχύοντας την ανάπτυξη και την ευημερία που ευθυγραμμίζονται με τους στρατηγικούς μας στόχους».

– Δρ Αλμαζρουέι

Για να μάθετε περισσότερα σχετικά με το Falcon LLM, ανατρέξτε στον ιστότοπο FalconLLM.tii.ae και  το μοντέλο της κάρτας στο πρόσωπο που αγκαλιάζει!


Σχετικά με τους Συγγραφείς

Το Technology Innovation Institute εκπαιδεύει το υπερσύγχρονο μοντέλο βάσης Falcon LLM 40B στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Δρ. Ebtesam Almazrouei είναι ο Εκτελεστικός Διευθυντής-Επικεφαλής Ερευνητής AI και Ιδρυτής της Μονάδας Κέντρου Al-Cross στο Technology Innovation Institute (TII). Ως Ιδρυτής της Μονάδας Κέντρου Al-Cross στο Ινστιτούτο Καινοτομίας Τεχνολογίας (TII), ο Δρ. Το στρατηγικό της όραμα και η τεχνογνωσία της στην τεχνητή νοημοσύνη και τη μηχανική μάθηση την ενδυνάμωσαν να ηγηθεί πρωτοποριακών ερευνητικών πρωτοβουλιών και να προωθήσει διαλειτουργικές συνεργασίες, με αποτέλεσμα την παράδοση καινοτόμων λύσεων τεχνητής νοημοσύνης σε πολλούς κλάδους.

Ένα από τα αξιοσημείωτα επιτεύγματα της Dr. Almazrouei είναι ο καθοριστικός της ρόλος στην ανάπτυξη του Falcon 40B, ενός LLM αιχμής που έχει κερδίσει παγκόσμια αναγνώριση. Η εξαιρετική απόδοση του Falcon 40B το κατέταξε ως το νούμερο ένα LLM παγκοσμίως στο leaderboard του Hugging Face τον Μάιο του 2023. Επιπλέον, ηγήθηκε της ανάπτυξης του Noor, του μεγαλύτερου αραβικού μοντέλου μεγάλης γλώσσας στον κόσμο (LLM) που κυκλοφόρησε τον Απρίλιο του 2022.

Η Δρ Almazrouei αναγνωρίζεται παγκοσμίως για τη συνεισφορά της στην τεχνητή νοημοσύνη και συμπεριλήφθηκε στη λίστα με τις κορυφαίες γυναίκες AI στον κόσμο το 2023, μαζί με άλλες διακεκριμένες γυναίκες στον τομέα. Είναι επίσης υπέρμαχος των πρωτοβουλιών βιωσιμότητας και AI for Good, καθώς και γενική πρόεδρος του Abu Dhabi AI Connect και πρόεδρος TPC σε πολλά διεθνή συνέδρια IEEE.

Οι συνεισφορές της εκτείνονται πέρα ​​από τη δουλειά της στο TII, όπου ηγείται της υποεπιτροπής εμπειρογνωμόνων μεγάλων δεδομένων του Συμβουλίου των ΗΑΕ για την τεχνητή νοημοσύνη και το Blockchain και είναι μέλος του παγκόσμιου διοικητικού συμβουλίου του Wireless World Research Forum (WWRF). Είναι επιστημονική συγγραφέας, εφευρέτρια διπλωμάτων ευρεσιτεχνίας, επιχειρηματίας και διάσημη ομιλήτρια, γνωστή για τις κύριες ομιλίες της σε διακεκριμένες συνόδους κορυφής όπως το AI Summit στο Λονδίνο, το Παγκόσμιο Φεστιβάλ AI των Καννών και οι συνόδους κορυφής Τεχνολογίας.

Το Technology Innovation Institute εκπαιδεύει το υπερσύγχρονο μοντέλο βάσης Falcon LLM 40B στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Ο Γουίλ Μπαντρ είναι Sr. Manager AI/ML Solutions Architects με έδρα το Ντουμπάι – Ηνωμένα Αραβικά Εμιράτα και εργάζεται ως μέλος της παγκόσμιας ομάδας μηχανικής εκμάθησης της Amazon. Ο Will είναι παθιασμένος με τη χρήση της τεχνολογίας με καινοτόμους τρόπους για να επηρεάσει θετικά την κοινότητα. Στον ελεύθερο χρόνο του, του αρέσει να κάνει καταδύσεις, να παίζει ποδόσφαιρο και να εξερευνά τα νησιά του Ειρηνικού.

Το Technology Innovation Institute εκπαιδεύει το υπερσύγχρονο μοντέλο βάσης Falcon LLM 40B στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Ολιβιέ Κρουκάντ είναι Αρχιτέκτονας λύσεων Specialist Machine Learning στην AWS, με έδρα τη Γαλλία. Ο Olivier βοηθά τους πελάτες της AWS – από μικρές νεοφυείς επιχειρήσεις έως μεγάλες επιχειρήσεις – να αναπτύξουν και να αναπτύξουν εφαρμογές μηχανικής εκμάθησης ποιότητας παραγωγής. Στον ελεύθερο χρόνο του, του αρέσει να διαβάζει ερευνητικές εργασίες και να εξερευνά την έρημο με φίλους και οικογένεια.

Σφραγίδα ώρας:

Περισσότερα από Μηχανική εκμάθηση AWS