Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker

Αυτή η ανάρτηση είναι συν-συγγραφέας των Marios Skevofylakas, Jason Ramchandani και Haykaz Aramyan από το Refinitiv, An LSEG Business.

Οι πάροχοι χρηματοοικονομικών υπηρεσιών συχνά χρειάζεται να εντοπίζουν σχετικές ειδήσεις, να τις αναλύουν, να εξάγουν πληροφορίες και να αναλαμβάνουν ενέργειες σε πραγματικό χρόνο, όπως διαπραγμάτευση συγκεκριμένων μέσων (όπως εμπορεύματα, μετοχές, κεφάλαια) με βάση πρόσθετες πληροφορίες ή το πλαίσιο της είδησης. Μια τέτοια πρόσθετη πληροφορία (την οποία χρησιμοποιούμε ως παράδειγμα σε αυτήν την ανάρτηση) είναι το συναίσθημα της είδησης.

Οι βιβλιοθήκες Refinitiv Data (RD) παρέχουν ένα ολοκληρωμένο σύνολο διεπαφών για ομοιόμορφη πρόσβαση στον Κατάλογο Δεδομένων Refinitiv. Η βιβλιοθήκη προσφέρει πολλαπλά επίπεδα αφαίρεσης παρέχοντας διαφορετικά στυλ και τεχνικές προγραμματισμού κατάλληλες για όλους τους προγραμματιστές, από χαμηλής καθυστέρησης πρόσβαση σε πραγματικό χρόνο έως ομαδικές απολήψεις δεδομένων Refinitiv.

Σε αυτήν την ανάρτηση, παρουσιάζουμε μια πρωτότυπη αρχιτεκτονική AWS που απορροφά τις ειδήσεις μας χρησιμοποιώντας τις Βιβλιοθήκες RD και τις ενισχύει με προβλέψεις μοντέλων μηχανικής εκμάθησης (ML) χρησιμοποιώντας Amazon Sage Maker, μια πλήρως διαχειριζόμενη υπηρεσία ML από την AWS.

Σε μια προσπάθεια να σχεδιάσουμε μια αρθρωτή αρχιτεκτονική που θα μπορούσε να χρησιμοποιηθεί σε διάφορες περιπτώσεις χρήσης, όπως ανάλυση συναισθήματος, αναγνώριση ονομαστικών οντοτήτων και πολλά άλλα, ανεξάρτητα από το μοντέλο ML που χρησιμοποιείται για βελτίωση, αποφασίσαμε να εστιάσουμε στον χώρο πραγματικού χρόνου. Ο λόγος για αυτήν την απόφαση είναι ότι οι περιπτώσεις χρήσης σε πραγματικό χρόνο είναι γενικά πιο περίπλοκες και ότι η ίδια αρχιτεκτονική μπορεί επίσης να χρησιμοποιηθεί, με ελάχιστες προσαρμογές, για συμπέρασμα παρτίδων. Στην περίπτωση χρήσης μας, εφαρμόζουμε μια αρχιτεκτονική που απορροφά τη ροή ειδήσεων σε πραγματικό χρόνο, υπολογίζει το συναίσθημα σε κάθε τίτλο ειδήσεων χρησιμοποιώντας ML και προβάλλει εκ νέου τη ροή βελτιωμένης τεχνητής νοημοσύνης μέσω μιας αρχιτεκτονικής εκδότη/συνδρομητή.

Επιπλέον, για να παρουσιάσουμε έναν ολοκληρωμένο και επαναχρησιμοποιήσιμο τρόπο παραγωγής μοντέλων ML με την υιοθέτηση πρακτικών MLOps, εισάγουμε την έννοια της υποδομής ως κώδικα (IaC) κατά τη διάρκεια ολόκληρου του κύκλου ζωής των MLOps του πρωτοτύπου. Χρησιμοποιώντας το Terraform και ένα σενάριο με δυνατότητα διαμόρφωσης ενός σημείου εισόδου, είμαστε σε θέση να δημιουργήσουμε όλη την υποδομή, σε λειτουργία παραγωγής, σε AWS μέσα σε λίγα μόνο λεπτά.

Σε αυτή τη λύση, δεν αντιμετωπίζουμε την πτυχή MLOps της ανάπτυξης, της εκπαίδευσης και της ανάπτυξης των μεμονωμένων μοντέλων. Εάν ενδιαφέρεστε να μάθετε περισσότερα σχετικά με αυτό, ανατρέξτε στο Ο οδικός χάρτης του θεμελίου MLOps για επιχειρήσεις με το Amazon SageMaker, το οποίο εξηγεί λεπτομερώς ένα πλαίσιο για την κατασκευή, την εκπαίδευση και την ανάπτυξη μοντέλων σύμφωνα με τις βέλτιστες πρακτικές.

Επισκόπηση λύσεων

Σε αυτό το πρωτότυπο, ακολουθούμε μια πλήρως αυτοματοποιημένη μεθοδολογία παροχής σύμφωνα με το IaC βέλτιστες πρακτικές. Το IaC είναι η διαδικασία παροχής πόρων μέσω προγραμματισμού χρησιμοποιώντας αυτοματοποιημένα σενάρια αντί για χρήση διαδραστικών εργαλείων διαμόρφωσης. Οι πόροι μπορεί να είναι τόσο υλικό όσο και απαραίτητο λογισμικό. Στην περίπτωσή μας, χρησιμοποιούμε το Terraform για να επιτύχουμε την υλοποίηση ενός μόνο διαμορφώσιμου σημείου εισόδου που μπορεί να περιστρέψει αυτόματα ολόκληρη την υποδομή που χρειαζόμαστε, συμπεριλαμβανομένων των πολιτικών ασφάλειας και πρόσβασης, καθώς και αυτοματοποιημένης παρακολούθησης. Με αυτό το μοναδικό σημείο εισόδου που ενεργοποιεί μια συλλογή σεναρίων Terraform, ένα ανά υπηρεσία ή οντότητα πόρου, μπορούμε να αυτοματοποιήσουμε πλήρως τον κύκλο ζωής όλων ή τμημάτων των στοιχείων της αρχιτεκτονικής, επιτρέποντάς μας να εφαρμόσουμε λεπτομερή έλεγχο τόσο στο DevOps όσο και στο την πλευρά των MLOps. Αφού το Terraform εγκατασταθεί σωστά και ενσωματωθεί στο AWS, μπορούμε να επαναλάβουμε τις περισσότερες λειτουργίες που μπορούν να γίνουν στους πίνακες εργαλείων της υπηρεσίας AWS.

Το παρακάτω διάγραμμα απεικονίζει την αρχιτεκτονική λύσεών μας.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η αρχιτεκτονική αποτελείται από τρία στάδια: απορρόφηση, εμπλουτισμός και δημοσίευση. Κατά τη διάρκεια του πρώτου σταδίου, οι τροφοδοσίες σε πραγματικό χρόνο προσλαμβάνονται σε ένα Amazon Elastic Compute Cloud Στιγμιότυπο (Amazon EC2) που δημιουργείται μέσω ενός AMI έτοιμου για βιβλιοθήκη δεδομένων Refinitiv. Το παράδειγμα συνδέεται επίσης με μια ροή δεδομένων μέσω Ροές δεδομένων Amazon Kinesis, που ενεργοποιεί ένα AWS Lambda λειτουργία.

Στο δεύτερο στάδιο, η συνάρτηση Lambda που ενεργοποιείται από το Kinesis Data Streams συνδέεται και στέλνει τους τίτλους ειδήσεων σε ένα SageMaker FinBERT τελικό σημείο, το οποίο επιστρέφει το υπολογιζόμενο συναίσθημα για την είδηση. Αυτό το υπολογισμένο συναίσθημα είναι ο εμπλουτισμός στα δεδομένα σε πραγματικό χρόνο με τα οποία η συνάρτηση Lambda στη συνέχεια αναδιπλώνει την είδηση ​​και αποθηκεύει σε Amazon DynamoDB πίνακα.

Στο τρίτο στάδιο της αρχιτεκτονικής, μια ροή DynamoDB ενεργοποιεί μια λειτουργία Lambda σε νέα ένθετα στοιχείων, η οποία είναι ενσωματωμένη με Διακομιστής Amazon MQ τρέχει το RabbitMQ, το οποίο επαναλαμβάνει τη ροή βελτιωμένης τεχνητής νοημοσύνης.

Η απόφαση για αυτόν τον μηχανικό σχεδιασμό τριών σταδίων, αντί για το πρώτο επίπεδο Lambda που επικοινωνεί απευθείας με τον διακομιστή Amazon MQ ή εφαρμόζει περισσότερη λειτουργικότητα στην περίπτωση EC2, ελήφθη για να επιτρέψει την εξερεύνηση πιο περίπλοκων, λιγότερο συνδεδεμένων αρχιτεκτονικών σχεδίασης AI στο μέλλον.

Κατασκευή και ανάπτυξη του πρωτοτύπου

Παρουσιάζουμε αυτό το πρωτότυπο σε μια σειρά από τρία λεπτομερή σχεδιαγράμματα. Σε κάθε σχεδιάγραμμα και για κάθε υπηρεσία που χρησιμοποιείται, θα βρείτε επισκοπήσεις και σχετικές πληροφορίες για τις τεχνικές υλοποιήσεις της, καθώς και σενάρια Terraform που σας επιτρέπουν να ξεκινήσετε αυτόματα, να διαμορφώσετε και να ενσωματώσετε την υπηρεσία με την υπόλοιπη δομή. Στο τέλος κάθε σχεδιαγράμματος, θα βρείτε οδηγίες για το πώς να βεβαιωθείτε ότι όλα λειτουργούν όπως αναμένεται σε κάθε στάδιο. Τα σχεδιαγράμματα είναι τα εξής:

Για να ξεκινήσετε την υλοποίηση αυτού του πρωτοτύπου, προτείνουμε να δημιουργήσετε ένα νέο περιβάλλον Python αφιερωμένο σε αυτό και να εγκαταστήσετε τα απαραίτητα πακέτα και εργαλεία ξεχωριστά από άλλα περιβάλλοντα που μπορεί να έχετε. Για να το κάνετε αυτό, δημιουργήστε και ενεργοποιήστε το νέο περιβάλλον στο Anaconda χρησιμοποιώντας τις ακόλουθες εντολές:

conda create —name rd_news_aws_terraform python=3.7
conda activate rd_news_aws_terraform

Τώρα είμαστε έτοιμοι να εγκαταστήσουμε το Διεπαφή γραμμής εντολών AWS Σύνολο εργαλείων (AWS CLI) που θα μας επιτρέψει να δημιουργήσουμε όλες τις απαραίτητες προγραμματικές αλληλεπιδράσεις μέσα και μεταξύ των υπηρεσιών AWS:

pip install awscli

Τώρα που έχει εγκατασταθεί το AWS CLI, πρέπει να εγκαταστήσουμε το Terraform. Η HashiCorp παρέχει στο Terraform ένα δυαδικό πρόγραμμα εγκατάστασης, το οποίο μπορείτε κατεβάσετε και να εγκαταστήσετε.

Αφού εγκαταστήσετε και τα δύο εργαλεία, βεβαιωθείτε ότι λειτουργούν σωστά χρησιμοποιώντας τις ακόλουθες εντολές:

terraform -help
AWS – version

Είστε πλέον έτοιμοι να ακολουθήσετε τα λεπτομερή σχεδιαγράμματα σε καθένα από τα τρία στάδια της υλοποίησης.

Αυτό το σχέδιο αντιπροσωπεύει τα αρχικά στάδια της αρχιτεκτονικής που μας επιτρέπουν να λαμβάνουμε τις ροές ειδήσεων σε πραγματικό χρόνο. Αποτελείται από τα ακόλουθα στοιχεία:

  • Το Amazon EC2 προετοιμάζει την παρουσία σας για την απορρόφηση RD News – Αυτή η ενότητα ρυθμίζει μια παρουσία EC2 με τρόπο που επιτρέπει τη σύνδεση με το RD Libraries API και τη ροή σε πραγματικό χρόνο. Δείχνουμε επίσης πώς να αποθηκεύσετε την εικόνα του στιγμιότυπου που δημιουργήθηκε για να εξασφαλίσετε την επαναχρησιμοποίηση και την επεκτασιμότητα του.
  • Απορρόφηση ειδήσεων σε πραγματικό χρόνο από το Amazon EC2 – Μια λεπτομερής υλοποίηση των διαμορφώσεων που απαιτούνται για να μπορέσει το Amazon EC2 να συνδέσει τις Βιβλιοθήκες RD καθώς και τα σενάρια για την έναρξη της απορρόφησης.
  • Δημιουργία και κυκλοφορία του Amazon EC2 από το AMI – Εκκινήστε μια νέα παρουσία μεταφέροντας ταυτόχρονα αρχεία απορρόφησης στο στιγμιότυπο που δημιουργήθηκε πρόσφατα, όλα αυτόματα χρησιμοποιώντας το Terraform.
  • Δημιουργία ροής δεδομένων Kinesis – Αυτή η ενότητα παρέχει μια επισκόπηση των ροών δεδομένων Kinesis και πώς να ρυθμίσετε μια ροή στο AWS.
  • Σύνδεση και προώθηση δεδομένων στο Kinesis – Μόλις ο κωδικός απορρόφησης λειτουργεί, πρέπει να τον συνδέσουμε και να στείλουμε δεδομένα σε μια ροή Kinesis.
  • Δοκιμάζοντας το πρωτότυπο μέχρι στιγμής - Χρησιμοποιούμε amazoncloudwatch και εργαλεία γραμμής εντολών για να επαληθεύσουμε ότι το πρωτότυπο λειτουργεί μέχρι αυτό το σημείο και ότι μπορούμε να συνεχίσουμε στο επόμενο σχέδιο. Το αρχείο καταγραφής των δεδομένων που λαμβάνονται θα πρέπει να μοιάζει με το παρακάτω στιγμιότυπο οθόνης.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Σε αυτό το δεύτερο σχέδιο, εστιάζουμε στο κύριο μέρος της αρχιτεκτονικής: τη λειτουργία Lambda που απορροφά και αναλύει τη ροή ειδήσεων, επισυνάπτει το συμπέρασμα AI σε αυτό και το αποθηκεύει για περαιτέρω χρήση. Περιλαμβάνει τα ακόλουθα στοιχεία:

  • Λάμδα – Καθορίστε μια διαμόρφωση Terraform Lambda που του επιτρέπει να συνδεθεί με ένα τελικό σημείο του SageMaker.
  • Amazon S3 – Για να εφαρμόσουμε το Lambda, πρέπει να ανεβάσουμε τον κατάλληλο κώδικα στο Απλή υπηρεσία αποθήκευσης Amazon (Amazon S3) και επιτρέψτε στη λειτουργία Lambda να το απορροφήσει στο περιβάλλον του. Αυτή η ενότητα περιγράφει πώς μπορούμε να χρησιμοποιήσουμε το Terraform για να το πετύχουμε αυτό.
  • Υλοποίηση της συνάρτησης Λάμδα: Βήμα 1, Χειρισμός του συμβάντος Kinesis – Σε αυτήν την ενότητα, ξεκινάμε τη δημιουργία της συνάρτησης Lambda. Εδώ, δημιουργούμε μόνο το τμήμα χειρισμού απόκρισης ροής δεδομένων Kinesis.
  • SageMaker – Σε αυτό το πρωτότυπο, χρησιμοποιούμε ένα προεκπαιδευμένο μοντέλο Hugging Face το οποίο αποθηκεύουμε σε ένα τελικό σημείο του SageMaker. Εδώ, παρουσιάζουμε πώς μπορεί να επιτευχθεί αυτό χρησιμοποιώντας σενάρια Terraform και πώς πραγματοποιούνται οι κατάλληλες ενσωματώσεις για να επιτραπεί η συνεργασία των τελικών σημείων του SageMaker και των συναρτήσεων Lambda.
    • Σε αυτό το σημείο, μπορείτε να χρησιμοποιήσετε οποιοδήποτε άλλο μοντέλο που έχετε αναπτύξει και αναπτύξει πίσω από ένα τελικό σημείο του SageMaker. Ένα τέτοιο μοντέλο θα μπορούσε να προσφέρει μια διαφορετική βελτίωση στα αρχικά δεδομένα ειδήσεων, με βάση τις ανάγκες σας. Προαιρετικά, αυτό μπορεί να επεκταθεί σε πολλά μοντέλα για πολλαπλές βελτιώσεις, εάν υπάρχουν. Χάρη στην υπόλοιπη αρχιτεκτονική, οποιαδήποτε τέτοια μοντέλα θα εμπλουτίσουν τις πηγές δεδομένων σας σε πραγματικό χρόνο.
  • Δημιουργία της συνάρτησης Lambda: Βήμα 2, Επίκληση του τελικού σημείου SageMaker – Σε αυτήν την ενότητα, δημιουργούμε την αρχική μας συνάρτηση Lambda προσθέτοντας το μπλοκ SageMaker για να λάβουμε έναν τίτλο ειδήσεων με ενισχυμένο συναίσθημα, επικαλούμενοι το τελικό σημείο του SageMaker.
  • DynamoDB – Τέλος, όταν το συμπέρασμα AI βρίσκεται στη μνήμη της συνάρτησης Lambda, ομαδοποιεί ξανά το στοιχείο και το στέλνει σε έναν πίνακα DynamoDB για αποθήκευση. Εδώ, συζητάμε τόσο τον κατάλληλο κώδικα Python που απαιτείται για να επιτευχθεί αυτό, όσο και τα απαραίτητα σενάρια Terraform που επιτρέπουν αυτές τις αλληλεπιδράσεις.
  • Δημιουργία της συνάρτησης Lambda: Βήμα 3, ώθηση βελτιωμένων δεδομένων στο DynamoDB – Εδώ, συνεχίζουμε τη δημιουργία της συνάρτησης Lambda προσθέτοντας το τελευταίο μέρος που δημιουργεί μια καταχώρηση στον πίνακα Dynamo.
  • Δοκιμάζοντας το πρωτότυπο μέχρι στιγμής – Μπορούμε να πλοηγηθούμε στον πίνακα DynamoDB στην κονσόλα DynamoDB για να επαληθεύσουμε ότι οι βελτιώσεις μας εμφανίζονται στον πίνακα.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Αυτό το τρίτο Blueprint ολοκληρώνει αυτό το πρωτότυπο. Επικεντρώνεται στην αναδιανομή του νεοδημιουργηθέντος στοιχείου δεδομένων βελτιωμένης τεχνητής νοημοσύνης σε έναν διακομιστή RabbitMQ στο Amazon MQ, επιτρέποντας στους καταναλωτές να συνδεθούν και να ανακτήσουν τις βελτιωμένες ειδήσεις σε πραγματικό χρόνο. Περιλαμβάνει τα ακόλουθα στοιχεία:

  • Ροές DynamoDB – Όταν η βελτιωμένη είδηση ​​βρίσκεται στο DynamoDB, ρυθμίζουμε ένα συμβάν που ενεργοποιείται και στη συνέχεια μπορεί να καταγραφεί από την κατάλληλη συνάρτηση Lambda.
  • Γράφοντας ο παραγωγός Λάμδα – Αυτή η συνάρτηση Lambda καταγράφει το συμβάν και λειτουργεί ως παραγωγός της ροής RabbitMQ. Αυτή η νέα συνάρτηση εισάγει την έννοια των επιπέδων Lambda καθώς χρησιμοποιεί βιβλιοθήκες Python για την υλοποίηση της λειτουργικότητας του παραγωγού.
  • Καταναλωτές Amazon MQ και RabbitMQ – Το τελευταίο βήμα του πρωτοτύπου είναι η εγκατάσταση της υπηρεσίας RabbitMQ και η εφαρμογή ενός παραδείγματος καταναλωτή που θα συνδεθεί με τη ροή μηνυμάτων και θα λάβει τα ειδήσεις με βελτιωμένη τεχνητή νοημοσύνη.
  • Τελική δοκιμή του πρωτοτύπου – Χρησιμοποιούμε μια διαδικασία από άκρο σε άκρο για να επαληθεύσουμε ότι το πρωτότυπο λειτουργεί πλήρως, από την κατάποση έως την εκ νέου εξυπηρέτηση και κατανάλωση της νέας ροής με βελτιωμένη τεχνητή νοημοσύνη.

Σε αυτό το στάδιο, μπορείτε να επιβεβαιώσετε ότι όλα λειτουργούσαν μεταβαίνοντας στον πίνακα εργαλείων RabbitMQ, όπως φαίνεται στο παρακάτω στιγμιότυπο οθόνης.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Στο τελικό σχέδιο, βρίσκετε επίσης ένα λεπτομερές διάνυσμα δοκιμής για να βεβαιωθείτε ότι ολόκληρη η αρχιτεκτονική συμπεριφέρεται όπως έχει προγραμματιστεί.

Συμπέρασμα

Σε αυτήν την ανάρτηση, μοιραστήκαμε μια λύση που χρησιμοποιεί ML στο cloud με υπηρεσίες AWS όπως το SageMaker (ML), το Lambda (χωρίς διακομιστή) και το Kinesis Data Streams (streaming) για να εμπλουτίσουμε τα δεδομένα ροής ειδήσεων που παρέχονται από τη Refinitiv Data Libraries. Η λύση προσθέτει μια βαθμολογία συναισθήματος σε ειδήσεις σε πραγματικό χρόνο και κλιμακώνει την υποδομή χρησιμοποιώντας κώδικα.

Το πλεονέκτημα αυτής της αρθρωτής αρχιτεκτονικής είναι ότι μπορείτε να την επαναχρησιμοποιήσετε με το δικό σας μοντέλο για να εκτελέσετε άλλους τύπους αύξησης δεδομένων, με τρόπο χωρίς διακομιστή, επεκτάσιμο και οικονομικά αποδοτικό που μπορεί να εφαρμοστεί πάνω από τη βιβλιοθήκη δεδομένων Refinitiv. Αυτό μπορεί να προσθέσει αξία για τις ροές εργασιών συναλλαγών/επενδύσεων/διαχείρισης κινδύνου.

Αν έχετε σχόλια ή ερωτήσεις, αφήστε τα στην ενότητα σχολίων.

Σχετικές πληροφορίες


 Σχετικά με τους Συγγραφείς

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Μάριος Σκευοφύλακας προέρχεται από ένα υπόβαθρο χρηματοοικονομικών υπηρεσιών, επενδυτικής τραπεζικής και συμβουλευτικής τεχνολογίας. Είναι κάτοχος Ph.D μηχανικού. στην Τεχνητή Νοημοσύνη και M.Sc. στο Machine Vision. Κατά τη διάρκεια της καριέρας του, έχει συμμετάσχει σε πολυάριθμα πολυεπιστημονικά έργα AI και DLT. Αυτή τη στιγμή είναι Υπεύθυνος Προγραμματιστή με τη Refinitiv, μια επιχείρηση LSEG, που εστιάζει σε εφαρμογές AI και Quantum στις χρηματοοικονομικές υπηρεσίες.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Τζέισον Ραμτσαντάνι έχει εργαστεί στη Refinitiv, μια επιχείρηση LSEG, για 8 χρόνια ως Υπεύθυνος Υπεύθυνος Προγραμματιστή, βοηθώντας στη δημιουργία της Κοινότητας προγραμματιστών τους. Προηγουμένως έχει εργαστεί σε χρηματοπιστωτικές αγορές για περισσότερα από 15 χρόνια με ένα ποιοτικό υπόβαθρο στον χώρο που συνδέεται με μετοχές/μετοχικούς τίτλους στις Okasan Securities, Sakura Finance και Jefferies LLC. Το Alma Mater του είναι UCL.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Haykaz Aramyan προέρχεται από οικονομικό και τεχνολογικό υπόβαθρο. Είναι κάτοχος Ph.D. στα Χρηματοοικονομικά, και M.Sc. στα Οικονομικά, Τεχνολογία και Πολιτική. Μέσα από 10 χρόνια επαγγελματικής εμπειρίας, ο Haykaz εργάστηκε σε πολλά διεπιστημονικά έργα που αφορούσαν συνταξιοδοτικά, VC funds και startups τεχνολογίας. Αυτήν τη στιγμή είναι Υπεύθυνος Προγραμματιστή με την Refinitiv, An LSEG Business, που εστιάζει σε εφαρμογές τεχνητής νοημοσύνης στις χρηματοοικονομικές υπηρεσίες.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Γεώργιος Σχινάς είναι Senior Specialist Solutions Architect για AI/ML στην περιοχή EMEA. Έχει έδρα στο Λονδίνο και συνεργάζεται στενά με πελάτες στο Ηνωμένο Βασίλειο και την Ιρλανδία. Ο Georgios βοηθά τους πελάτες να σχεδιάσουν και να αναπτύξουν εφαρμογές μηχανικής εκμάθησης στην παραγωγή σε AWS με ιδιαίτερο ενδιαφέρον για τις πρακτικές MLOps και δίνοντας τη δυνατότητα στους πελάτες να εκτελούν μηχανική εκμάθηση σε κλίμακα. Στον ελεύθερο χρόνο του, του αρέσει να ταξιδεύει, να μαγειρεύει και να περνά χρόνο με φίλους και οικογένεια.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Muthuvelan Swaminathan είναι αρχιτέκτονας Enterprise Solutions με έδρα τη Νέα Υόρκη. Συνεργάζεται με εταιρικούς πελάτες παρέχοντας αρχιτεκτονική καθοδήγηση για την κατασκευή ανθεκτικών, οικονομικά αποδοτικών, καινοτόμων λύσεων που καλύπτουν τις επιχειρηματικές τους ανάγκες και τους βοηθούν να εκτελούν σε κλίμακα χρησιμοποιώντας προϊόντα και υπηρεσίες AWS.

Εμπλουτισμός ροών ειδήσεων σε πραγματικό χρόνο με τη βιβλιοθήκη δεδομένων Refinitiv, τις υπηρεσίες AWS και το Amazon SageMaker PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Mayur Udernani ηγείται των επιχειρήσεων AWS AI & ML με εμπορικές επιχειρήσεις στο Ηνωμένο Βασίλειο και την Ιρλανδία. Στο ρόλο του, ο Mayur ξοδεύει το μεγαλύτερο μέρος του χρόνου του με πελάτες και συνεργάτες για να βοηθήσει στη δημιουργία αποτελεσματικών λύσεων που λύνουν τις πιο πιεστικές ανάγκες ενός πελάτη ή για μια ευρύτερη βιομηχανία που αξιοποιεί τις υπηρεσίες AWS Cloud, AI & ML. Ο Mayur ζει στην περιοχή του Λονδίνου. Έχει πτυχίο MBA από το Indian Institute of Management και πτυχίο Μηχανικού Υπολογιστών από το Πανεπιστήμιο της Βομβάης.

Σφραγίδα ώρας:

Περισσότερα από Μηχανική εκμάθηση AWS