Behandle pantdokumenter med intelligent dokumentbehandling ved hjælp af Amazon Textract og Amazon Comprehend PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Behandl pantdokumenter med intelligent dokumentbehandling ved hjælp af Amazon Textract og Amazon Comprehend

Organisationer i udlåns- og realkreditbranchen behandler tusindvis af dokumenter på daglig basis. Fra en ny realkreditansøgning til refinansiering af realkreditlån involverer disse forretningsprocesser hundredvis af dokumenter pr. ansøgning. Der er begrænset automatisering tilgængelig i dag til at behandle og udtrække information fra alle dokumenter, især på grund af varierende formater og layout. På grund af den store mængde applikationer er det en tidskrævende, meget manuel, fejludsat og dyr proces at fange strategisk indsigt og få nøgleinformation fra indholdet. Ældre værktøjer til optisk tegngenkendelse (OCR) er omkostningsoverkommelige, fejltilbøjelige, involverer en masse konfiguration og er svære at skalere. Intelligent dokumentbehandling (IDP) med AWS kunstig intelligens (AI)-tjenester hjælper med at automatisere og accelerere behandlingen af ​​realkreditansøgninger med mål om hurtigere og kvalitetsbeslutninger, samtidig med at de samlede omkostninger reduceres.

I dette indlæg demonstrerer vi, hvordan du kan bruge maskinlæringsfunktioner (ML) med amazontekstog Amazon Comprehend at behandle dokumenter i en ny realkreditansøgning, uden behov for ML-kundskaber. Vi udforsker de forskellige faser af IDP som vist i den følgende figur, og hvordan de forbindes med de trin, der er involveret i en realkreditansøgningsproces, såsom ansøgningsindsendelse, underwriting, verifikation og lukning.

Selvom hver realkreditansøgning kan være unik, har vi taget nogle af de mest almindelige dokumenter i betragtning, som er inkluderet i en realkreditansøgning, såsom Unified Residential Loan Application (URLA-1003)-formularen, 1099-formularer og pantnota.

Løsningsoversigt

Amazon Textract er en ML-tjeneste, der automatisk udtrækker tekst, håndskrift og data fra scannede dokumenter ved hjælp af forudtrænede ML-modeller. Amazon Comprehend er en NLP-tjeneste (natural-language processing), der bruger ML til at afdække værdifuld indsigt og forbindelser i tekst og kan udføre dokumentklassificering, navnenhedsgenkendelse (NER), emnemodellering og mere.

Følgende figur viser faserne af IDP, som det relaterer til faserne af en realkreditansøgningsproces.

Billedet viser en løsningsarkitektur på højt niveau for faserne af intelligent dokumentbehandling (IDP), som den relaterer til faserne af en realkreditansøgning.

Ved starten af ​​processen uploades dokumenter til en Amazon Simple Storage Service (Amazon S3) spand. Dette igangsætter en dokumentklassificeringsproces for at kategorisere dokumenterne i kendte kategorier. Efter at dokumenterne er kategoriseret, er næste trin at udtrække nøgleoplysninger fra dem. Vi udfører derefter berigelse for udvalgte dokumenter, som kan være ting som redaktion af personlig identificerbar information (PII), dokumenttagging, metadataopdateringer og mere. Det næste trin involverer validering af de data, der er udtrukket i tidligere faser, for at sikre fuldstændigheden af ​​en realkreditansøgning. Validering kan udføres via forretningsvalideringsregler og regler for krydsdokumentvalidering. Tillidsscorerne for den udtrukne information kan også sammenlignes med en fastsat tærskel og automatisk sendes til en menneskelig anmelder gennem Amazon Augmented AI (Amazon A2I), hvis tærsklen ikke er opfyldt. I den sidste fase af processen sendes de udtrukne og validerede data til downstream-systemer til yderligere lagring, behandling eller dataanalyse.

I de følgende afsnit diskuterer vi faserne af IDP, som det relaterer til faserne af en realkreditansøgning i detaljer. Vi går gennem faserne af IDP og diskuterer typerne af dokumenter; hvordan vi opbevarer, klassificerer og udtrækker information, og hvordan vi beriger dokumenterne ved hjælp af maskinlæring.

Dokumentlagring

Amazon S3 er en objektlagringstjeneste, der tilbyder brancheførende skalerbarhed, datatilgængelighed, sikkerhed og ydeevne. Vi bruger Amazon S3 til sikker opbevaring af realkreditdokumenterne under og efter realkreditansøgningsprocessen. EN pantansøgningspakke kan indeholde flere typer formularer og dokumenter, såsom URLA-1003, 1099-INT/DIV/RR/MISC, W2, lønsedler, kontoudtog, kreditkortudtog og mere. Disse dokumenter indsendes af ansøger i realkreditansøgningsfasen. Uden manuelt at gennemse dem, er det måske ikke umiddelbart klart, hvilke dokumenter der er inkluderet i pakken. Denne manuelle proces kan være tidskrævende og dyr. I næste fase automatiserer vi denne proces ved hjælp af Amazon Comprehend til at klassificere dokumenterne i deres respektive kategorier med høj nøjagtighed.

Dokumentklassificering

Dokumentklassificering er en metode, hvorved et stort antal uidentificerede dokumenter kan kategoriseres og mærkes. Vi udfører denne dokumentklassificering ved hjælp af en Amazon Comprehend brugerdefineret klassificering. En brugerdefineret klassificering er en ML-model, der kan trænes med et sæt mærkede dokumenter for at genkende de klasser, der er af interesse for dig. Efter at modellen er trænet og implementeret bag et hostet slutpunkt, kan vi bruge klassificeringen til at bestemme den kategori (eller klasse) et bestemt dokument tilhører. I dette tilfælde træner vi en brugerdefineret klassificering i multi-klasse tilstand, hvilket kan gøres enten med en CSV-fil eller en udvidet manifestfil. Til formålet med denne demonstration bruger vi en CSV-fil til at træne klassificereren. Se vores GitHub repository for den fulde kodeeksempel. Følgende er en oversigt på højt niveau over de involverede trin:

  1. Udpak UTF-8-kodet almindelig tekst fra billed- eller PDF-filer ved hjælp af Amazon Textract DetectDocumentText API.
  2. Forbered træningsdata for at træne en brugerdefineret klassificering i CSV-format.
  3. Træn en brugerdefineret klassificering ved hjælp af CSV-filen.
  4. Implementer den trænede model med et slutpunkt til real-time dokumentklassificering eller brug multi-class mode, som understøtter både real-time og asynkrone operationer.

Følgende diagram illustrerer denne proces.

Billedet viser Amazon Comprehend tilpasset klassificeringstræningsproces og dokumentklassificering ved hjælp af den trænede og implementerede klassificeringsmodel (realtid eller batch).

Du kan automatisere dokumentklassificering ved hjælp af det implementerede slutpunkt til at identificere og kategorisere dokumenter. Denne automatisering er nyttig til at kontrollere, om alle de nødvendige dokumenter er til stede i en pantepakke. Et manglende dokument kan hurtigt identificeres uden manuel indgriben og meddeles ansøgeren meget tidligere i processen.

Dokumentudtræk

I denne fase udtrækker vi data fra dokumentet ved hjælp af Amazon Textract og Amazon Comprehend. Til strukturerede og semistrukturerede dokumenter, der indeholder formularer og tabeller, bruger vi Amazon Textract AnalyserDokument API. For specialiserede dokumenter, såsom ID-dokumenter, leverer Amazon Textract AnalyseID API. Nogle dokumenter kan også indeholde tæt tekst, og du skal muligvis udtrække forretningsspecifikke nøgleudtryk fra dem, også kendt som enheder. Vi bruger tilpasset enhedsgenkendelse Amazon Comprehends evne til at træne en brugerdefineret enhedsgenkendelse, som kan identificere sådanne enheder ud fra den tætte tekst.

I de følgende afsnit gennemgår vi de eksempler på dokumenter, der er til stede i en låneansøgningspakke, og diskuterer de metoder, der bruges til at udtrække information fra dem. For hvert af disse eksempler er der inkluderet et kodestykke og et kort eksempeloutput.

Udtræk data fra Unified Residential Loan Application URLA-1003

En Unified Residential Loan Application (URLA-1003) er en branchestandard ansøgningsformular til realkreditlån. Det er et ret komplekst dokument, der indeholder oplysninger om pantansøgeren, typen af ​​bolig, der købes, beløbet, der finansieres, og andre detaljer om boligkøbets karakter. Det følgende er et eksempel på URLA-1003, og vores hensigt er at udtrække information fra dette strukturerede dokument. Fordi dette er en formular, bruger vi AnalyzeDocument API med en funktionstype på FORM.

Billedet viser et eksempel på en Unified Residential Loan Application URLA-1003-formular

Funktionstypen FORM udtrækker formularoplysninger fra dokumentet, som derefter returneres i nøgleværdi-parformat. Følgende kodestykke bruger amazon-textract-textractor Python-bibliotek til at udtrække formularinformation med blot et par linjer kode. Bekvemmelighedsmetoden call_textract() kalder AnalyzeDocument API internt, og de parametre, der sendes til metoden, abstraherer nogle af de konfigurationer, som API'en har brug for for at køre ekstraktionsopgaven. Document er en bekvemmelighedsmetode, der bruges til at hjælpe med at analysere JSON-svaret fra API'en. Det giver en abstraktion på højt niveau og gør API-outputtet iterabelt og nemt at få information ud af. For mere information, se Textract Response Parser , Teksttraktor.

from textractcaller.t_call import call_textract, Textract_Features
from trp import Document

response_urla_1003 = call_textract(input_document='s3://<your-bucket>/URLA-1003.pdf', 
                                   features=[Textract_Features.FORMS])
doc_urla_1003 = Document(response_urla_1003)
for page in doc_urla_1003.pages:
    forms=[]
    for field in page.form.fields:
        obj={}
        obj[f'{field.key}']=f'{field.value}'
        forms.append(obj)
print(json.dumps(forms, indent=4))

Bemærk, at outputtet indeholder værdier for afkrydsningsfelter eller alternativknapper, der findes i formularen. For eksempel, i eksempel-URLA-1003-dokumentet Køb indstilling blev valgt. Den tilsvarende udgang for alternativknappen udtrækkes som "Purchase" (tast) og "SELECTED” (værdi), hvilket indikerer, at alternativknappen er valgt.

[
    { "No. of Units": "1" },
    { "Amount": "$ 450,000.00" },
    { "Year Built": "2010" },
    { "Purchase": "SELECTED" },
    { "Title will be held in what Name(s)": "Alejandro Rosalez" },
    { "Fixed Rate": "SELECTED" },
    ...
]

Udtræk data fra 1099 formularer

En pantansøgningspakke kan også indeholde en række IRS-dokumenter, såsom 1099-DIV, 1099-INT, 1099-MISC og 1099-R. Disse dokumenter viser ansøgerens indtjening via renter, udbytter og andre forskellige indkomstkomponenter, der er nyttige under tegning til at træffe beslutninger. Følgende billede viser en samling af disse dokumenter, som har ens struktur. I nogle tilfælde indeholder dokumenterne dog formularoplysninger (markeret med de røde og grønne afgrænsningsfelter) samt tabeloplysninger (markeret med de gule afgrænsningsfelter).

Billedet viser eksempler på 1099 INT-, DIV-, MISC- og R-former.

For at udtrække formularoplysninger bruger vi lignende kode som forklaret tidligere med AnalyzeDocument API. Vi passerer en ekstra funktion af TABEL til API'et for at indikere, at vi har brug for både formular- og tabeldata udtrukket fra dokumentet. Følgende kodestykke bruger AnalyzeDocument API med FORMS- og TABLES-funktioner på 1099-INT-dokumentet:

from textractcaller.t_call import call_textract, Textract_Features
from trp import Document
response_1099_int = call_textract(input_document='s3://<your-bucket>/1099-INT-2018.pdf',
                                  features=[Textract_Features.TABLES, 
                                            Textract_Features.FORMS])
doc_1099_int = Document(response_1099_int)
num_tables=1
for page in doc_1099_int.pages:     
    for table in page.tables:
        num_tables=num_tables+1
        for r, row in enumerate(table.rows):
            for c, cell in enumerate(row.cells):
                print(f"Cell[{r}][{c}] = {cell.text}")
        print('n')

Fordi dokumentet indeholder en enkelt tabel, er outputtet af koden som følger:

Table 1
-------------------
Cell[0][0] = 15 State 
Cell[0][1] = 16 State identification no. 
Cell[0][2] = 17 State tax withheld 
Cell[1][0] = 
Cell[1][1] = 34564 
Cell[1][2] = $ 2000 
Cell[2][0] = 
Cell[2][1] = 23543 
Cell[2][2] = $ 1000

Tabeloplysningerne indeholder cellepositionen (række 0, kolonne 0, og så videre) og den tilsvarende tekst i hver celle. Vi bruger en bekvemmelighedsmetode, der kan transformere disse tabeldata til en letlæselig gittervisning:

from textractprettyprinter.t_pretty_print import Textract_Pretty_Print, get_string, Pretty_Print_Table_Format
print(get_string(textract_json=response_1099_int, 
                 table_format=Pretty_Print_Table_Format.grid, 
                 output_type=[Textract_Pretty_Print.TABLES]))

Vi får følgende output:

+----------+-----------------------------+-----------------------+
| 15 State | 16 State identification no. | 17 State tax withheld |
+----------+-----------------------------+-----------------------+
|          | 34564                       | $ 2000                |
+----------+-----------------------------+-----------------------+
|          | 23543                       | $ 1000                |
+----------+-----------------------------+-----------------------+

For at få outputtet i et CSV-format, der er nemt at forbruge, skal formattypen på Pretty_Print_Table_Format.csv kan overføres til table_format parameter. Andre formater såsom TSV (tabulatorseparerede værdier), HTML og Latex understøttes også. For mere information, se Textract-PrettyPrinter.

Udtræk data fra et pantebrev

En pantansøgningspakke kan indeholde ustrukturerede dokumenter med tæt tekst. Nogle eksempler på tætte tekstdokumenter er kontrakter og aftaler. Et pantebrev er en aftale mellem en realkreditansøger og långiver eller realkreditselskab, og indeholder oplysninger i tætte tekstafsnit. I sådanne tilfælde gør den manglende struktur det vanskeligt at finde vigtige forretningsoplysninger, der er vigtige i realkreditansøgningsprocessen. Der er to tilgange til at løse dette problem:

I det følgende eksempel på pantebrevet er vi specifikt interesseret i at finde ud af det månedlige betalingsbeløb og hovedstolen.

Billedet viser et eksempel på et pantebrevsdokument.

Til den første tilgang bruger vi Query , QueriesConfig bekvemmelighedsmetoder til at konfigurere et sæt spørgsmål, der sendes til Amazon Textract AnalyzeDocument API-kald. Hvis dokumentet er på flere sider (PDF eller TIFF), kan vi også angive sidetallene, hvor Amazon Textract skal lede efter svar på spørgsmålet. Følgende kodestykke viser, hvordan du opretter forespørgselskonfigurationen, foretager et API-kald og efterfølgende analyserer svaret for at få svarene fra svaret:

from textractcaller import QueriesConfig, Query
import trp.trp2 as t2

#Setup the queries
query2 = Query(text="What is the principal amount borrower has to pay?", alias="PRINCIPAL_AMOUNT", pages=["1"])
query4 = Query(text="What is the monthly payment amount?", alias="MONTHLY_AMOUNT", pages=["1"])

#Setup the query config with the above queries
queries_config = QueriesConfig(queries=[query1, query2, query3, query4])
#Call AnalyzeDocument with the queries_config
response_mortgage_note = call_textract(input_document='s3://<your-bucket>/Mortgage-Note.pdf',
                                       features=[Textract_Features.QUERIES],
                                       queries_config=queries_config)
doc_mortgage_note: t2.TDocumentSchema = t2.TDocumentSchema().load(response_mortgage_note) 

entities = {}
for page in doc_mortgage_note.pages:
    query_answers = doc_mortgage_note.get_query_answers(page=page)
    if query_answers:
        for answer in query_answers:
            entities[answer[1]] = answer[2]
print(entities)

Vi får følgende output:

{
    'PRINCIPAL_AMOUNT': '$ 555,000.00',
    'MONTHLY_AMOUNT': '$2,721.23',
}

Til den anden tilgang bruger vi Amazon Comprehend DetectEntities API med pantsedlen, som returnerer de enheder, den registrerer i teksten fra en foruddefinerede sæt af enheder. Dette er enheder, som Amazon Comprehend-entity-genkenderen er foruddannet med. Men fordi vores krav er at detektere specifikke enheder, trænes en Amazon Comprehend brugerdefineret enhedsgenkender med et sæt eksempler på pantebrevsdokumenter og en liste over enheder. Vi definerer enhedsnavnene som PRINCIPAL_AMOUNT , MONTHLY_AMOUNT. Træningsdata udarbejdes efter Amazon Comprehend-uddannelsen retningslinjer for udarbejdelse af data til tilpasset enhedsgenkendelse. Enhedsgenkenderen kan trænes med dokumentanmærkninger eller med enhedslister. Til formålet med dette eksempel bruger vi entitetslister til at træne modellen. Efter at vi har trænet modellen, kan vi implementere den med en slutpunkt i realtid eller i batchvis for at detektere de to enheder fra dokumentindholdet. Følgende er de involverede trin for at træne en brugerdefineret enhedsgenkender og implementere den. For en fuld kodegennemgang, se vores GitHub-lager.

  1. Forbered træningsdataene (enhedslisten og dokumenterne med (UTF-8-kodet) almindeligt tekstformat).
  2. Start enhedsgenkendelsesuddannelsen ved hjælp af CreateEntityRecognizer API ved hjælp af træningsdata.
  3. Implementer den trænede model med et slutpunkt i realtid ved hjælp af Opret slutpunkt API.

Udtræk data fra et amerikansk pas

Amazon Textract analysere identitetspapirer kapacitet kan opdage og udtrække information fra USA-baserede ID-dokumenter såsom et kørekort og pas. Det AnalyzeID API er i stand til at detektere og fortolke underforståede felter i ID-dokumenter, hvilket gør det nemt at udtrække specifik information fra dokumentet. Identitetsdokumenter er næsten altid en del af en låneansøgningspakke, fordi det bruges til at verificere låntagerens identitet under tegningsprocessen og til at validere rigtigheden af ​​låntagerens biografiske data.

Billedet viser et eksempel på et amerikansk pas

Vi bruger en bekvemmelighedsmetode ved navn call_textract_analyzeid, som kalder AnalyzeID API internt. Vi gentager derefter svaret for at få de detekterede nøgleværdi-par fra ID-dokumentet. Se følgende kode:

from textractcaller import call_textract_analyzeid
import trp.trp2_analyzeid as t2id

response_passport = call_textract_analyzeid(document_pages=['s3://<your-bucket>/Passport.pdf'])
doc_passport: t2id.TAnalyzeIdDocument = t2id.TAnalyzeIdDocumentSchema().load(response_passport)

for id_docs in response_passport['IdentityDocuments']:
    id_doc_kvs={}
    for field in id_docs['IdentityDocumentFields']:
        if field['ValueDetection']['Text']:
            id_doc_kvs[field['Type']['Text']] = field['ValueDetection']['Text']
print(id_doc_kvs)

AnalyzeID returnerer information i en struktur kaldet IdentityDocumentFields, som indeholder de normaliserede nøgler og deres tilsvarende værdi. For eksempel i følgende output, FIRST_NAME er en normaliseret nøgle, og værdien er ALEJANDRO. I eksemplet med pasbilledet er feltet for fornavnet mærket som "Fornavne / Prénoms / Nombre", dog AnalyzeID var i stand til at normalisere det til nøglenavnet FIRST_NAME. Se en liste over understøttede normaliserede felter Identitetsdokumentation Svarobjekter.

{
    'FIRST_NAME': 'ALEJANDRO',
    'LAST_NAME': 'ROSALEZ',
    'DOCUMENT_NUMBER': '918268822',
    'EXPIRATION_DATE': '31 JAN 2029',
    'DATE_OF_BIRTH': '15 APR 1990',
    'DATE_OF_ISSUE': '29 JAN 2009',
    'ID_TYPE': 'PASSPORT',
    'ENDORSEMENTS': 'SEE PAGE 27',
    'PLACE_OF_BIRTH': 'TEXAS U.S.A.'
}

En pantepakke kan indeholde flere andre dokumenter, såsom en lønseddel, W2-formular, kontoudtog, kreditkortudtog og ansættelsesbekræftelsesbrev. Vi har eksempler på hvert af disse dokumenter sammen med den nødvendige kode for at udtrække data fra dem. For den komplette kodebase, tjek notesbøgerne i vores GitHub repository.

Dokument berigelse

En af de mest almindelige former for dokumentberigelse er redaktion af følsomme eller fortrolige oplysninger på dokumenter, som kan være påbudt på grund af love eller regler om privatlivets fred. For eksempel kan en låneansøgers lønseddel indeholde følsomme PII-data, såsom navn, adresse og SSN, der muligvis skal redigeres for udvidet opbevaring.

I det foregående prøveudbetalingsdokument udfører vi redaktion af PII-data såsom SSN, navn, bankkontonummer og datoer. For at identificere PII-data i et dokument bruger vi Amazon Comprehend PII-detektion kapacitet via DetectPIIEntities API. Denne API inspicerer indholdet af dokumentet for at identificere tilstedeværelsen af ​​PII-oplysninger. Fordi denne API kræver input i UTF-8-kodet almindeligt tekstformat, udtrækker vi først teksten fra dokumentet ved hjælp af Amazon Textract DetectDocumentText API, som returnerer teksten fra dokumentet og også returnerer geometriinformation såsom afgrænsningsrammens dimensioner og koordinater. En kombination af begge output bruges derefter til at tegne redaktioner på dokumentet som en del af berigelsesprocessen.

Gennemgå, valider og integrer data

Udtrukne data fra dokumentudtrækningsfasen kan have behov for validering i forhold til specifikke forretningsregler. Specifikke oplysninger kan også valideres på tværs af flere dokumenter, også kendt som cross-doc validering. Et eksempel på cross-doc validering kunne være at sammenligne ansøgers navn i ID-dokumentet med navnet i realkreditansøgningsdokumentet. Du kan også foretage andre valideringer såsom ejendomsværdivurderinger og betingede tegningsbeslutninger i denne fase.

En tredje type validering er relateret til konfidensscore for de udtrukne data i dokumentudtrækningsfasen. Amazon Textract og Amazon Comprehend returnerer en tillidsscore for formularer, tabeller, tekstdata og registrerede enheder. Du kan konfigurere en konfidensscoretærskel for at sikre, at kun korrekte værdier sendes nedstrøms. Dette opnås via Amazon A2I, som sammenligner konfidensscorerne for detekterede data med en foruddefineret konfidensgrænse. Hvis tærsklen ikke er opfyldt, sendes dokumentet og det udtrukne output til et menneske til gennemsyn gennem en intuitiv brugergrænseflade. Granskeren foretager korrigerende handlinger på dataene og gemmer dem til videre behandling. For mere information, se Kernekoncepter for Amazon A2I.

Konklusion

I dette indlæg diskuterede vi faserne af intelligent dokumentbehandling, som det vedrører faser af en realkreditansøgning. Vi har set på et par almindelige eksempler på dokumenter, der kan findes i en pantansøgningspakke. Vi diskuterede også måder at udtrække og behandle struktureret, semistruktureret og ustruktureret indhold fra disse dokumenter. IDP giver en måde at automatisere ende-til-ende realkreditdokumentbehandling, der kan skaleres til millioner af dokumenter, hvilket forbedrer kvaliteten af ​​ansøgningsbeslutninger, reducerer omkostningerne og betjener kunderne hurtigere.

Som et næste trin kan du prøve kodeeksemplerne og notesbøgerne i vores GitHub repository. For at lære mere om, hvordan IDP kan hjælpe din dokumentbehandlingsarbejdsbelastning, besøg Automatiser databehandling fra dokumenter.


Om forfatterne

Behandle pantdokumenter med intelligent dokumentbehandling ved hjælp af Amazon Textract og Amazon Comprehend PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Anjan Biswas er Senior AI Services Solutions Architect med fokus på AI/ML og Data Analytics. Anjan er en del af det verdensomspændende AI-serviceteam og arbejder med kunder for at hjælpe dem med at forstå og udvikle løsninger på forretningsproblemer med AI og ML. Anjan har over 14 års erfaring med at arbejde med globale forsyningskæder, fremstillings- og detailorganisationer og hjælper aktivt kunder med at komme i gang og skalere på AWS AI-tjenester.

Behandle pantdokumenter med intelligent dokumentbehandling ved hjælp af Amazon Textract og Amazon Comprehend PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Dwiti Pathak er en Senior Technical Account Manager baseret i San Diego. Hun er fokuseret på at hjælpe halvlederindustrien med at engagere sig i AWS. I sin fritid kan hun godt lide at læse om nye teknologier og spille brætspil.

Behandle pantdokumenter med intelligent dokumentbehandling ved hjælp af Amazon Textract og Amazon Comprehend PlatoBlockchain Data Intelligence. Lodret søgning. Ai.Balaji Puli er en løsningsarkitekt baseret i Bay Area, CA. Hjælper i øjeblikket udvalgte sundhedsvidenskabelige kunder i det nordvestlige USA med at accelerere deres AWS-cloudoptagelse. Balaji nyder at rejse og elsker at udforske forskellige køkkener.

Tidsstempel:

Mere fra AWS maskinindlæring