Amazonas berggrund tillhandahåller ett brett utbud av modeller från Amazon och tredjepartsleverantörer, inklusive Anthropic, AI21, Meta, Cohere och Stability AI, och täcker ett brett utbud av användningsfall, inklusive text- och bildgenerering, inbäddning, chatt, agenter på hög nivå med resonemang och orkestrering med mera. Kunskapsbaser för Amazon Bedrock låter dig bygga prestanda och anpassade Retrieval Augmented Generation (RAG)-applikationer ovanpå AWS och tredjeparts vektorbutiker med både AWS och tredjepartsmodeller. Kunskapsbaser för Amazon Bedrock automatiserar synkroniseringen av dina data med din vektorbutik, inklusive skillnad av data när den uppdateras, dokumentladdning och chunking, såväl som semantisk inbäddning. Det låter dig sömlöst anpassa dina RAG-uppmaningar och hämtningsstrategier – vi tillhandahåller källattributionen och vi hanterar minneshantering automatiskt. Knowledge Bases är helt serverlöst, så du behöver inte hantera någon infrastruktur, och när du använder Knowledge Bases debiteras du bara för de modeller, vektordatabaser och lagring du använder.
RAG är en populär teknik som kombinerar användningen av privata data med stora språkmodeller (LLM). RAG börjar med ett första steg för att hämta relevanta dokument från ett datalager (oftast ett vektorindex) baserat på användarens fråga. Den använder sedan en språkmodell för att generera ett svar genom att beakta både de hämtade dokumenten och den ursprungliga frågan.
I det här inlägget visar vi hur man bygger ett RAG-arbetsflöde med hjälp av Knowledge Bases for Amazon Bedrock för ett användningsfall för läkemedelsupptäckt.
Översikt över kunskapsbaser för Amazon Bedrock
Kunskapsbaser för Amazon Bedrock stöder ett brett utbud av vanliga filtyper, inklusive .txt, .docx, .pdf, .csv och mer. För att möjliggöra effektiv hämtning från privata data är en vanlig praxis att först dela upp dessa dokument i hanterbara bitar. Knowledge Bases har implementerat en standard chunking-strategi som fungerar bra i de flesta fall för att du ska kunna komma igång snabbare. Om du vill ha mer kontroll låter Knowledge Bases dig styra chunkingstrategin genom en uppsättning förkonfigurerade alternativ. Du kan styra den maximala tokenstorleken och mängden överlappning som ska skapas över bitar för att ge ett sammanhängande sammanhang till inbäddningen. Kunskapsbaser för Amazon Bedrock hanterar processen att synkronisera data från din Amazon enkel lagringstjänst (Amazon S3) hink, delar upp den i mindre bitar, genererar vektorinbäddningar och lagrar inbäddningarna i ett vektorindex. Denna process kommer med intelligent diffning, genomströmning och felhantering.
Vid körning används en inbäddningsmodell för att konvertera användarens fråga till en vektor. Vektorindexet frågas sedan för att hitta dokument som liknar användarens fråga genom att jämföra dokumentvektorer med användarens frågevektor. I det sista steget läggs semantiskt liknande dokument som hämtats från vektorindexet som kontext för den ursprungliga användarfrågan. När ett svar genereras för användaren, efterfrågas de semantiskt likartade dokumenten i textmodellen, tillsammans med källattribution för spårbarhet.
Kunskapsbaser för Amazon Bedrock stöder flera vektordatabaser, inklusive Amazon OpenSearch Serverlös, Amazon-Aurora, Pinecone och Redis Enterprise Cloud. Med API:erna Retrieve och RetrieveAndGenerate kan dina applikationer fråga direkt efter indexet med en enhetlig och standardsyntax utan att behöva lära sig separata API:er för varje annan vektordatabas, vilket minskar behovet av att skriva anpassade indexfrågor mot ditt vektorlager. Retrieve API tar den inkommande frågan, konverterar den till en inbäddningsvektor och frågar backend-arkivet med hjälp av de algoritmer som konfigurerats på vektordatabasnivån; RetrieveAndGenerate API använder en användarkonfigurerad LLM som tillhandahålls av Amazon Bedrock och genererar det slutliga svaret på naturligt språk. Det inbyggda spårbarhetsstödet informerar den begärande applikationen om de källor som används för att svara på en fråga. För företagsimplementeringar stöder Knowledge Bases AWS nyckelhanteringstjänst (AWS KMS) kryptering, AWS CloudTrail integration med mera.
I följande avsnitt visar vi hur man bygger ett RAG-arbetsflöde med hjälp av kunskapsbaser för Amazon Bedrock, med stöd av vektormotorn OpenSearch Serverless, för att analysera en ostrukturerad datauppsättning för kliniska prövningar för ett användningsfall för läkemedelsupptäckt. Dessa data är informationsrika men kan vara mycket heterogena. Korrekt hantering av specialiserad terminologi och begrepp i olika format är avgörande för att upptäcka insikter och säkerställa analytisk integritet. Med Knowledge Bases for Amazon Bedrock kan du få tillgång till detaljerad information genom enkla, naturliga frågor.
Bygg en kunskapsbas för Amazon Bedrock
I det här avsnittet demonstrerar vi processen att skapa en kunskapsbas för Amazon Bedrock via konsolen. Slutför följande steg:
- På Amazon Bedrock-konsolen, under orkestrering välj i navigeringsfönstret Kunskapsbas.
- Välja Skapa kunskapsbas.
- I Kunskapsbasdetaljer sektion, ange ett namn och en valfri beskrivning.
- I IAM-behörigheter avsnitt, välj Skapa och använd en ny tjänstroll.
- För Roll för tjänstens namn, ange ett namn för din roll, som måste börja med
AmazonBedrockExecutionRoleForKnowledgeBase_
. - Välja Nästa.
- I Datakälla sektion, ange ett namn för din datakälla och S3-URI där datasetet finns. Knowledge Bases stöder följande filformat:
- Oformaterad text (.txt)
- Markdown (.md)
- HyperText Markup Language (.html)
- Microsoft Word-dokument (.doc/.docx)
- Kommaseparerade värden (.csv)
- Microsoft Excel-kalkylblad (.xls/.xlsx)
- Portable Document Format (.pdf)
- Enligt Ytterligare inställningar¸ välj din föredragna chunking-strategi (för det här inlägget väljer vi Fast storlek chunking) och ange bitstorlek och överlagring i procent. Alternativt kan du använda standardinställningarna.
- Välja Nästa.
- I Inbäddningsmodell sektionen, välj Titan Embeddings-modellen från Amazon Bedrock.
- I Vektor databas avsnitt, välj Skapa snabbt en ny vektorbutik, som hanterar processen för att skapa en vektorbutik.
- Välja Nästa.
- Granska inställningarna och välj Skapa kunskapsbas.
- Vänta tills kunskapsbasen har skapats och bekräfta att dess status är Klar.
- I Datakälla sektionen, eller på bannern högst upp på sidan eller popup-fönstret i testfönstret, välj Synkronisera för att utlösa processen att ladda data från S3-skopan, dela upp den i bitar av den storlek du angav, generera vektorinbäddningar med den valda textinbäddningsmodellen och lagra dem i vektorarkivet som hanteras av Knowledge Bases för Amazon Bedrock.
Synkroniseringsfunktionen stöder inmatning, uppdatering och radering av dokument från vektorindex baserat på ändringar av dokument i Amazon S3. Du kan också använda StartIngestionJob
API för att trigga synkroniseringen via AWS SDK.
När synkroniseringen är klar visar synkroniseringshistoriken status Avslutad.
Fråga kunskapsbasen
I det här avsnittet visar vi hur du får tillgång till detaljerad information i kunskapsbasen genom enkla och naturliga frågor. Vi använder en ostrukturerad syntetisk datauppsättning som består av PDF-filer, vars sidnummer sträcker sig från 10–100 sidor, som simulerar en plan för klinisk prövning av ett föreslaget nytt läkemedel inklusive statistiska analysmetoder och samtyckesformulär för deltagare. Vi använder kunskapsbaserna för Amazon Bedrock retrieve_and_generate
och retrieve
API:er med Amazon Bedrock LangChain integration.
Innan du kan skriva skript som använder Amazon Bedrock API måste du installera lämplig version av AWS SDK i din miljö. För Python-skript kommer detta att vara AWS SDK för Python (Boto3):
Aktivera dessutom åtkomst till Amazon Titan Embeddings-modellen och Anthropic Claude v2 eller v1. För mer information, se Modellåtkomst.
Generera frågor med Amazon Bedrock
Vi kan använda Anthropic Claude 2.1 för Amazon Bedrock för att föreslå en lista med frågor att ställa om datauppsättningen för kliniska prövningar:
Använd Amazon Bedrock RetrieveAndGenerate API
För en helt hanterad RAG-upplevelse kan du använda de inhemska kunskapsbaserna för Amazon Bedrock RetrieveAndGenerate
API för att få svaren direkt:
Den citerade informationskällan kan erhållas via följande kod (med en del av utdata redigerad för korthets skull):
Genom att skicka sessions-ID för RetrieveAndGenerate
API kan du bevara konversationskontexten och ställa följdfrågor. Till exempel, utan sammanhanget, om du ber om mer detaljer från det föregående svaret, kanske det inte kan svara korrekt:
Men genom att skicka sessions-ID:t kan RAG-pipelinen identifiera motsvarande sammanhang och returnera relevanta svar:
Följande tabell visar de hämtade svaren på alla motsvarande frågor.
Fråga | Svar |
Vad är syftet med studien? Se till att du förstår forskningens mål och vad studieprocedurerna kommer att innebära. | Syftet med studien är att testa om litium är effektivt för att förhindra upprepat självmordsvåld hos patienter med depression eller bipolär sjukdom. |
Vilka är riskerna och potentiella fördelar? Formuläret ska förklara alla förutsebara risker, biverkningar eller obehag du kan uppleva av att delta. | De möjliga riskerna eller besvären inkluderar: intervjufrågorna som orsakar obehag, biverkningar från litiummedicinen såsom illamående, lös avföring, törst, urineringsförändringar, skakighet, huvudvärk, svettning, trötthet, minskad koncentration, hudutslag, sköldkörtelförändringar, förvärrad akne /psoriasis, litiumtoxicitet och risker om medicineringen plötsligt stoppas. De potentiella fördelarna är att testerna kan leda till ny information för att hjälpa deltagaren, och litium kan hjälpa till att förhindra upprepat självmordsvåld för personer med depression eller bipolär sjukdom. |
Vad kommer deltagandet innebära? Få information om vilka tester, mediciner, livsstilsförändringar eller procedurer du kommer att gå igenom, hur mycket tid det kommer att ta och hur länge studien kommer att pågå. | Deltagande kommer att innebära att fylla i en intervju och frågeformulär som täcker tänkande, beteenden, behandling av mental hälsa, mediciner, alkohol- och droganvändning, hem och socialt stöd och förståelse av forskningsstudien. Detta tar cirka två timmar och kan göras i flera sessioner, personligen och per telefon. Om man är berättigad till hela studien blir det cirka 20 studiebesök under ett år. Detta kommer att involvera att ta studiemedicin, att kontrollera vitala tecken, fylla i frågeformulär, granska biverkningar och fortsätta normal medicinsk och mental hälsovård. |
Finns det några kostnader eller betalningar? Fråga om du kommer att stå för eventuella kostnader relaterade till studien eller få betalt för att delta. | Ja, det finns kostnader och betalningar som diskuteras i sökresultaten. Du kommer inte att debiteras för några behandlingar eller ingrepp som ingår i studien. Du kommer dock fortfarande att behöva betala eventuella vanliga VA egenavgifter för vård och mediciner som inte är relaterade till studien. Du kommer inte att få betalt för deltagande, men studien kommer att ersätta utgifter relaterade till deltagande som transport, parkering, etc. Ersättningsbelopp och process tillhandahålls. |
Hur kommer min integritet att skyddas? Formuläret ska förklara hur din personliga hälsoinformation kommer att hållas konfidentiell före, under och efter rättegången. | Din integritet kommer att skyddas genom att genomföra intervjuer privat, föra skrivna anteckningar i låsta filer och på kontor, lagra elektronisk information i krypterade och lösenordsskyddade filer och erhålla ett konfidentialitetsintyg från Department of Health and Human Services för att förhindra att information som identifierar dig avslöjas . Information som identifierar dig kan komma att delas med läkare som ansvarar för din vård eller för granskningar och utvärderingar av statliga myndigheter, men samtal och uppsatser om studien kommer inte att identifiera dig. |
Fråga med Amazon Bedrock Retrieve API
För att anpassa ditt RAG-arbetsflöde kan du använda Retrieve API för att hämta relevanta bitar baserat på din fråga och skicka den till valfri LLM som tillhandahålls av Amazon Bedrock. För att använda Retrieve API, definiera det enligt följande:
Hämta motsvarande sammanhang (med en del av utgången redigerad för korthetens skull):
Extrahera sammanhanget för promptmallen:
Importera Python-modulerna och ställ in mallen för att svara på frågan i sammanhanget och generera sedan det slutliga svaret:
Fråga med Amazon Bedrock LangChain-integration
För att skapa en heltäckande anpassad Q&A-applikation tillhandahåller Knowledge Bases for Amazon Bedrock integration med LangChain. För att ställa in LangChain retriever, ange kunskapsbas-ID och ange antalet resultat som ska returneras från frågan:
Ställ nu in LangChain RetrievalQA och generera svar från kunskapsbasen:
Detta kommer att generera motsvarande svar som liknar de som anges i den tidigare tabellen.
Städa upp
Se till att ta bort följande resurser för att undvika extra kostnader:
Slutsats
Amazon Bedrock tillhandahåller en bred uppsättning djupt integrerade tjänster för att driva RAG-applikationer i alla skalor, vilket gör det enkelt att komma igång med att analysera din företagsdata. Kunskapsbaser för Amazon Bedrock integreras med Amazon Bedrocks grundmodeller för att bygga skalbara dokumentinbäddningspipelines och dokumenthämtningstjänster för att driva ett brett utbud av interna och kundinriktade applikationer. Vi ser fram emot framtiden och din feedback kommer att spela en viktig roll för att vägleda utvecklingen av denna produkt. För att lära dig mer om funktionerna hos Amazon Bedrock och kunskapsbaser, se Kunskapsbas för Amazon Bedrock.
Om författarna
Mark Roy är en huvudarkitekt för maskininlärning för AWS, som hjälper kunder att designa och bygga AI/ML-lösningar. Marks arbete täcker ett brett spektrum av ML-användningsfall, med ett primärt intresse för datorseende, djupinlärning och skalning av ML över hela företaget. Han har hjälpt företag inom många branscher, inklusive försäkring, finansiella tjänster, media och underhållning, hälsovård, allmännyttiga företag och tillverkning. Mark innehar sex AWS-certifieringar, inklusive ML Specialty Certification. Innan han började på AWS var Mark arkitekt, utvecklare och teknikledare i över 25 år, inklusive 19 år inom finansiella tjänster.
Mani Khanuja är en teknisk ledare – Generativa AI-specialister, författare till boken – Applied Machine Learning and High Performance Computing on AWS, och medlem i styrelsen för Women in Manufacturing Education Foundation Board. Hon leder maskininlärningsprojekt (ML) inom olika domäner som datorseende, naturlig språkbehandling och generativ AI. Hon hjälper kunder att bygga, träna och implementera stora maskininlärningsmodeller i stor skala. Hon talar i interna och externa konferenser som re:Invent, Women in Manufacturing West, YouTube webinars och GHC 23. På fritiden gillar hon att gå långa löpturer längs stranden.
Dr Baichuan Sun, som för närvarande tjänstgör som Sr. AI/ML Solution Architect på AWS, fokuserar på generativ AI och tillämpar sina kunskaper inom datavetenskap och maskininlärning för att tillhandahålla praktiska, molnbaserade affärslösningar. Med erfarenhet av managementkonsultation och AI-lösningsarkitektur tar han sig an en rad komplexa utmaningar, inklusive datorseende med robotar, tidsserieprognoser och prediktivt underhåll, bland annat. Hans arbete är grundat på en gedigen bakgrund av projektledning, programvara FoU och akademiska sysselsättningar. Utanför jobbet tycker Dr. Sun om balansen mellan att resa och umgås med familj och vänner.
Derrick Choo är en Senior Solutions Architect på AWS fokuserad på att påskynda kundernas resa till molnet och transformera deras verksamhet genom att använda molnbaserade lösningar. Hans expertis är inom utveckling av fullstack-applikationer och maskininlärning. Han hjälper kunder att designa och bygga end-to-end-lösningar som täcker frontend-användargränssnitt, IoT-applikationer, API- och dataintegrationer och maskininlärningsmodeller. På fritiden umgås han gärna med sin familj och experimenterar med fotografering och video.
Frank Winkler är senior lösningsarkitekt och generativ AI-specialist på AWS baserad i Singapore, fokuserad på maskininlärning och generativ AI. Han arbetar med globala digitala infödda företag för att utforma skalbara, säkra och kostnadseffektiva produkter och tjänster på AWS. På fritiden tillbringar han tid med sin son och dotter och reser för att njuta av vågorna över ASEAN.
Nihir Chadderwala är Sr. AI/ML Solutions Architect i Global Healthcare and Life Sciences-teamet. Hans expertis är att bygga Big Data och AI-drivna lösningar på kundproblem, särskilt inom biomedicin, biovetenskap och hälsovård. Han är också entusiastisk över skärningspunkten mellan kvantinformationsvetenskap och AI och tycker om att lära sig och bidra till detta utrymme. På fritiden tycker han om att spela tennis, resa och lära sig om kosmologi.
- SEO-drivet innehåll och PR-distribution. Bli förstärkt idag.
- PlatoData.Network Vertical Generative Ai. Styrka dig själv. Tillgång här.
- PlatoAiStream. Web3 Intelligence. Kunskap förstärkt. Tillgång här.
- Platoesg. Kol, CleanTech, Energi, Miljö, Sol, Avfallshantering. Tillgång här.
- PlatoHealth. Biotech och kliniska prövningar Intelligence. Tillgång här.
- Källa: https://aws.amazon.com/blogs/machine-learning/use-rag-for-drug-discovery-with-knowledge-bases-for-amazon-bedrock/
- : har
- :är
- :inte
- :var
- $UPP
- 1
- 10
- 100
- 11
- 120
- 121
- 13
- 14
- 150
- 160
- 19
- 20
- 23
- 25
- 29
- 35%
- 40
- 41
- 5 Frågor
- 7
- 8
- 9
- a
- Able
- Om oss
- akademiska
- accelererande
- tillgång
- tvärs
- lagt till
- Annat
- adresser
- justerat
- Antagande
- Efter
- mot
- byråer
- medel
- framåt
- AI
- AI-powered
- AI / ML
- Alkoholer
- algoritmer
- Alla
- tillåter
- tillåter
- längs
- också
- amason
- Amazon Web Services
- bland
- mängd
- mängder
- an
- analys
- Analytisk
- analysera
- analys
- och
- svara
- svar
- svar
- Antropisk
- vilken som helst
- api
- API: er
- Ansökan
- tillämpningar
- tillämpas
- applicerar
- lämpligt
- arkitektur
- ÄR
- AS
- Asean
- be
- bedöma
- delad
- Assistent
- associerad
- At
- revisioner
- augmented
- Författaren
- automatiserar
- automatiskt
- undvika
- bort
- AWS
- dragen tillbaka
- backend
- bakgrund
- Balansera
- banderoll
- bas
- baserat
- BE
- Beach
- varit
- innan
- beteenden
- Fördelarna
- Stor
- Stora data
- biomedicinsk
- födelse
- blod
- ombord
- styrelse
- boken
- båda
- bred
- SLUTRESULTAT
- Byggnad
- företag
- men
- by
- KAN
- kapacitet
- vilken
- Vid
- fall
- orsakar
- certifikat
- certifiering
- certifieringar
- kedjor
- utmaningar
- Förändringar
- laddad
- avgifter
- chatt
- kontrollerade
- Välja
- citerade
- Klinisk
- cloud
- koda
- SAMMANHÄNGANDE
- kombinerar
- kommer
- Gemensam
- vanligen
- Företag
- företag
- jämfört
- jämförande
- fullborda
- fullständigt
- fullborda
- komplex
- dator
- Datorsyn
- databehandling
- koncentration
- Begreppen
- koncis
- genomfördes
- ledande
- konferenser
- konfidentiell
- konfidentialitet
- konfigurerad
- Bekräfta
- samtycke
- med tanke på
- Bestående
- Konsol
- rådgivning
- innehåll
- sammanhang
- kontexter
- fortsätta
- fortsätter
- Bidragande
- kontroll
- Konversation
- konvertera
- korrekt
- Motsvarande
- kosmologi
- kostnadseffektiv
- Kostar
- kunde
- beläggning
- Täcker
- skapa
- skapas
- Skapa
- skapande
- CSP
- För närvarande
- beställnings
- kund
- Kunder
- skräddarsy
- kundanpassad
- datum
- datavetenskap
- Databas
- databaser
- dotter
- Dagar
- minskade
- djup
- djupt lärande
- djupt
- Standard
- definiera
- demo
- demonstrera
- Avdelning
- distribuera
- depression
- beskrivning
- Designa
- detaljerad
- detaljer
- upptäcka
- Utvecklare
- Utveckling
- olika
- digital
- direkt
- Direktörer
- Avslöjar
- Upptäckten
- diskuteras
- oordning
- do
- Läkare
- dokumentera
- dokument
- domän
- domäner
- donation
- gjort
- inte
- doser
- dr
- drog
- under
- varje
- Tidigare
- Utbildning
- effekt
- Effektiv
- effekter
- effektivitet
- antingen
- Utveckla
- Elektronisk
- berättigad
- annars
- inbäddning
- sysselsätter
- möjliggöra
- krypterad
- kryptering
- änden
- början till slut
- Motor
- njuta
- säkerställa
- ange
- Företag
- Underhållning
- Miljö
- speciellt
- väsentlig
- etc
- utvärdera
- utvärderingar
- exempel
- excel
- exciterade
- kostnader
- erfarenhet
- experimentera
- expertis
- Förklara
- extern
- Faktum
- Misslyckande
- familj
- snabbare
- trötthet
- återkoppling
- Fil
- Filer
- slutlig
- finansiella
- finansiella tjänster
- hitta
- Förnamn
- fokuserade
- fokuserar
- följt
- efter
- följer
- För
- förutsebar
- formen
- format
- former
- fundament
- Fri
- vänner
- från
- Frontend
- full
- Full stack
- fullständigt
- fungera
- ytterligare
- framtida
- generera
- genererar
- generera
- generering
- generativ
- Generativ AI
- skaffa sig
- Välgörenhet
- globala digitala
- Go
- Mål
- Går
- Regeringen
- statliga myndigheter
- grundad
- garanterat
- styrning
- hantera
- Arbetsmiljö
- Har
- har
- he
- huvudvärk
- Hälsa
- Hälsovård
- hälsoinformation
- hälso-och sjukvård
- hjälpa
- hjälpte
- hjälpa
- hjälper
- här
- Hög
- högnivå
- hans
- historia
- innehar
- Hem
- ÖPPETTIDER
- Hur ser din drömresa ut
- How To
- Men
- html
- http
- HTTPS
- humant
- ID
- identifierar
- identifiera
- if
- bild
- implementeringar
- genomföras
- importera
- in
- innefattar
- Inklusive
- Inkommande
- index
- industrier
- informationen
- informerar
- Infrastruktur
- inledande
- ingång
- insikter
- installera
- försäkring
- integrerade
- integrerar
- integrering
- integrationer
- integritet
- Intelligent
- interaktion
- intresse
- gränssnitt
- inre
- skärning
- Intervju
- intervjufrågor
- Intervjuer
- in
- engagera
- iot
- IT
- DESS
- sammanfogning
- resa
- jpg
- bara
- hålla
- hålls
- Nyckel
- Vet
- Menande
- kunskap
- språk
- Large
- Efternamn
- leda
- ledare
- Leads
- LÄRA SIG
- inlärning
- Lets
- Nivå
- nivåer
- livet
- Life Sciences
- Lifestyle
- tycka om
- gillar
- Lista
- Noterade
- LLM
- läser in
- läge
- låst
- Lång
- Maskinen
- maskininlärning
- underhåll
- göra
- Framställning
- hantera
- hanterlig
- förvaltade
- ledning
- förvaltar
- Produktion
- många
- markera
- Marks
- maximal
- Maj..
- me
- Media
- medicinsk
- medicinsk forskning
- medicin
- mediciner
- läkemedel
- medlem
- Minne
- mentala
- Mental hälsa
- meta
- metoder
- kanske
- ML
- modell
- modeller
- Moduler
- övervakas
- månad
- mer
- mest
- mycket
- multipel
- måste
- my
- namn
- nativ
- Natural
- Naturlig språkbehandling
- Navigering
- Behöver
- Nya
- Nej
- Ingen
- normala
- Anmärkningar
- antal
- nummer
- få
- erhållna
- erhållande
- of
- kontor
- on
- ONE
- ettor
- endast
- Tillbehör
- or
- orkestrering
- ursprungliga
- Övriga
- Övrigt
- utfall
- produktion
- utanför
- över
- överlappning
- sida
- sidor
- betalas
- panelen
- papper
- parkering
- del
- deltagare
- deltagare
- deltagande
- deltagande
- passera
- Förbi
- Lösenord
- patienter
- Betala
- betalningar
- Personer
- procentuell
- prestanda
- perioden
- personen
- personlig
- telefon
- fotografi
- bitar
- rörledning
- Planen
- plato
- Platon Data Intelligence
- PlatonData
- Spela
- i
- Populära
- möjlig
- Inlägg
- potentiell
- kraft
- Praktisk
- praktiken
- föredragen
- Graviditet
- förhindra
- förebyggande
- föregående
- primär
- Principal
- Innan
- privatpolicy
- privat
- problem
- förfaranden
- process
- bearbetning
- Produkt
- Produkter
- Framsteg
- projektet
- projektledning
- projekt
- prompter
- rätt
- föreslå
- föreslagen
- skyddad
- ge
- förutsatt
- leverantörer
- ger
- Syftet
- Python
- Frågor och svar
- Quantum
- kvantinformation
- sökfrågor
- fråga
- fråga
- frågor
- R&D
- trasa
- område
- som sträcker sig
- utslag
- RE
- motta
- reducerande
- hänvisa
- region
- relaterad
- relevanta
- upprepade
- begärande
- forskning
- Resurser
- respons
- ansvarig
- resultera
- Resultat
- hämtning
- avkastning
- reviewing
- Rik
- Risk
- risker
- robotik
- Roll
- kör
- runtime
- säga
- skalbar
- Skala
- skalor
- skalning
- Vetenskap
- VETENSKAPER
- göra
- skript
- sDK
- sömlöst
- Sök
- §
- sektioner
- säkra
- välj
- vald
- självstyrd
- semantisk
- senior
- separat
- Serier
- Server
- service
- Tjänster
- portion
- session
- sessioner
- in
- inställning
- inställningar
- delas
- hon
- skall
- Visar
- sida
- signera
- Tecken
- liknande
- Enkelt
- Singapore
- sitter
- SEX
- Storlek
- Hud
- mindre
- So
- Social hållbarhet
- Mjukvara
- fast
- lösning
- Lösningar
- några
- dess
- Källa
- Källor
- Utrymme
- span
- talar
- specialist
- specialister
- specialiserad
- Specialitet
- specifik
- specifikt
- specificerade
- Spendera
- spends
- delas
- Delar upp
- kalkylblad
- Stabilitet
- stapel
- standard
- starta
- igång
- Starta
- startar
- statistisk
- statistik
- status
- Steg
- Steg
- Fortfarande
- slutade
- stoppa
- förvaring
- lagra
- lagrar
- misslyckande
- okomplicerad
- Strategi
- Läsa på
- sådana
- självmord
- sol
- stödja
- Stöder
- säker
- synkronisera.
- synkronisering
- syntax
- syntetisk
- system
- bord
- Ta
- tagen
- tar
- tar
- Talks
- grupp
- tech
- Tekniken
- Teknologi
- mall
- tennis
- terminologi
- testa
- tester
- text
- den där
- Smakämnen
- Framtiden
- källan
- deras
- Dem
- sig själva
- sedan
- Där.
- Dessa
- de
- Tänkande
- tredje part
- detta
- de
- Genom
- genomströmning
- tid
- Tidsföljder
- titan
- till
- tillsammans
- token
- topp
- topp 5
- Spårbarhet
- Tåg
- omvandla
- transport
- Traveling
- reser
- behandling
- behandlingar
- rättegång
- utlösa
- prova
- två
- Typ
- typer
- under
- förstå
- förståelse
- enhetlig
- ostrukturerad
- uppdaterad
- uppdatering
- användning
- användningsfall
- Begagnade
- Användare
- användningar
- med hjälp av
- vanliga
- vanligen
- verktyg
- v1
- Värden
- olika
- vastly
- version
- via
- Våld
- syn
- Besök
- avgörande
- vill
- var
- vågor
- we
- webb
- webbservice
- Webbseminarier
- veckor
- VÄL
- väster
- Vad
- Vad är
- när
- om
- som
- VEM
- bred
- Brett utbud
- kommer
- fönster
- med
- utan
- Kvinnor
- ord
- Arbete
- arbetsflöde
- arbetssätt
- fungerar
- skulle
- skriva
- skriven
- år
- år
- Om er
- Din
- Youtube
- zephyrnet