Mätvärden för att utvärdera en identitetsverifieringslösning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Mätvärden för att utvärdera en identitetsverifieringslösning

Globalt har det skett en accelererad övergång mot friktionsfria digitala användarupplevelser. Oavsett om det handlar om att registrera sig på en webbplats, göra transaktioner online eller helt enkelt logga in på ditt bankkonto, försöker organisationer aktivt att minska friktionen som deras kunder upplever samtidigt som de förbättrar sina åtgärder för säkerhet, efterlevnad och bedrägeriförebyggande. Skiftet mot friktionsfria användarupplevelser har gett upphov till ansiktsbaserade biometriska identitetsverifieringslösningar som syftar till att svara på frågan "Hur verifierar man en person i den digitala världen?"

Det finns två viktiga fördelar med ansiktsbiometri när det gäller frågor om identifiering och autentisering. För det första är det en praktisk teknik för användarna: det finns inget behov av att komma ihåg ett lösenord, hantera utmaningar med flera faktorer, klicka på verifieringslänkar eller lösa CAPTCHA-pussel. För det andra uppnås en hög säkerhetsnivå: identifiering och autentisering på basis av ansiktsbiometri är säker och mindre känslig för bedrägerier och attacker.

I det här inlägget dyker vi ner i de två primära användningsfallen för identitetsverifiering: onboarding och autentisering. Sedan dyker vi ner i de två nyckelmåtten som används för att utvärdera ett biometriskt systems noggrannhet: falsk matchningsfrekvens (även känd som falsk acceptansfrekvens) och falsk icke-matchningsfrekvens (även känd som falsk avvisningsfrekvens). Dessa två mått används i stor utsträckning av organisationer för att utvärdera noggrannhet och felfrekvens för biometriska system. Slutligen diskuterar vi ett ramverk och bästa praxis för att utföra en utvärdering av en identitetsverifieringstjänst.

Se medföljande Jupyter anteckningsbok som går igenom alla steg som nämns i det här inlägget.

Användningsfall: Onboarding och autentisering

Det finns två primära användningsfall för biometriska lösningar: användarintroduktion (ofta kallad verifiering) och autentisering (ofta kallad identifiering). Onboarding innebär en-till-en-matchning av ansikten mellan två bilder, till exempel att jämföra en selfie med ett pålitligt identifieringsdokument som ett körkort eller pass. Autentisering, å andra sidan, innebär en-till-många-sökning av ett ansikte mot en lagrad samling ansikten, till exempel genomsökning av en samling av anställdas ansikten för att se om en anställd har behörighet till en viss våning i en byggnad.

Noggrannhetsprestandan för användningsfall för onboarding och autentisering mäts av de falska positiva och falska negativa felen som den biometriska lösningen kan göra. Ett likhetspoäng (som sträcker sig från 0 % betyder ingen matchning till 100 % betyder perfekt matchning) används för att bestämma en match eller ett icke-matchande beslut. Ett falskt positivt uppstår när lösningen anser att bilder av två olika individer är samma person. Ett falskt negativt å andra sidan betyder att lösningen ansåg två bilder av samma person vara olika.

Onboarding: En-till-en-verifiering

Biometriskt baserade onboardingprocesser både förenklar och säkrar processen. Viktigast av allt, det förbereder organisationen och kunden för en nästan friktionsfri onboard-upplevelse. För att göra detta måste användarna helt enkelt visa upp en bild av någon form av pålitlig identifieringshandling som innehåller användarens ansikte (som körkort eller pass) samt ta en selfiebild under introduktionsprocessen. Efter att systemet har dessa två bilder jämför det helt enkelt ansiktena i de två bilderna. När likheten är större än en angiven tröskel, då har du en matchning; annars har du en icke-match. Följande diagram beskriver processen.

Tänk på exemplet med Julie, en ny användare som öppnar ett digitalt bankkonto. Lösningen uppmanar henne att ta en bild av sitt körkort (steg 2) och ta en selfie (steg 3). Efter att systemet kontrollerat kvaliteten på bilderna (steg 4), jämför det ansiktet i selfien med ansiktet på körkortet (en-till-en-matchning) och ett likhetspoäng (steg 5) tas fram. Om likhetspoängen är mindre än den erforderliga likhetströskeln, avvisas instigningsförsöket av Julie. Detta är vad vi kallar en falsk icke-matchning eller falsk avvisning: lösningen ansåg två bilder av samma person vara olika. Å andra sidan, om likhetspoängen var större än den nödvändiga likheten, anser lösningen att de två bilderna är samma person eller en matchning.

Autentisering: En-till-många-identifiering

Från att gå in i en byggnad, till att checka in i en kiosk, till att uppmana en användare att göra en selfie för att verifiera sin identitet, den här typen av noll-till-låg-friktion-autentisering via ansiktsigenkänning har blivit vanligt för många organisationer. Istället för att utföra bild-till-bild-matchning tar detta användningsfall för autentisering en enda bild och jämför den med en sökbar samling bilder för en potentiell matchning. I ett typiskt autentiseringsfall uppmanas användaren att ta en selfie, som sedan jämförs med ansikten som lagras i samlingen. Resultatet av sökningen ger noll, en eller flera potentiella matchningar med motsvarande likhetspoäng och externa identifierare. Om ingen matchning returneras, är användaren inte autentiserad; Men förutsatt att sökningen ger en eller flera matchningar, fattar systemet autentiseringsbeslutet baserat på likhetspoäng och externa identifierare. Om likhetspoängen överstiger den erforderliga likhetströskeln och den externa identifieraren matchar den förväntade identifieraren, så autentiseras (matchas) användaren. Följande diagram beskriver ett exempel på en ansiktsbaserad biometrisk autentiseringsprocess.

autentiseringsprocess

Tänk på exemplet med Jose, en leveransförare för gigekonomi. Leveranstjänsten autentiserar leveransförare genom att uppmana föraren att ta en selfie innan en leverans påbörjas med hjälp av företagets mobilapplikation. Ett problem för tjänsteleverantörer inom spelningsekonomin är att dela jobb; i huvudsak delar två eller flera användare samma konto för att kunna spela systemet. För att bekämpa detta använder många leveranstjänster en kamera i bilen för att ta bilder (steg 2) av föraren vid slumpmässiga tidpunkter under en leverans (för att säkerställa att leveransföraren är den auktoriserade föraren). I det här fallet tar Jose inte bara en selfie i början av sin förlossning, utan en kamera i bilen tar bilder av honom under förlossningen. Systemet utför kvalitetskontroller (steg 3) och söker (steg 4) i samlingen av registrerade förare för att verifiera förarens identitet. Om en annan drivrutin upptäcks kan gig-ekonomins leveranstjänst undersöka ytterligare.

En falsk matchning (falsk positiv) uppstår när lösningen ansåg att två eller flera bilder av olika personer var samma person. I vårt användningsfall, anta att José istället för den auktoriserade föraren låter sin bror Miguel ta en av hans leveranser åt honom. Om lösningen felaktigt matchar Miguels selfie med bilderna av Jose, uppstår en falsk matchning (falsk positiv).

För att bekämpa potentialen för falska matchningar rekommenderar vi att samlingarna innehåller flera bilder av varje ämne. Det är vanligt att indexera betrodda identifieringsdokument som innehåller ett ansikte, en selfie vid tidpunkten för ombordstigning och selfies från de senaste identifieringskontrollerna. Att indexera flera bilder av ett motiv ger möjligheten att aggregera likhetspoängen över returnerade ansikten, och därigenom förbättra identifieringens noggrannhet. Dessutom används externa identifierare för att begränsa risken för ett falskt godkännande. Ett exempel på affärsregel kan se ut så här:

OM aggregerad likhetspoäng >= nödvändig likhetströskel OCH extern identifierare == förväntad identifierare Autentisera DÅ

Viktiga biometriska noggrannhetsmått

I ett biometriskt system är vi intresserade av falsk matchningsfrekvens (FMR) och falsk icke-matchningsfrekvens (FNMR) baserat på likhetspoängen från ansiktsjämförelser och sökningar. Oavsett om det är ett användningsfall för onboarding eller autentisering, beslutar biometriska system att acceptera eller avvisa matchningar av en användares ansikte baserat på likhetspoängen för två eller flera bilder. Liksom alla beslutssystem kommer det att finnas fel där systemet felaktigt accepterar eller avvisar ett försök till onboarding eller autentisering. Som en del av att utvärdera din identitetsverifieringslösning måste du utvärdera systemet vid olika likhetströsklar för att minimera falska matchningar och falska icke-matchningar, samt jämföra dessa fel mot kostnaden för att göra felaktiga avslag och accepteringar. Vi använder FMR och FNMR som våra två nyckelmått för att utvärdera ansiktsbiometriska system.

Falsk icke-matchningsfrekvens

När identitetsverifieringssystemet inte korrekt identifierar eller auktoriserar en äkta användare uppstår en falsk icke-matchning, även känd som ett falskt negativt. Falsk non-match rate (FNMR) är ett mått på hur benäget systemet är att felaktigt identifiera eller auktorisera en äkta användare.

FNMR uttrycks som en procentandel av fall där ett onboarding- eller autentiseringsförsök görs, där användarens ansikte felaktigt avvisas (ett falskt negativt resultat) eftersom likhetspoängen ligger under den föreskrivna tröskeln.

En sann positiv (TP) är när lösningen anser att två eller flera bilder av samma person är desamma. Det vill säga likheten i jämförelsen eller sökningen ligger över den erforderliga likhetströskeln.

Ett falskt negativt (FN) är när lösningen anser att två eller flera bilder av samma person är olika. Det vill säga likheten i jämförelsen eller sökningen ligger under den nödvändiga likhetströskeln.

Formeln för FNMR är:

FNMR = Falskt negativt antal / (True Positive Count + False Negative Count)

Anta till exempel att vi har 10,000 100 äkta autentiseringsförsök men 9,900 nekas eftersom deras likhet med referensbilden eller samlingen faller under den angivna likhetströskeln. Här har vi 100 1.0 sanna positiva och XNUMX falska negativa, därför är vår FNMR XNUMX %

FNMR = 100 / (9900 + 100) eller 1.0 %

Falsk matchningsfrekvens

När ett identitetsverifieringssystem felaktigt identifierar eller auktoriserar en obehörig användare som äkta, uppstår en falsk matchning, även känd som en falsk positiv. Den falska matchningsfrekvensen (FMR) är ett mått på hur benäget systemet är att felaktigt identifiera eller auktorisera en obehörig användare. Det mäts med antalet falska positiva erkännanden eller autentiseringar dividerat med det totala antalet identifieringsförsök.

Ett falskt positivt uppstår när lösningen anser att två eller flera bilder av olika personer är samma person. Det vill säga likhetspoängen för jämförelsen eller sökningen ligger över den erforderliga likhetströskeln. I huvudsak identifierar eller auktoriserar systemet felaktigt en användare när det borde ha avvisat deras identifierings- eller autentiseringsförsök.

Formeln för FMR är:

FMR = False Positive Count / (Totalt antal försök)

Anta till exempel att vi har 100,000 100 autentiseringsförsök men 100 falska användare är felaktigt auktoriserade eftersom deras likhet med referensbilden eller samlingen faller över den angivna likhetströskeln. Här har vi 0.01 falska positiva, därför är vår FMR XNUMX%

FMR = 100 / (100,000 0.01) eller XNUMX %

Frekvens för falsk matchning kontra falsk icke-matchningsfrekvens

Falsk matchningsfrekvens och falsk icke-matchningsfrekvens står i motsats till varandra. När likhetströskeln ökar, minskar potentialen för en falsk matchning, medan potentialen för en falsk icke-matchning ökar. Ett annat sätt att tänka på denna avvägning är att när likhetströskeln ökar, blir lösningen mer restriktiv, vilket gör färre låga likhetsmatchningar. Till exempel är det vanligt att användningsfall som involverar allmän säkerhet och säkerhet sätter en tröskel för matchningslikhet ganska hög (99 och högre). Alternativt kan en organisation välja en mindre restriktiv likhetströskel (90 och högre), där påverkan av friktion för användaren är viktigare. Följande diagram illustrerar dessa avvägningar. Utmaningen för organisationer är att hitta en tröskel som minimerar både FMR och FNMR baserat på dina organisations- och applikationskrav.

FMR vs FNMR avvägning

Att välja en likhetströskel beror på affärsapplikationen. Anta till exempel att du vill begränsa kundfriktionen under onboarding (en mindre restriktiv likhetströskel, som visas i följande figur till vänster). Här kanske du har en lägre erforderlig likhetströskel, och är villig att acceptera risken att gå ombord på användare där förtroendet för matchningen mellan deras selfie och körkort är lägre. Anta däremot att du vill säkerställa att endast auktoriserade användare kommer in i ett program. Här kan du arbeta vid en ganska restriktiv likhetströskel (som visas i bilden till höger).

lägre likhetströskel hög likhetströskel

Steg för att beräkna falsk matchning och icke-matchning

Det finns flera sätt att beräkna dessa två mätvärden. Följande är ett relativt enkelt tillvägagångssätt för att dela upp stegen i att samla äkta bildpar, skapa en bedragarparning (bilder som inte borde matcha), och slutligen använda en sond för att loopa över de förväntade matchande och icke-matchande bildparen, fånga resulterande likhet. Stegen är som följer:

  1. Samla ett äkta exempelbildset. Vi rekommenderar att börja med en uppsättning bildpar och tilldela en extern identifierare, som används för att göra en officiell matchavgörande. Paret består av följande bilder:
    1. Källbild – Din betrodda källbild, till exempel ett körkort.
    2. Målbild – Din selfie eller bild du ska jämföra med.
  2. Samla en bilduppsättning av bedragare. Dessa är par av bilder där källan och målet inte matchar. Detta används för att bedöma FMR (sannolikheten att systemet felaktigt kommer att matcha ansiktena på två olika användare). Du kan skapa en bedragare bilduppsättning med bildparen genom att skapa en kartesisk produkt av bilderna och sedan filtrera och sampla resultatet.
  3. Undersök de äkta och bedragare matchningsuppsättningarna genom att gå över bildparen, jämföra källan och bedragarmålet och fånga den resulterande likheten.
  4. Beräkna FMR och FNMR genom att beräkna de falska positiva och falska negativa vid olika minimilikhetströsklar.

Du kan bedöma kostnaden för FMR och FNMR vid olika likhetströsklar i förhållande till din ansökans behov.

Steg 1: Samla äkta bildparprover

Att välja ett representativt urval av bildpar att utvärdera är avgörande när man utvärderar en identitetsverifieringstjänst. Det första steget är att identifiera en äkta uppsättning bildpar. Dessa är kända käll- och målbilder av en användare. Den äkta bildparningen används för att bedöma FNMR, i huvudsak sannolikheten att systemet inte matchar två ansikten på samma person. En av de första frågorna som ofta ställs är "Hur många bildpar behövs?" Svaret är att det beror på ditt användningsfall, men den allmänna vägledningen är följande:

  • Mellan 100–1,000 XNUMX bildpar ger ett mått på genomförbarheten
  • Upp till 10,000 XNUMX bildpar är tillräckligt stort för att mäta variationer mellan bilder
  • Mer än 10,000 XNUMX bildpar ger ett mått på driftkvalitet och generaliserbarhet

Mer data är alltid bättre; Använd dock som utgångspunkt minst 1,000 10,000 bildpar. Det är dock inte ovanligt att använda mer än XNUMX XNUMX bildpar för att nollställa en acceptabel FNMR eller FMR för ett givet affärsproblem.

Följande är ett exempel på bildparmappningsfil. Vi använder bildparmappningsfilen för att driva resten av utvärderingsprocessen.

EXTERNAL_ID KÄLLA MÅL TEST
9055 9055_M0.jpeg 9055_M1.jpeg äkta
19066 19066_M0.jpeg 19066_M1.jpeg äkta
11396 11396_M0.jpeg 11396_M1.jpeg äkta
12657 12657_M0.jpeg 12657_M1.jpeg äkta
. . . .

Steg 2: Skapa ett bedragare bildpar in

Nu när du har en fil med äkta bildpar kan du skapa en kartesisk produkt av mål- och källbilder där de externa identifierarna inte fungerar. Detta ger källa-till-mål-par som inte borde matcha. Denna parning används för att bedöma FMR, i huvudsak sannolikheten att systemet kommer att matcha ansiktet på en användare med ansiktet på en annan användare.

extern_id KÄLLA MÅL TEST
114192 114192_4M49.jpeg 307107_00M17.jpeg Bedragare
105300 105300_04F42.jpeg 035557_00M53.jpeg Bedragare
110771 110771_3M44.jpeg 120381_1M33.jpeg Bedragare
281333 281333_04F35.jpeg 314769_01M17.jpeg Bedragare
40081 040081_2F52.jpeg 326169_00F32.jpeg Bedragare
. . . .

Steg 3: Undersök de äkta och falska bildparseten

Med hjälp av ett drivrutinsprogram tillämpar vi Amazon-erkännande Jämför Faces API över bildparen och fånga likheten. Du kan också fånga ytterligare information som pose, kvalitet och andra resultat av jämförelsen. Likhetspoängen används för att beräkna antalet falska matchningar och icke-matchningar i följande steg.

I följande kodavsnitt tillämpar vi CompareFaces API på alla bildpar och fyller i alla likhetspoäng i en tabell:

obj = s3.get_object(Bucket= bucket_name , Key = csv_file)

df = pd.read_csv(io.BytesIO(obj['Body'].read()), encoding='utf8')
def compare_faces(source_file, target_file, threshold = 0):
    response=rekognition.compare_faces(SimilarityThreshold=threshold,
                                        SourceImage={'S3Object': {
                                                    'Bucket': bucket_name,
                                                    'Name':source_file}},
                                        TargetImage={'S3Object': {
                                                    'Bucket': bucket_name,
                                                    'Name':target_file}})
df_similarity = df.copy()
df_similarity["SIMILARITY"] = None
for index, row in df.iterrows():
    source_file = dataset_folder + row["SOURCE"]
    target_file = dataset_folder + row["TARGET"]
    response_score = compare_faces(source_file, target_file)
    df_similarity._set_value(index,"SIMILARITY", response_score)
    df_similarity.head()

Kodavsnittet ger följande utdata.

EXTERNAL_ID KÄLLA MÅL TEST LIKHET
9055 9055_M0.jpeg 9055_M1.jpeg äkta 98.3
19066 19066_M0.jpeg 19066_M1.jpeg äkta 94.3
11396 11396_M0.jpeg 11396_M1.jpeg äkta 96.1
. . . . .
114192 114192_4M49.jpeg 307107_00M17.jpeg Bedragare 0.0
105300 105300_04F42.jpeg 035557_00M53.jpeg Bedragare 0.0
110771 110771_3M44.jpeg 120381_1M33.jpeg Bedragare 0.0

Distributionsanalys av likhetspoäng genom test är en utgångspunkt för att förstå likhetspoängen efter bildpar. Följande kodavsnitt och utdatadiagram visar ett enkelt exempel på fördelningen av likhetspoäng efter testuppsättning samt resulterande beskrivande statistik:

sns.boxplot(data=df_similarity,
            x=df_similarity["SIMILARITY"],
            y=df_similarity["TEST"]).set(xlabel='Similarity Score',
            ylabel=None,
            title = "Similarity Score Distribution")
plt.show()

likhetspoängfördelning

df_descriptive_stats = pd.DataFrame(columns=['test','count', 'min' , 'max', 'mean', 'median', 'std'])

tests = ["Genuine", "Imposter"]

for test in tests:
    count = df_similarity['SIMILARITY'].loc[df_similarity['TEST'] == test].count()
    mean = df_similarity['SIMILARITY'].loc[df_similarity['TEST'] == test].mean()
    max_ = df_similarity['SIMILARITY'].loc[df_similarity['TEST'] == test].max()
    min_ = df_similarity['SIMILARITY'].loc[df_similarity['TEST'] == test].min()
    median = df_similarity['SIMILARITY'].loc[df_similarity['TEST'] == test].median()
    std = df_similarity['SIMILARITY'].loc[df_similarity['TEST'] == test].std()

    new_row = {'test': test,
                'count': count,
                'min': min_,
                'max': max_,
                'mean': mean,
                'median':median,
                'std': std}
    df_descriptive_stats = df_descriptive_stats.append(new_row,
    ignore_index=True)

df_descriptive_stats

testa räkna min max betyda median std
verklig 204 0.2778 99.9957 91.7357 99.0961 19.9097
bedragare 1020 0.0075 87.3893 2.8111 0.8330 7.3496

I det här exemplet kan vi se att medel- och medianlikheten för äkta ansiktspar var 91.7 och 99.1, medan för bedragarparen var 2.8 respektive 0.8. Som förväntat visar detta de höga likhetspoängen för äkta bildpar och låga likhetspoäng för bedragare bildpar.

Steg 4: Beräkna FMR och FNMR vid olika likhetströskelnivåer

I det här steget beräknar vi andelen falsk matchning och icke-matchning vid olika tröskelvärden för likhet. För att göra detta går vi helt enkelt igenom likhetströsklar (till exempel 90–100). Vid varje vald likhetströskel beräknar vi vår förvirringsmatris som innehåller sanna positiva, sanna negativa, falska positiva och falska negativa räkningar, som används för att beräkna FMR och FNMR vid varje vald likhet.

Faktisk
förutspått
. Match Ingen match
>= vald likhet TP FP
< vald likhet FN TN

För att göra detta skapar vi en funktion som returnerar de falska positiva och negativa siffrorna och går igenom en rad likhetspoäng (90–100):

similarity_thresholds = [80,85,90,95,96,97,98,99]

# create output df
df_cols = ['Similarity Threshold', 'TN' , 'FN', 'TP', 'FP', 'FNMR (%)', 'FMR (%)']
comparison_df = pd.DataFrame(columns=df_cols)

# create columns for y_actual and y_pred
df_analysis = df_similarity.copy()
df_analysis["y_actual"] = None
df_analysis["y_pred"] = None

for threshold in similarity_thresholds:
    # Create y_pred and y_actual columns, 1 == match, 0 == no match
    for index, row in df_similarity.iterrows():
        # set y_pred
        if row["SIMILARITY"] >= threshold:
            df_analysis._set_value(index,"y_pred", 1)
        else:
            df_analysis._set_value(index,"y_pred", 0)

        # set y_actual
        if row["TEST"] == "Genuine":
            df_analysis._set_value(index,"y_actual", 1)
        else:
            df_analysis._set_value(index,"y_actual", 0)

    tn, fp, fn, tp = confusion_matrix(df_analysis['y_actual'].tolist(),
                                      df_analysis['y_pred'].tolist()).ravel()
    FNMR = fn / (tp + fn)
    FMR = fp / (tn+fp+fn+tp)

    new_row = {'Similarity Threshold': threshold,
                'TN': tn,
                'FN': fn,
                'TP': tp,
                'FP': fp,
                'FNMR (%)':FNMR,
                'FMR (%)': FMR}
    comparison_df = comparison_df.append(new_row,ignore_index=True)

comparison_df

Följande tabell visar resultaten av räkningarna vid varje likhetströskel.

Likhetströskel TN FN TP FP FNMR FMR
80 1019 22 182 1 0.1% 0.1%
85 1019 23 181 1 0.11% 0.1%
90 1020 35 169 0 0.12% 0.0%
95 1020 51 153 0 0.2% 0.0%
96 1020 53 151 0 0.25% 0.0%
97 1020 60 144 0 0.3% 0.0%
98 1020 75 129 0 0.4% 0.0%
99 1020 99 105 0 0.5% 0.0%

Hur påverkar likhetströskeln andelen falska icke-matchningar?

Anta att vi har 1,000 10 äkta användarintroduktionsförsök och att vi avvisar 95 av dessa försök baserat på en nödvändig minsta likhet på 10 % för att betraktas som en matchning. Här avvisar vi 1.0 äkta onboardingförsök (falskt negativ) eftersom deras likhet faller under den specificerade minsta nödvändiga likhetströskeln. I det här fallet är vår FNMR XNUMX %.

Faktisk
förutspått
. Match Ingen match
>= 95% likhet 990 0
< 95 % likhet 10 0
. Totalt 1,000 .

FNMR = Falskt negativt antal / (True Positive Count + False Negative Count)

FNMR = 10 / (990 + 10) eller 1.0 %

Anta däremot att istället för att ha 1,000 990 äkta användare ombord, har vi 10 äkta användare och 95 bedragare (falskt positivt). Med en minsta likhet på 1,000 %, anta att vi accepterar alla 1 XNUMX användare som äkta. Här skulle vi ha XNUMX% FMR.

Faktisk
förutspått
. Match Ingen match Totalt
>= 95% likhet 990 10 1,000
< 95 % likhet 0 0 .

FMR = False Positive Count / (Totalt antal försök)

FMR = 10 / (1,000 1.0) eller XNUMX %

Bedöma kostnader för FMR och FNMR vid onboarding

I ett användningsfall för onboarding är kostnaden för en falsk icke-matchning (ett avslag) vanligtvis förknippat med ytterligare användarfriktion eller förlust av en registrering. Anta till exempel, i vårt bankanvändningsfall, att Julie presenterar två bilder av sig själv men felaktigt avvisas vid tidpunkten för introduktionen eftersom likheten mellan de två bilderna faller under den valda likheten (en falsk icke-matchning). Finansinstitutet kan riskera att förlora Julie som potentiell kund, eller så kan det orsaka Julie ytterligare friktion genom att kräva att hon utför åtgärder för att bevisa sin identitet.

Omvänt, anta att de två bilderna av Julie är av olika människor och att Julies onboarding borde ha avvisats. I det fall då Julie är felaktigt accepterad (en falsk matchning), är kostnaden och risken för finansinstitutet helt annorlunda. Det kan finnas regulatoriska frågor, risk för bedrägerier och andra risker i samband med finansiella transaktioner.

Ansvarsfull användning

Artificiell intelligens (AI) tillämpad genom maskininlärning (ML) kommer att vara en av de mest transformerande teknologierna i vår generation, som tar itu med några av mänsklighetens mest utmanande problem, ökar mänsklig prestation och maximerar produktiviteten. Ansvarsfull användning av dessa tekniker är nyckeln till att främja fortsatt innovation. AWS har åtagit sig att utveckla rättvisa och korrekta AI- och ML-tjänster och ge dig de verktyg och vägledning som behövs för att bygga AI- och ML-applikationer på ett ansvarsfullt sätt.

När du anammar och ökar din användning av AI och ML, erbjuder AWS flera resurser baserade på vår erfarenhet för att hjälpa dig med ansvarsfull utveckling och användning av AI och ML:

Bästa metoder och vanliga misstag att undvika

I det här avsnittet diskuterar vi följande bästa praxis:

  • Använd ett tillräckligt stort urval av bilder
  • Undvik öppen källkod och syntetiska ansiktsdatauppsättningar
  • Undvik manuell och syntetisk bildmanipulation
  • Kontrollera bildkvaliteten vid utvärderingstillfället och över tid
  • Övervaka FMR och FNMR över tid
  • Använd en människa i slingan recension
  • Håll dig uppdaterad med Amazon Rekognition

Använd ett tillräckligt stort urval av bilder

Använd ett tillräckligt stort men rimligt urval av bilder. Vad är en rimlig urvalsstorlek? Det beror på affärsproblemet. Om du är en arbetsgivare och har 10,000 10,000 anställda som du vill autentisera, är det förmodligen rimligt att använda alla 5,000 20,000 bilder. Anta dock att du är en organisation med miljontals kunder som du vill ha med. I det här fallet räcker det nog att ta ett representativt urval av kunder som XNUMX XNUMX–XNUMX XNUMX. Här är lite vägledning om urvalsstorleken:

  • En provstorlek på 100 – 1,000 XNUMX bildpar bevisar genomförbarhet
  • En provstorlek på 1,000 – 10,000 XNUMX bildpar är användbart för att mäta variationer mellan bilder
  • En provstorlek på 10,000 – 1 miljon bildpar ger ett mått på driftkvalitet och generaliserbarhet

Nyckeln med att sampla bildpar är att säkerställa att provet ger tillräckligt med variation över populationen av ansikten i din applikation. Du kan utöka ditt urval och testning ytterligare till att inkludera demografisk information som hudton, kön och ålder.

Undvik öppen källkod och syntetiska ansiktsdatauppsättningar

Det finns dussintals kurerade uppsättningar av ansiktsbilder med öppen källkod såväl som häpnadsväckande realistiska syntetiska ansiktsuppsättningar som ofta används i forskning och för att studera genomförbarhet. Utmaningen är att dessa datauppsättningar i allmänhet inte är användbara för 99 % av verkliga användningsfall bara för att de inte är representativa för kamerorna, ansikten och kvaliteten på bilderna som din applikation sannolikt kommer att stöta på i naturen. Även om de är användbara för applikationsutveckling, generaliserar inte noggrannhetsmåtten för dessa bilduppsättningar till vad du kommer att stöta på i din egen applikation. Istället rekommenderar vi att du börjar med ett representativt urval av verkliga bilder från din lösning, även om exempelbildsparen är små (under 1,000 XNUMX).

Undvik manuell och syntetisk bildmanipulation

Det finns ofta kantfall som folk är intresserade av att förstå. Saker som bildfångstkvalitet eller förvirring av specifika ansiktsdrag är alltid av intresse. Till exempel får vi ofta frågor om hur ålder och bildkvalitet påverkar ansiktsigenkänning. Du kan helt enkelt syntetiskt åldra ett ansikte eller manipulera bilden för att få motivet att se äldre ut, eller manipulera bildkvaliteten, men detta översätts inte bra till verklig åldrande av bilder. Istället är vår rekommendation att samla ett representativt urval av verkliga edge-fall du är intresserad av att testa.

Kontrollera bildkvaliteten vid utvärderingstillfället och över tid

Kamera- och applikationsteknik förändras ganska snabbt över tiden. Som en bästa praxis rekommenderar vi att du övervakar bildkvaliteten över tid. Från storleken på ansikten som tagits (med hjälp av begränsningsrutor), till ljusstyrkan och skärpan i en bild, till posituren för ett ansikte, såväl som potentiella förvirringar (hattar, solglasögon, skägg och så vidare), alla dessa bilder och ansiktsdrag förändras över tiden.

Övervaka FNMR och FMR över tid

Förändringar sker, oavsett om det är bilderna, applikationen eller likhetströskelvärdena som används i applikationen. Det är viktigt att regelbundet övervaka antalet falska matchningar och icke-matchningar över tid. Förändringar i hastigheterna (även subtila förändringar) kan ofta peka på uppströms utmaningar med applikationen eller hur applikationen används. Ändringar av likhetströsklar och affärsregler som används för att fatta beslut om att acceptera eller avvisa kan ha stor inverkan på användarupplevelser för onboarding och autentisering.

Använd en människa i slingan recension

Identitetsverifieringssystem fattar automatiska beslut om matchning och icke-matchning baserat på likhetströsklar och affärsregler. Förutom regulatoriska och interna efterlevnadskrav är en viktig process i alla automatiserade beslutssystem att använda mänskliga granskare som en del av den löpande övervakningen av beslutsprocessen. Mänsklig tillsyn av dessa automatiserade beslutssystem ger validering och kontinuerliga förbättringar samt transparens i den automatiserade beslutsprocessen.

Håll dig uppdaterad med Amazon Rekognition

Amazon Recognition faces-modellen uppdateras regelbundet (vanligtvis årligen) och finns för närvarande på version 6. Denna uppdaterade version gjorde viktiga förbättringar av noggrannhet och indexering. Det är viktigt att hålla dig uppdaterad med nya modellversioner och förstå hur du använder dessa nya versioner i din identitetsverifieringsapplikation. När nya versioner av Amazon Rekognition-ansiktsmodellen lanseras är det god praxis att köra din identitetsverifieringsutvärderingsprocess igen och avgöra eventuella effekter (positiva och negativa) på dina falska matchningar och icke-matchningar.

Slutsats

Det här inlägget diskuterar nyckelelementen som behövs för att utvärdera prestandaaspekten av din identitetsverifieringslösning i termer av olika noggrannhetsmått. Men noggrannhet är bara en av de många dimensioner som du behöver utvärdera när du väljer en viss innehållsmodereringstjänst. Det är viktigt att du inkluderar andra parametrar, såsom tjänstens totala funktionsuppsättning, användarvänlighet, befintliga integrationer, integritet och säkerhet, anpassningsalternativ, skalbarhetsimplikationer, kundservice och prissättning.

För att lära dig mer om identitetsverifiering i Amazon Rekognition, besök Identitetsverifiering med Amazon Rekognition.


Om författarna

Mätvärden för att utvärdera en identitetsverifieringslösning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.Mike Ames är en datavetare som blivit specialist på lösningar för identitetsverifiering, med lång erfarenhet av att utveckla maskininlärning och AI-lösningar för att skydda organisationer från bedrägerier, slöseri och missbruk. På fritiden kan du hitta honom på vandring, mountainbike eller leka freebee med sin hund Max.

Mätvärden för att utvärdera en identitetsverifieringslösning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.Amit Gupta är senior AI Services Solutions Architect på AWS. Han brinner för att möjliggöra för kunder med väl utformade maskininlärningslösningar i stor skala.

Mätvärden för att utvärdera en identitetsverifieringslösning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.Zuhayr Raghib är en AI Services Solutions Architect på AWS. Han är specialiserad på tillämpad AI/ML och brinner för att göra det möjligt för kunder att använda molnet för att förnya sig snabbare och transformera sina verksamheter.

Mätvärden för att utvärdera en identitetsverifieringslösning PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.Marcel Pividal är en Sr. AI Services Solutions Architect i den världsomspännande specialistorganisationen. Marcel har mer än 20 års erfarenhet av att lösa affärsproblem genom teknik för fintechs, betalningsleverantörer, läkemedel och statliga myndigheter. Hans nuvarande fokusområden är riskhantering, bedrägeriförebyggande och identitetsverifiering.

Tidsstämpel:

Mer från AWS maskininlärning