Ar fi AI Police Bots o alternativă mai sigură în viitor? PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Ar fi AI Police Bots o alternativă mai sigură în viitor?

Inteligența artificială (AI) devine rapid un instrument valoros în majoritatea industriilor. Aceste sisteme software pot sorta cantități masive de date într-o fracțiune din timpul în care ar trebui unui analist uman să facă același lucru.

Sistemele AI au devenit vitale în domeniul sănătății și în cercetarea farmaceutică, retail, marketing, finanțe și multe altele. Unii susținători au luat în considerare chiar utilizarea acestei tehnologii în aplicarea legii. Ar fi boții de poliție AI o alternativă mai sigură în viitor?

„Cea mai obișnuită utilizare a inteligenței artificiale în munca de poliție în acest moment este recunoașterea facială – monitorizarea fețelor persoanelor în zonele cu trafic intens, cum ar fi gările sau evenimentele semnificative.” 

Beneficiile AI în munca de poliție

Întreaga lume este cufundată în tehnologie. Totul, de la telefonul mobil din buzunar sau poșetă până la tehnologia inteligentă care face viața acasă mai ușoară, se bazează pe unul dintre numeroasele limbaje de programare care alimentează lumea. Munca poliției moderne nu face excepție. Cea mai obișnuită utilizare a inteligenței artificiale în munca de poliție chiar acum este recunoașterea facială – monitorizarea fețelor persoanelor în zonele cu trafic intens, cum ar fi gările sau evenimentele semnificative.

Camerele corporale colectează cantități masive de înregistrări video, toate putând fi folosite ca dovezi ale unei crime. Deși revizuirea manuală a acestui material video este posibilă, nu este o opțiune eficientă. Un sistem AI poate sorta filmările, căutând modele sau identificând informații într-o fracțiune din timpul necesar unui analist uman pentru a finaliza aceeași sarcină.

„Roboții ar putea deveni instrumente valoroase pentru colectarea dovezilor. Roboții nu au celule de păr sau de piele care ar putea contamina locul crimei, asigurând un lanț de custodie mai bun.” 

Axon, cel mai mare producător de camere ale poliției din țară, a pilotat un astfel de program în 2014, susținând că AI-ul său ar putea descrie cu acuratețe evenimentele afișate în filmările cu camera corporală. În 2019, ei a decis să nu comercializeze programarea. Testele au arătat că programele au oferit o identificare nesigură și inegală între diferite rase și etnii.

Roboții ar putea deveni instrumente valoroase pentru colectarea dovezilor. Roboții nu au celule de păr sau de piele care ar putea contamina locul crimei, asigurarea unui lanț de custodie mai bun. De asemenea, înseamnă mai puține erori care ar putea împiedica o condamnare sau ar putea lăsa o persoană nevinovată în închisoare acuzată de o crimă pe care nu a comis-o.

Din păcate, roboții de securitate nu sunt în prezent cele mai inteligente instrumente din depozitul de instrumente. Un robot de securitate pe nume Steve a fost programat să patruleze complexul Washington Harbour de pe malul râului din Washington, DC. se rostogoli pe scări și a încercat să se înece într-o fântână.

„O supraveghere cuprinzătoare ar fi necesară pentru a introduce în forță orice robot de poliție alimentat de inteligență artificială” 

Pericolele roboților poliției AI

Riscul cel mai semnificativ constă în faptul că oamenii încă programează aceste dispozitive și, ca atare, sunt supuși unor părtiniri umane. Cum pot programatorii să creeze un sistem AI imparțial atunci când învață aceste rețele cum să gândească și să își îndeplinească sarcinile? Este aceeași problemă ca și mașinile care se conduc singure confruntându-se cu problema căruciorului exercițiu de gândire. Învață ei sistemul să omoare o persoană pentru a salva cinci sau pur și simplu nu decid?

Ar fi necesară o supraveghere cuprinzătoare pentru a introduce în forță orice robot de poliție alimentat de inteligență artificială. Fără această supraveghere, nu există nimic sau nimic care să împiedice pe cineva să programeze aceste sisteme pentru a viza persoanele BIPOC. Instrumentele concepute pentru a salva vieți și a preveni criminalitatea ar putea fi ușor transformate în instrumente de opresiune.

Google a arătat deja că aceasta era o posibilitate în 2017, cu una dintre cele mai timpurii încarnări ale AI de procesare a limbajului natural. Homofobia era scris în programarea sa de bază, acordând evaluări negative oricăror căutări care au implicat cuvântul „gay”. De atunci, Google a remediat problema și și-a cerut scuze pentru părtinirea programată. Totuși, această eroare arată cât de ușor ar fi ca această tehnologie să fie abuzată, chiar dacă părtinirea nu este conștientă.

Inteligența artificială a fost mult timp antagonistul favorit în divertismentul futurist. Publicul l-a văzut prezentat în multe francize de-a lungul anilor și aproape toți acești antagoniști au un lucru în comun: IA determină că oamenii nu mai sunt capabili să aibă grijă de ei înșiși, așa că iau măsuri extreme - inclusiv distrugerea rasei umane - pentru a „proteja” omenirea de ea însăși.

Boții de poliție cu inteligență artificială probabil că nu ar merge atât de departe, dar nu inteligența artificială este cea care stârnește frica – este îngrijorarea că tehnologia ar putea fi exploatată, lăsând comunitățile vulnerabile în pericol.

Crearea unui viitor mai sigur

Inteligența artificială și instrumentele pe care le sprijină devin parte din viața noastră de zi cu zi, dar asta nu înseamnă că tehnologia este lipsită de riscuri. Inteligența artificială ar putea ajuta la protejarea oamenilor prin prevenirea sau soluționarea crimelor, dar ar putea fi exploatată cu ușurință pentru a dăuna BIPOC și comunităților.

Boții de poliție AI sunt probabil valul viitorului, dar au nevoie de multă muncă înainte ca comunitățile să poată avea încredere în ei pentru a proteja pe toată lumea, indiferent de culoare sau crez.

De asemenea, Citiți Viitorul roboticii în domeniul intern

Timestamp-ul:

Mai mult de la Tehnologia AIIOT