Hvis AI chatbots er sansende, kan de være ekorn, også PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Hvis AI chatbots er sansende, kan de også være ekorn

Kort sagt Nei, AI chatbots er ikke sansende.

Akkurat så snart historie på en Google-ingeniør, som blåste i fløyta på det han hevdet var en sansende språkmodell, gikk viralt, gikk flere publikasjoner inn for å si at han tok feil.

De debatt om selskapets LaMDA chatbot er bevisst eller har en sjel eller ikke er ikke en veldig god en, bare fordi det er for lett å stenge ned den siden som tror den gjør det. Som de fleste store språkmodeller har LaMDA milliarder av parametere og ble trent på tekst som er skrapet fra internett. Modellen lærer relasjonene mellom ord, og hvilke som er mer sannsynlig å dukke opp ved siden av hverandre.

Den virker intelligent nok, og er i stand til å svare riktig på spørsmål noen ganger. Men den vet ingenting om hva den sier, og har ingen reell forståelse av språk eller noe som helst egentlig. Språkmodeller oppfører seg tilfeldig. Spør den om den har følelser og den kan si ja eller Nei.. Spør om det er en ekorn, og det kan også si ja eller nei. Er det mulig AI-chatbots faktisk kan være ekorn?

FTC slår alarm ved bruk av AI for innholdsmoderering

AI endrer internett. Realistisk utseende bilder brukes i profiler av falske kontoer på sosiale medier, pornografiske dypfalske videoer av kvinner sirkulerer, bilder og tekst generert av algoritmer legges ut på nettet.

Eksperter har advart om at disse egenskapene kan øke risikoen for svindel, roboter, feilinformasjon, trakassering og manipulasjon. Plattformer bruker i økende grad AI-algoritmer for automatisk å oppdage og fjerne dårlig innhold.

Nå advarer FTC om at disse metodene kan gjøre problemene verre. "Rapporten vår understreker at ingen bør behandle AI som løsningen på spredningen av skadelig nettinnhold," Samuel Levine, direktør for FTCs Bureau of Consumer Protection, sa i en uttalelse.

Dessverre kan teknologien være "unøyaktig, partisk og diskriminerende av design". "Bekjempelse av online skade krever en bred samfunnsinnsats, ikke en altfor optimistisk tro på at ny teknologi - som kan være både nyttig og farlig - vil ta disse problemene fra våre hender," sa Levine.

Spotify fanger opp deepfake stemmeoppstart

Lydstrømminggiganten Spotify har kjøpt opp Sonantic, en London-basert oppkomling som fokuserer på å bygge AI-programvare som er i stand til å generere fullstendig sammensatte stemmer.

Sonantics teknologi har blitt brukt til spilling og i Hollywood-filmer, og har bidratt til å gi skuespilleren Val Kilmer en stemme i Top Gun: Maverick. Kilmer spilte Iceman i actionfilmen; replikkene hans ble uttalt av en maskin på grunn av talevansker etter å ha kjempet mot halskreft.

Nå ser den samme teknologien ut til å være på vei til Spotify også. Den åpenbare applikasjonen ville være å bruke AI-stemmene til å lese lydbøker. Spotify, tross alt, ervervet Findaway, en lydbokplattform, i fjor i november. Det blir interessant å se om lyttere vil kunne tilpasse hvordan de vil at maskinfortellerne skal høres ut. Kanskje vil det være forskjellige stemmer for å lese høyt barnebøker sammenlignet med skrekkhistorier.

"Vi er veldig begeistret for potensialet til å bringe Sonantics AI-stemmeteknologi inn på Spotify-plattformen og skape nye opplevelser for brukerne våre," Ziad Sultan, Spotifys visepresident for personalisering, sa i en uttalelse. "Denne integrasjonen vil gjøre oss i stand til å engasjere brukere på en ny og enda mer personlig måte," antydet han.

TSA tester AI-programvare for automatisk skanning av bagasje

US Transportation Security Administration vil teste om datasynsprogramvare automatisk kan skjerme bagasjen for å se etter gjenstander som ser rare ut eller ikke er tillatt på flyreiser.

Prøven vil finne sted i et laboratorium og er ennå ikke klar for ekte flyplasser. Programvaren fungerer med den allerede eksisterende 3D Computed Tomography (CT)-bildebehandlingen som TSA-offiserer bruker for for øyeblikket å kikke gjennom folks vesker ved sikkerhetskontroller. Hvis agenter ser noe som ser mistenkelig ut, tar de bagasjen til den ene siden og rifler gjennom den.

AI-algoritmer kan automatisere noe av denne prosessen; de kan identifisere objekter og flagge tilfeller der de oppdager bestemte gjenstander.

"Når TSA og andre sikkerhetsbyråer tar i bruk CT, representerer denne bruken av AI et potensielt transformerende sprang innen luftfartssikkerhet, noe som gjør flyreiser tryggere og mer konsekvente, samtidig som det lar TSAs høyt trente offiserer fokusere på bagger som utgjør den største risikoen," sa Alexis Long, produktdirektør i Pangiam, teknologiselskapet som jobber med administrasjonen.

"Vårt mål er å bruke AI og datasynsteknologier for å forbedre sikkerheten ved å gi TSA og sikkerhetsoffiserer kraftige verktøy for å oppdage uoverkommelige gjenstander som kan utgjøre en trussel mot luftfartssikkerheten, er et viktig skritt mot å sette en ny sikkerhetsstandard med verdensomspennende implikasjoner." ®

Tidstempel:

Mer fra Registeret