Hvis AI-chatbots er sansende, kan de også være egern, PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Hvis AI-chatbots er sansende, kan de også være egern

Kort sagt Nej, AI-chatbots er ikke sansende.

Lige så snart historie på en Google-ingeniør, der fløjtede af, hvad han hævdede var en sansende sprogmodel, gik viralt, flere publikationer trådte ind for at sige, at han tog fejl.

debat på, om virksomhedens LaMDA chatbot er bevidst eller har en sjæl eller ej, er ikke særlig god, bare fordi det er for nemt at lukke ned for den side, der tror på det. Ligesom de fleste store sprogmodeller har LaMDA milliarder af parametre og blev trænet på tekst skrabet fra internettet. Modellen lærer relationerne mellem ord, og hvilke der er mere tilbøjelige til at dukke op ved siden af ​​hinanden.

Det virker intelligent nok og er nogle gange i stand til at besvare spørgsmål korrekt. Men den ved intet om, hvad den siger, og den har ingen reel forståelse af sprog eller noget som helst i virkeligheden. Sprogmodeller opfører sig tilfældigt. Spørg den, om den har følelser, og den siger måske ja eller ingen. Spørg om det er en egern, og den siger måske også ja eller nej. Er det muligt, at AI-chatbots faktisk er egern?

FTC slår alarm ved brug af AI til indholdsmoderering

AI ændrer internettet. Realistisk udseende fotos bruges i profiler af falske konti på sociale medier, pornografiske deepfake-videoer af kvinder cirkulerer, billeder og tekst genereret af algoritmer bliver lagt online.

Eksperter har advaret om, at disse funktioner kan øge risikoen for bedrageri, bots, misinformation, chikane og manipulation. Platforme henvender sig i stigende grad til AI-algoritmer for automatisk at opdage og fjerne dårligt indhold.

Nu advarer FTC om, at disse metoder kan gøre problemerne værre. "Vores rapport understreger, at ingen bør behandle kunstig intelligens som løsningen på spredningen af ​​skadeligt onlineindhold," Samuel Levine, direktør for FTC's Bureau of Consumer Protection, sagde i en erklæring.

Desværre kan teknologien være "unøjagtig, forudindtaget og diskriminerende af design". "Bekæmpelse af onlineskader kræver en bred samfundsmæssig indsats, ikke en alt for optimistisk tro på, at ny teknologi - som kan være både nyttig og farlig - vil tage disse problemer fra vores hænder," sagde Levine.

Spotify opfanger en deepfake stemmeopstart

Lydstreaming-giganten Spotify har opkøbt Sonantic, en London-baseret opkomling, der fokuserer på at bygge AI-software, der er i stand til at generere fuldstændigt sammensatte stemmer.

Sonantics teknologi er blevet brugt til spil og i Hollywood-film, hvilket har hjulpet med at give skuespilleren Val Kilmer en stemme i Top Gun: Maverick. Kilmer spillede Iceman i actionfilmen; hans replikker blev udtalt af en maskine på grund af talebesvær efter at have kæmpet mod kræft i halsen.

Nu ser den samme teknologi også ud til at være på vej til Spotify. Den åbenlyse applikation ville være at bruge AI-stemmerne til at læse lydbøger. Spotify, trods alt, erhvervede Findaway, en lydbogsplatform, sidste år i november. Det bliver interessant at se, om lyttere vil være i stand til at tilpasse, hvordan de ønsker, at deres maskinfortællere skal lyde. Måske vil der være forskellige stemmer til højtlæsning af børnebøger sammenlignet med gyserhistorier.

"Vi er virkelig begejstrede for potentialet i at bringe Sonantics AI-stemmeteknologi ind på Spotify-platformen og skabe nye oplevelser for vores brugere," Ziad Sultan, Spotifys vicepræsident for personalisering, sagde i en udtalelse. "Denne integration vil gøre os i stand til at engagere brugerne på en ny og endnu mere personlig måde," antydede han.

TSA tester AI-software til automatisk at scanne bagage

Den amerikanske transportsikkerhedsadministration vil teste, om computervisionssoftware automatisk kan screene bagage for at holde øje med genstande, der ser mærkelige ud eller ikke er tilladt på flyvninger.

Forsøget vil finde sted i et laboratorium og er endnu ikke klar til rigtige lufthavne. Softwaren fungerer med den allerede eksisterende 3D Computed Tomography (CT) billeddannelse, som TSA-officerer bruger til i øjeblikket at kigge gennem folks tasker ved sikkerhedskontrolpunkter. Hvis agenter ser noget mistænkeligt udseende, vil de tage bagagen til den ene side og rifle gennem den.

AI-algoritmer kan automatisere noget af den proces; de kan identificere objekter og markere tilfælde, hvor de opdager bestemte genstande.

"Efterhånden som TSA og andre sikkerhedsbureauer anvender CT, repræsenterer denne anvendelse af kunstig intelligens et potentielt transformerende spring inden for luftfartssikkerhed, der gør flyrejser sikrere og mere konsekvente, samtidig med at TSA's højtuddannede officerer kan fokusere på tasker, der udgør den største risiko." sagde Alexis Long, produktdirektør hos Pangiam, teknologivirksomheden, der arbejder med administrationen.

"Vores mål er at bruge AI og computervisionsteknologier til at forbedre sikkerheden ved at give TSA og sikkerhedsofficerer kraftfulde værktøjer til at opdage uoverkommelige genstande, der kan udgøre en trussel mod luftfartssikkerheden, er et vigtigt skridt i retning af at sætte en ny sikkerhedsstandard med verdensomspændende implikationer." ®

Tidsstempel:

Mere fra Registret