Om AI-chatbotar är kännande kan de vara ekorrar, också PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Om AI-chatbotar är kännande kan de också vara ekorrar

I korthet Nej, AI-chatbotar är inte kännande.

Precis så snart som Historien på en Google-ingenjör, som blåste i visselpipan om vad han påstod var en kännande språkmodell, gick viralt, flera publikationer gick in för att säga att han hade fel.

Smakämnen diskussion på om företagets LaMDA chatbot är medveten eller har en själ eller inte är inte särskilt bra, bara för att det är för lätt att stänga av den sida som tror att den gör det. Liksom de flesta stora språkmodeller har LaMDA miljarder parametrar och tränades på text skrapad från internet. Modellen lär sig sambanden mellan ord, och vilka som är mer benägna att dyka upp bredvid varandra.

Det verkar intelligent nog och kan besvara frågor korrekt ibland. Men den vet ingenting om vad den säger och har ingen verklig förståelse för språk eller något som helst egentligen. Språkmodeller beter sig slumpmässigt. Fråga den om den har känslor och den kanske säger ja eller Nej. Fråga om det är en squirrel, och det kan säga ja eller nej också. Är det möjligt att AI-chatbotar faktiskt kan vara ekorrar?

FTC larmar vid användning av AI för innehållsmoderering

AI förändrar internet. Realistiska bilder används i profiler av falska konton på sociala medier, pornografiska djupfalska videor på kvinnor cirkulerar, bilder och text som genereras av algoritmer läggs ut online.

Experter har varnat för att dessa funktioner kan öka riskerna för bedrägerier, bots, desinformation, trakasserier och manipulation. Plattformar vänder sig alltmer till AI-algoritmer för att automatiskt upptäcka och ta bort dåligt innehåll.

Nu varnar FTC för att dessa metoder kan göra problemen värre. "Vår rapport betonar att ingen ska behandla AI som lösningen på spridningen av skadligt onlineinnehåll," Samuel Levine, chef för FTC:s Bureau of Consumer Protection, sade i ett uttalande.

Tyvärr kan tekniken vara "felaktig, partisk och diskriminerande till sin design". "Att bekämpa onlineskada kräver en bred samhällelig ansträngning, inte en alltför optimistisk övertygelse om att ny teknik - som kan vara både hjälpsam och farlig - kommer att ta dessa problem ur våra händer", sa Levine.

Spotify snappar upp deepfake röststart

Ljudströmningsjätten Spotify har förvärvat Sonantic, en Londonbaserad uppkomling som fokuserar på att bygga AI-mjukvara som kan generera helt påhittade röster.

Sonantics teknologi har använts för spel och i Hollywood-filmer, vilket hjälper till att ge skådespelaren Val Kilmer en röst i Top Gun: Maverick. Kilmer spelade Iceman i actionfilmen; hans repliker uttalades av en maskin på grund av talsvårigheter efter att ha kämpat mot halscancer.

Nu ser samma teknik ut att vara på väg till Spotify också. Den uppenbara applikationen skulle vara att använda AI-röster för att läsa ljudböcker. Spotify, trots allt, förvärvade Findaway, en ljudboksplattform, förra året i november. Det ska bli intressant att se om lyssnarna kommer att kunna anpassa hur de vill att deras maskinberättare ska låta. Kanske kommer det att finnas olika röster för högläsning av barnböcker jämfört med skräckhistorier.

"Vi är verkligen glada över potentialen att ta med Sonantics AI-röstteknologi till Spotify-plattformen och skapa nya upplevelser för våra användare," Ziad Sultan, Spotifys vice vd för personalisering, sade i ett påstående. "Denna integration kommer att göra det möjligt för oss att engagera användare på ett nytt och ännu mer personligt sätt," antydde han.

TSA testar AI-mjukvara för att automatiskt skanna bagage

US Transportation Security Administration kommer att testa om datorseende programvara automatiskt kan screena bagage för att hålla utkik efter föremål som ser konstiga ut eller inte är tillåtna på flyg.

Försöket kommer att äga rum i ett labb och är ännu inte redo för riktiga flygplatser. Mjukvaran fungerar med den redan befintliga 3D Computed Tomography (CT)-avbildningen som TSA-tjänstemän använder för att för närvarande titta igenom människors väskor vid säkerhetskontroller. Om agenter ser något som ser misstänkt ut, tar de bagaget åt sidan och skjuter igenom det.

AI-algoritmer kan automatisera en del av den processen; de kan identifiera objekt och flagga instanser där de upptäcker särskilda objekt.

"När TSA och andra säkerhetsbyråer använder CT, representerar denna tillämpning av AI ett potentiellt transformerande steg inom flygsäkerhet, vilket gör flygresor säkrare och mer konsekventa, samtidigt som TSA:s högutbildade officerare kan fokusera på väskor som utgör den största risken." sade Alexis Long, produktdirektör på Pangiam, teknikföretaget som arbetar med administrationen.

"Vårt mål är att använda AI och datorseendeteknologier för att förbättra säkerheten genom att förse TSA och säkerhetstjänstemän med kraftfulla verktyg för att upptäcka oöverkomliga föremål som kan utgöra ett hot mot flygsäkerheten är ett viktigt steg mot att sätta en ny säkerhetsstandard med världsomspännande implikationer." ®

Tidsstämpel:

Mer från Registret