Metas nya AI-talverktyg är färdigt för Deepfakes - så det släpps inte - Dekryptera

Metas nya AI-talverktyg är färdigt för Deepfakes – så det släpps inte – Dekryptera

Metas nya AI-talverktyg är färdigt för Deepfakes - så det släpps inte - Dekryptera PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

meta fortsatte sitt tryck in i det allt mer trånga AI-fältet på fredagen och tillkännagav skapandet av ett verktyg som heter Röstlåda. Det är en app för att generera talad dialog med en mängd olika potentiella användningsfall – men den är också mogen för missbruk, som Meta medger, vilket är exakt varför sociala mediejätten inte släpper Voicebox till allmänheten än.

Till skillnad från tidigare röstgeneratorplattformar säger Meta att Voicebox kan utföra talgenereringsuppgifter som den inte har tränats specifikt på. Med textinmatning och ett kort ljudklipp för sammanhang kan AI-verktyget skapa en potentiellt trovärdig bit av nytt tal som låter som vem som helst som var med i källklippet.

"Före Voicebox krävde generativ AI för tal specifik träning för varje uppgift med noggrant förberedd träningsdata", sa Meta AI. "Voicebox använder ett nytt tillvägagångssätt för att lära sig bara från råljud och en åtföljande transkription."

Generativ AI är en typ av program som kan generera text, bilder eller andra medier som svar på användarmeddelanden. Meta AI sa att Voicebox kan producera ljud på sex språk, inklusive engelska, franska, tyska, spanska, polska och portugisiska, och kan göra det närmare hur människor pratar naturligt i den verkliga världen.

Meta föreslår att verktyget kan användas för att förbättra konversationer mellan olika språk med hjälp av tekniska verktyg, eller för att leverera mer naturligt klingande videospelkaraktärsdialoger. Men Voicebox ser också ut som ett snabbare och mer ekonomiskt sätt att skapa copycat "deepfake" dialog, vilket får det att låta som att någon (kanske en offentlig person eller kändis) sa något som de verkligen inte gjorde.

Även om det kan vara ett genombrott inom AI-utveckling, erkände Meta AI också den potentialen för missbruk, och sa att företaget har utvecklat klassificerare som skiljer mellan Voicebox-skapelser och människor. I likhet med spamfilter är AI-klassificerare program som sorterar data i olika grupper eller klasser – i det här fallet mänskliga eller AI-genererade.

Meta betonade behovet av transparens i AI-utveckling i sitt blogginlägg och sa att det är avgörande att vara öppen med forskarvärlden. Men företaget sa också att det inte har några planer på att göra Voicebox allmänt tillgänglig på grund av potentialen att utnyttja tekniken på potentiellt negativa sätt.

"Det finns många spännande användningsfall för generativa talmodeller, men på grund av de potentiella riskerna för missbruk gör vi inte Voicebox-modellen eller koden offentligt tillgänglig för närvarande," sa en talesperson för Meta AI. Avkryptera i ett e-postmeddelande.

"Även om vi anser att det är viktigt att vara öppen med AI-gemenskapen och att dela vår forskning för att främja det senaste inom AI," fortsatte talespersonen, "är det också nödvändigt att hitta rätt balans mellan öppenhet och ansvar."

Istället för att släppa verktyget i ett funktionellt tillstånd har Meta delat ljudprover och ett forskningsdokument för att hjälpa andra forskare att förstå dess potential.

AI-risker dyker upp

Medan verktyg för artificiell intelligens, särskilt AI-chatbots, har blivit vanligare sedan lanseringen av OpenAIs ChatGPT i november förra året, har snabba framsteg inom artificiell intelligens fått globala ledare att slå larm om det potentiella missbruket av tekniken.

På måndagen upprepade FN:s generalsekreterare behovet av att ta varningar om generativ AI på allvar.

"Larmklockor över den senaste formen av artificiell intelligens, generativ AI, är öronbedövande, och de är mest högljudda från utvecklarna som designade den", sa FN:s generalsekreterare António Guterres vid en presskonferens. "Forskarna och experterna har uppmanat världen att agera och förklarar AI ett existentiellt hot mot mänskligheten i nivå med risken för kärnvapenkrig."

Hur oroväckande hotet från ett globalt kärnvapenkrig än är, så förblir den sannolikheten inom science fiction och Hollywood storsäljare. Ett mer troligt missbruk av generativ AI kommer från bedrägerier rikta in sig på individer som använder djupfalska bilder och röster för att lura offer på pengar, till exempel – eller, som FN sa i en nyligen publicerad rapport, underblåsa hat och desinformation uppkopplad.

A deepfake är en allt vanligare typ av video- eller ljudinnehåll skapat med artificiell intelligens som skildrar falska händelser, men som görs på ett sätt som kan vara mycket svårt att identifiera som falskt.

I april, CNN rapporterade att bedragare använde AI-teknik för att klona rösten till en kvinnas 15-åriga dotter i Arizona, som hävdade att de hade kidnappat tonåringen och krävde lösen. Och i mars, en AI-genererad bild av tidigare president Donald Trump Att bli arresterad gick viralt efter att ha delats på sociala medier.

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

Tidsstämpel:

Mer från Avkryptera