YouTube experimenterar med AI-tillverkad musik i utvalda tester

YouTube experimenterar med AI-tillverkad musik i utvalda tester

YouTube experimenterar med AI-tillverkad musik i utvalda tester PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

YouTube experimenterar med programvara som genererar musik med hjälp av en AI-modell som heter Lyria byggd av Google DeepMind.

Den Google-ägda hemvideojätten tillkännagav på torsdagen två funktioner som den skickar ut till en liten grupp testare: Dream Track och Music AI Tool. 

Dream Track konverterar en textbaserad prompt till ett kort ljudavsnitt som efterliknar rösten och stilen hos olika popstjärnor – nämligen Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivan och Papoose. Valet av artist är begränsat till dessa artister än så länge eftersom Google har varit tvungen att förhandla om licenser för att träna Lyria på deras musik för att undvika ett upphovsrättskrig.

Du kan lyssna på vad Dream Track genererar för prompten "en solig morgon i Florida, R&B" i stil med T-Pain – en artist välkänd för att ändra sin röst med autotune – nedan. 

Youtube Video

Det låter verkligen som T-Pain, och texterna är lämpliga och matchar uppmaningen också. Dream Track är för närvarande endast tillgängligt för "en begränsad uppsättning kreatörer" som kan generera 30-sekunders klipp av AI-tillverkade spår som kan läggas upp som YouTube Shorts - vanligtvis minutlånga videor. 

Music AI Tool verkar mer intressant och användbart. Det tillåter folk, särskilt de utan några eller många instrument, att förvandla ett ljudklipp – som ett ackord eller någon som nynnar en låt – till något som behåller originalljudet men som spelas i form av ett annat instrument. 

Den mest imponerande demot kanske omvandlar ett gäng "na-na-na"-sjungande ljud till ett orkesterpartitur, komplett med stränginstrument som verkar som om det skulle kunna vara ett något övertygande soundtrack för en film. Du kan höra det nedan.

Youtube Video

YouTube delar bara Music AI Tool med utvalda artister, låtskrivare och producenter som är en del av dess Music AI Incubator-program just nu. 

Music AI Tool låter människor skapa musik i nya former utan att behöva veta hur man sjunger eller spelar musikinstrument särskilt bra – ungefär som hur vem som helst kan använda text-till-bild-modeller för att skapa konstverk utan att behöva veta hur man ritar eller målar.

Det påminner oss lite om år sedan, i framväxten av elektronisk musik, när cyniker stönade att synthesizers och datorstödd sekvensering låter vem som helst churna ut spår som så kallade riktiga musiker.

"De här experimenten utforskar potentialen hos AI-funktioner för att hjälpa artister och kreatörer att utöka sin fantasi och utöka sina kreativa processer," förklarade YouTubes Lyor Cohen och Toni Reid, global musikchef, respektive VP för nya upplevelser och gemenskapsprodukter.

"Och i sin tur kommer fansen att kunna ansluta till kreativiteten de älskar på nya sätt och föra dem närmare varandra genom interaktiva verktyg och upplevelser. Allt detta kommer att hjälpa oss att iterera och förbättra tekniken och informera applikationer för framtiden."

Generativ AI och musik är dock särskilt knepigt. Det är inte bara svårt att bygga modeller som kan skapa ljud som faktiskt låter bra, utan det är svårt att säkra data för att träna systemen. Skivbolag är notoriskt tvistiga när det gäller att skydda sina upphovsrätter – vilket YouTube mycket väl vet. Videosajten har sagt att den arbetar kring dessa frågor och försöker ingå licensavtal för att kompensera artister för deras musik. 

"Trots de enorma möjligheter som AI erbjuder, inser vi också att det är ett snabbt utvecklande område som erbjuder komplexa utmaningar. En av YouTubes största styrkor är våra starka relationer med musikbranschens partners. Vi är fast beslutna att samarbeta med dem när vi går in i denna nya era, kritiskt utforska nya möjligheter och utveckla förnuftiga och hållbara kontroller, intäktsgenerering och tillskrivningsramverk”, tillade Cohen och Reid.

Samtidigt tar forskare vid Google DeepMind på problemet med falskt AI-genererat ljud som kan användas för att manipulera eller vilseleda lyssnare. Spår skapade med hjälp av dess Lyria-modell kommer att bära omärkliga vattenstämplar från dess SynthID-verktyg som används för att identifiera syntetiskt innehåll. SynthID funkar tydligen genom att konvertera ljuddata till ett tvådimensionellt spektrogram, applicera en digital vattenstämpel på den representationen och konvertera den tillbaka till ljud.

"Vattenstämpeln är utformad för att bibehålla detekterbarhet även när ljudinnehållet genomgår många vanliga modifieringar som brustillägg, MP3-komprimering eller att snabba upp och sakta ner spåret. SynthID kan också upptäcka närvaron av en vattenstämpel i ett spår för att hjälpa till att avgöra om delar av en låt genererades av Lyria, säger DeepMind förklarade. ®

Tidsstämpel:

Mer från Registret