YouTube eksperimenterer med AI-laget musikk i utvalgte tester

YouTube eksperimenterer med AI-laget musikk i utvalgte tester

YouTube eksperimenterer med AI-laget musikk i utvalgte tester PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

YouTube eksperimenterer med programvare som genererer musikk ved hjelp av en AI-modell kalt Lyria bygget av Google DeepMind.

Den Google-eide hjemmevideogiganten kunngjorde på torsdag to funksjoner den sender ut til en liten gruppe testere: Dream Track og Music AI Tool. 

Dream Track konverterer en tekstbasert melding til en kort lydbit som etterligner stemmen og stilen til forskjellige popstjerner – nemlig Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivan og Papoose. Valget av artist er begrenset til disse utøverne så langt fordi Google har måttet forhandle om lisenser for å trene Lyria på musikken deres for å unngå en opphavsrettskrig.

Du kan lytte til hva Dream Track genererer for prompten "en solfylt morgen i Florida, R&B" i stil med T-Pain – en artist kjent for å endre stemmen sin med autotune – nedenfor. 

Youtube Video

Det høres absolutt ut som T-Pain, og tekstene er passende og matcher ledeteksten også. Dream Track er foreløpig bare tilgjengelig for «et begrenset sett med skapere» som kan generere 30-sekunders klipp av AI-lagde spor som kan legges ut som YouTube Shorts – vanligvis minuttlange videoer. 

Music AI Tool virker mer interessant og nyttig. Det lar folk, spesielt de uten noen eller mange instrumenter, forvandle et lydklipp – for eksempel en akkord eller noen som nynner en melodi – til noe som beholder den originale lyden, men som spilles i form av et annet instrument. 

Den mest imponerende demoen konverterer kanskje en haug med "na-na-na"-sanglyder til et orkesterpartitur, komplett med strengeinstrumenter som virker som det kan være et litt overbevisende lydspor for en film. Du kan høre det nedenfor.

Youtube Video

YouTube deler kun Music AI Tool med utvalgte artister, låtskrivere og produsenter som er en del av Music AI Incubator-programmet akkurat nå. 

Music AI Tool lar folk lage musikk i nye former uten å måtte vite hvordan de skal synge eller spille musikkinstrumenter spesielt godt – omtrent som hvordan alle kan bruke tekst-til-bilde-modeller for å generere kunstverk uten å måtte vite hvordan de skal tegne eller male.

Det minner oss litt om år siden, i fremveksten av elektronisk musikk, da kynikere stønnet over at synthesizere og datastøttet sekvensering lar hvem som helst churne ut spor som såkalte ekte musikere.

"Disse eksperimentene utforsker potensialet til AI-funksjoner for å hjelpe artister og skapere med å strekke fantasien og forsterke deres kreative prosesser," forklarte YouTubes Lyor Cohen og Toni Reid, henholdsvis global musikksjef, og VP for nye opplevelser og fellesskapsprodukter.

"Og på sin side vil fans kunne koble seg til kreativitetene de elsker på nye måter, og bringe dem nærmere hverandre gjennom interaktive verktøy og opplevelser. Alt dette vil hjelpe oss å iterere og forbedre teknologien, og informere applikasjoner for fremtiden."

Generativ AI og musikk er imidlertid spesielt vanskelig. Ikke bare er det vanskelig å bygge modeller som er i stand til å lage lyd som faktisk høres bra ut, men det er vanskelig å sikre dataene for å trene systemene. Plateselskaper er notorisk saksøkende når det gjelder å beskytte opphavsretten deres – som YouTube vet godt. Videonettstedet har sagt at det jobber rundt disse problemene, og prøver å inngå lisensavtaler for å kompensere artister for musikken deres. 

"Til tross for den enorme muligheten AI gir, innser vi også at det er et raskt utviklende område som byr på komplekse utfordringer. En av YouTubes største styrker er vårt sterke forhold til partnere i musikkbransjen. Vi er forpliktet til å samarbeide med dem når vi går inn i denne nye æraen, kritisk utforske nye muligheter og utvikle fornuftige og bærekraftige kontroller, inntektsgenerering og attribusjonsrammer, la Cohen og Reid til.

I mellomtiden takler forskere ved Google DeepMind problemet med falsk AI-generert lyd som kan brukes til å manipulere eller villede lyttere. Spor opprettet med Lyria-modellen vil bære umerkelige vannmerker fra SynthID-verktøyet som brukes til å identifisere syntetisk innhold. SynthID virker tilsynelatende ved å konvertere lyddata til et todimensjonalt spektrogram, bruke et digitalt vannmerke på den representasjonen og konvertere den tilbake til lyd.

"Vannmerket er utformet for å opprettholde gjenkjennbarhet selv når lydinnholdet gjennomgår mange vanlige modifikasjoner som støytilføyelser, MP3-komprimering eller å øke hastigheten og senke sporet. SynthID kan også oppdage tilstedeværelsen av et vannmerke gjennom et spor for å hjelpe med å finne ut om deler av en sang ble generert av Lyria,» DeepMind forklarte. ®

Tidstempel:

Mer fra Registeret