YouTube experimentiert in ausgewählten Tests mit KI-erstellter Musik

YouTube experimentiert in ausgewählten Tests mit KI-erstellter Musik

YouTube experimentiert in ausgewählten Tests mit KI-erstellter Musik PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

YouTube experimentiert mit Software, die Musik mithilfe eines von Google DeepMind entwickelten KI-Modells namens Lyria generiert.

Der zu Google gehörende Home-Video-Riese kündigte am Donnerstag zwei Features an, die er einer kleinen Gruppe von Testern vorstellt: Dream Track und das Music AI Tool. 

Dream Track wandelt eine textbasierte Aufforderung in einen kurzen Audioausschnitt um, der die Stimme und den Stil verschiedener Popstars nachahmt – nämlich Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia, T-Pain, Troye Sivan und Papoose. Die Wahl des Künstlers ist bisher auf diese Interpreten beschränkt, da Google Lizenzen aushandeln musste, um Lyria für ihre Musik zu trainieren, um einen Urheberrechtskrieg zu vermeiden.

Unten können Sie sich anhören, was Dream Track für die Aufforderung „a sunny Morning in Florida, R&B“ im Stil von T-Pain generiert – einem Künstler, der dafür bekannt ist, seine Stimme mit Autotune zu verändern. 

Youtube Video

Es klingt auf jeden Fall nach T-Pain, und auch der Text ist passend und passt zur Aufforderung. Dream Track steht derzeit nur „einer begrenzten Gruppe von Erstellern“ zur Verfügung, die 30-Sekunden-Clips von KI-erstellten Titeln erstellen können, die als YouTube-Shorts gepostet werden können – normalerweise minutenlange Videos. 

Das Music AI Tool scheint interessanter und nützlicher zu sein. Es ermöglicht Menschen, insbesondere solchen ohne oder mit vielen Instrumenten, einen Audioclip – etwa einen Akkord oder jemanden, der eine Melodie summt – in etwas umzuwandeln, das den Originalklang beibehält, aber in Form eines anderen Instruments gespielt wird. 

Die vielleicht beeindruckendste Demo wandelt eine Reihe von „na-na-na“-Gesangsgeräuschen in eine Orchesterpartitur um, komplett mit Streichinstrumenten, die den Anschein erweckt, als könnte es sich um einen einigermaßen überzeugenden Soundtrack für einen Film handeln. Sie können es unten hören.

Youtube Video

YouTube teilt das Music AI Tool derzeit nur mit ausgewählten Künstlern, Songwritern und Produzenten, die Teil seines Music AI Incubator-Programms sind. 

Mit dem Music AI Tool können Menschen Musik in neuen Formen erstellen, ohne besonders gut singen oder Musikinstrumente spielen zu können – ähnlich wie jeder Text-zu-Bild-Modelle verwenden kann, um Kunstwerke zu erstellen, ohne zeichnen oder malen zu können.

Es erinnert uns irgendwie an die Zeit vor Jahren, als die elektronische Musik aufkam, als Zyniker beklagten, dass Synthesizer und computergestützte Sequenzierung es jedem ermöglichen würden, Tracks wie sogenannte echte Musiker zu produzieren.

„Diese Experimente erforschen das Potenzial von KI-Funktionen, um Künstlern und Kreativen dabei zu helfen, ihre Fantasie zu erweitern und ihre kreativen Prozesse zu verbessern.“ erklärt Lyor Cohen und Toni Reid von YouTube, Global Head of Music, bzw. VP Emerging Experiences & Community Products.

„Und im Gegenzug können Fans auf neue Weise mit den Kreativen in Kontakt treten, die sie lieben, und sie durch interaktive Tools und Erlebnisse näher zusammenbringen. All dies wird uns dabei helfen, die Technologie zu iterieren und zu verbessern und so Anwendungen für die Zukunft zu unterstützen.“

Generative KI und Musik sind jedoch besonders heikel. Es ist nicht nur schwierig, Modelle zu bauen, die Audiosignale erzeugen können, die tatsächlich gut klingen, sondern es ist auch schwierig, die Daten zum Trainieren der Systeme zu sichern. Plattenfirmen sind notorisch streitsüchtig, wenn es um den Schutz ihrer Urheberrechte geht – das weiß YouTube sehr gut. Die Videoseite hat erklärt, dass sie diese Probleme umgeht und versucht, Lizenzvereinbarungen abzuschließen, um Künstler für ihre Musik zu entschädigen. 

„Trotz der enormen Chancen, die KI bietet, sind wir uns auch bewusst, dass es sich um einen sich schnell entwickelnden Bereich handelt, der komplexe Herausforderungen mit sich bringt. Eine der größten Stärken von YouTube sind unsere engen Beziehungen zu Partnern aus der Musikindustrie. Wir sind bestrebt, beim Eintritt in diese neue Ära mit ihnen zusammenzuarbeiten, gemeinsam neue Möglichkeiten kritisch zu erkunden und sinnvolle und nachhaltige Kontroll-, Monetarisierungs- und Attributionsrahmen zu entwickeln“, fügten Cohen und Reid hinzu.

Unterdessen befassen sich Forscher bei Google DeepMind mit dem Problem gefälschter, von KI generierter Audiodaten, die zur Manipulation oder Irreführung von Zuhörern genutzt werden könnten. Mit dem Lyria-Modell erstellte Titel tragen nicht wahrnehmbare Wasserzeichen vom SynthID-Tool, das zur Identifizierung synthetischer Inhalte verwendet wird. SynthID funktioniert offenbar durch die Umwandlung von Audiodaten in ein zweidimensionales Spektrogramm, das Anbringen eines digitalen Wasserzeichens auf diese Darstellung und die Rückumwandlung in Audio.

„Das Wasserzeichen soll die Erkennbarkeit auch dann aufrechterhalten, wenn der Audioinhalt viele übliche Modifikationen erfährt, wie z. B. Rauschen, MP3-Komprimierung oder Beschleunigung und Verlangsamung des Titels. „SynthID kann auch das Vorhandensein eines Wasserzeichens in einem Titel erkennen, um festzustellen, ob Teile eines Songs von Lyria generiert wurden“, so DeepMind erklärt🇧🇷 🇧🇷

Zeitstempel:

Mehr von Das Register