Big Data killed the Radio Star? Wie künstliche Intelligenz die Musikindustrie beeinflusst

Schon immer war die Musikindustrie eine, die sich konstant weiterentwickelt und an die Gegebenheiten der Welt angepasst hat. Mittlerweile hat mit Streaming, Cloud Computing und Algorithmen eine neue Ära dieser begonnen. Künstliche Intelligenz hat nicht nur die Prozesse in der Branche revolutioniert, sondern hilft uns auch dabei, Musik auf eine neue Art und Weise wahrzunehmen und zu konsumieren. Doch wie genau beeinflusst KI eigentlich die Musikindustrie und womit können wir in der Zukunft rechnen?

 

Der Nutzen des akustischen Fingerabdrucks

Bereits 1999 wurden von Pandora die ersten Experimente mit künstlicher Intelligenz durchgeführt. Das Konzept des »Music Genome Project« ist uns allen bekannt, obwohl wir nicht zwingend die Details kennen. Mithilfe einer mathematischen Analyse bricht ein Algorithmus die eingespielte Musik auf ihre Eigenschaften herunter und kann somit Stücke analysieren. Damit ist es möglich, Songs zu identifizieren und ähnliche Songs zu gruppieren. Heutzutage nutzen Firmen wie Spotify oder Shazam das gleiche Konzept, auch akustischer Fingerabdruck genannt. Anhand von rund 450 Attributen, wie etwa der Grad der Verzerrung einer elektrischen Gitarre, ist es möglich, ein Musikstück zu analysieren und zu identifizieren. So kann Spotify ähnliche Songs finden und vorschlagen und Shazam in weniger als 10 Sekunden einen Song identifizieren.

Theoretisch ist das ganz einfach; Technisch gesehen aber nicht. Immerhin handelt es sich hier um eine Unmenge von Daten die generiert und analysiert werden müssen. Pro Tag sind das 2,5 Extrabyte oder 2,5 Millionen Terabyte. Das entspricht dem 250.000-fachen an Daten aller Bücher in der Deutschen Nationalbibliothek, der Sächsischen Staatsbibliothek, der Bayrischen Staatsbibliothek und der Landesbibliothek Darmstadt zusammen. Ein Riesenaufwand – das alles nur um den Nutzer im Vergleich zur Konkurrenz das beste Erlebnis zu bieten. Und doch zahlt es sich aus, mit einem Wachstum von 36 % allein in Europa im Jahr 2018, 2,5 Milliarden Dollar Umsatz in den USA im ersten Halbjahr und einer gesamt Abonnentenzahl von 87 Millionen zahlenden Nutzern ist etwa Spotify eines der führenden Unternehmen im Musikstreaming und gilt als erfolgreicher Vorreiter der boomenden Industrie.

Neben personalisierten Musikvorschlägen und Listen ähnlicher Songs, öffnen sich mit dem Konzept des akustischen Fingerabdrucks noch viel mehr Möglichkeiten.

 

Flow Machines

Seit einiger Zeit gibt es das von den Sony Computer Science Laboratories Paris entwickelte Konzept »Flow Machines«. Flow Machines ist eines der bekanntesten Entwicklungsprojekte der jüngeren Musikgeschichte. Es handelt sich dabei um ein System das sämtliche Arten von Musik analysiert und dementsprechend auch kreieren kann. Man nehme einfach eine Audiodatei, füge eine Gesangsstimme hinzu und lässt das System den Beat zu Ende mischen. Heraus kommt: ein Hit, der von künstlicher Intelligenz erzeugt wurde. Das erste Album »Hello World« wurde kostenlos veröffentlicht und hatte sogar etwa durch Stromae prominente Unterstützung. Mit mehr als 7,5 Millionen Streams auf Spotify und recht guten Bewertungen legte die künstliche Intelligenz einen guten Start hin.

 

Emotionale Soundtracks aus der Maschine

Das Projekt AIVA (Artificial Intelligence Virtual Artist) geht noch einen Schritt weiter. In die Datenbank von AIVA wurden 30.000 Partituren von Mozart, Bach oder Beethoven eingespeist. Mit diesen Daten ist es dem System möglich, zu verstehen, wie Musik funktioniert. Anhand von 30 Labels, die unterschiedliche Attribute beschreiben, wie etwa die Stimmung oder die Dichte der Noten, kann AIVA sogar die Emotionen nachvollziehen.

Wie in einem menschlichen Gehirn, werden alle Eingaben durch eine Reihe neuronaler Netze verarbeitet und so kristallisiert sich für AIVA ein nachvollziehbares Muster heraus. Mithilfe von Deep Learning wird das Gespür perfektioniert, so dass AIVA allein voraussagen kann, welche Noten als nächstes eingespielt werden müssen. Dadurch ist es möglich, Musik anhand von einfachen Filtereinstellungen komplett neu zu kreieren. So gesehen ist AIVA die erste KI, die vom Urheberrecht Gebrauch machen kann.

In Zukunft soll sie nach Angaben des Unternehmens für Video- und Filmproduktionen, sowie Werbung, Videospiele und vieles mehr genutzt werden. Die Gründer wollen es somit ermöglichen, dass Mensch und Maschine mehr und in verschiedenen Szenarien besser zusammenarbeiten können.

 

Eine digitale Musikwerkstatt für die Hosentasche

Der Amadeus Code bedient sich eifrig an den anderen Projekten in der Industrie und setzt sie als eine App um. Mit einer Datenbank von Hits der letzten 50 Jahre berechnet die KI anhand von Akkordfolgen, Melodien und mehr einen neuen Song.

Der User kann dann mithilfe von Filtereinstellungen den Song anderweitig bearbeiten. Von den Melodienstrukturen über die Verse bis hin zum Chorus und der Bridge lassen sich alle wichtigen Elemente eines Songs bearbeiten. Eine Digital Audio Workstation (DAW) für die Hosentasche.

 

Was bedeutet das für die Musikindustrie?

Nach den neuesten Entwicklungen zu urteilen, ist es verständlich, warum Menschen sich unsicher sind, ob ihre Lieblingsmusik in Zukunft ohne Musiker entstehen wird. Aber Musik ohne Musiker? Das ist eher fraglich.

Das Ziel von künstlicher Intelligenz ist es, uns bei der alltäglichen Arbeit zu unterstützen. KI ist lediglich der nächste Schritt im Zeitalter der Automation. Als mentale Kraft hinter den Prozessen ist sie schon längst in unser Leben integriert und vereinfacht dieses um ein weites. Sie ist und wird ein vitaler Bestandteil unserer Arbeit.

In der Musikindustrie ist es nicht anders. Heutzutage arbeiten große Musiker und Studios hauptsächlich mit einer Digital Audio Workstation (DAW) an der sogar Musik ohne ein einziges Instrument generiert werden kann. Hier wird aufgenommen gemischt und gemastered.

Forscher, die an diesen neuartigen Systemen wie dem Amadeus Code und AIVA arbeiten, haben vor allem vor Augen, dass Musiker ihre Systeme als eine Quelle der Inspiration nutzen können. Melodien können unser Verständnis von Kreativität herausfordern und neue Möglichkeiten eröffnen.

Bereits für Menschen aus dem 18. Jahrhundert war dies ein Thema. Sie entwickelten das »musikalische Würfelspiel«, ein Gesellschaftsspiel, bei dem Kompositionen mithilfe eines Zufallsgenerators erstellt wurden. Mithilfe der vom Würfel generierten Zahl wurde festgelegt, welcher Takt aus welcher Modifikation der Grundkomposition folgen sollte. Mozart soll ein Meister dieses Spiels gewesen sein.

Außerdem definiert sich ein Song auch durch andere Elemente als die berechenbaren Attribute. Emotionen und Persönlichkeit spielen eine große Rolle in dem Entwicklungsprozess eines jeden Songs. Keine Maschine wird einen Künstler vollständig ersetzen können. Das werden Musikfirmen auch nicht zulassen, denn ein elementarer Teil des Musikverkaufs ist das Gesicht und die Persönlichkeit des Künstlers.

Die Menschen, die aus diesen Systemen den größten Vorteil ziehen, sind Content Creator. Bei Videospielen und Filmen ist der Artist meist zweitrangig. Das bedeutet, dass man mithilfe der KI ohne ein großes Budget oder viel Arbeit einen einzigartigen, passenden Track kreieren kann.

In anderen Worten: KI demokratisiert die Musikindustrie. Niemand ist von der Kreation ausgeschlossen. Selbst wenn man kein Verständnis von Musik oder keine Zeit hat, sich damit genau zu beschäftigen, hat man die Möglichkeit, ein Teil dieser Gemeinschaft zu sein. künstliche Intelligenz eröffnet viele neue Möglichkeiten für alle. Vom kleinen Produzenten bis hin zum großen Filmemacher.

 

https://de.rs-online.com/web/generalDisplay.html?id=i/digitalisierung-musik

 


 

Musikumsatz: Digital zahlt sich für Musikindustrie aus

Digitales Musik-Geschäft basiert auf Downloads

Digitale Wirtschaft trifft in Deutschland auf bessere Rahmenbedingungen als im Vorjahr

Digital Content: Content-Zahlungsbereitschaft ist in den USA höher