Es ist nur ein kleiner Artikel, den Charles DuHadway vor ein paar Wochen im Blog seiner Firma postete. Charles DuHadway ist ein junger, akkurat frisierter, blonder Bursche, der als Idealbesetzung in jedem amerikanischen Highschool-Film durchgehen würde – nur nicht als Nerd. DuHadway ist aber „Software Engineer“, Programmierer also, und er arbeitet für Google, genau genommen für das Google-Projekt „Music Slam“, einen (derzeit nur in den USA verfügbaren) Wettbewerb von Amateurmusikern, die bei Google ihre Videos einstellen und so „entdeckt“ werden wollen. Das sei allerdings, so verrät DuHadway, schon deshalb schwierig, weil derzeit an jedem einzelnen Tag Videos mit einer Gesamtlänge von acht Jahren hochgeladen würden. Hier groß rauszukommen – und somit der nächste Justin Bieber zu werden – ist also nach menschlichem Ermessen weniger eine Talentfrage als ein reines Glücksspiel, unkalkulierbar und mit extrem geringer Trefferwahrscheinlichkeit.
Aber wir reden hier von einer Firma, in deren Philosophie Begriffe wie „Zufall“ oder „Glück“ tabu sind. „Wir fragten uns, ob man diese Videos mit akustischer Analyse und maschinellem Lernen überprüfen könnte, um talentierte Musiker automatisch identifizieren zu können“, so DuHadway. Es ist eine rhetorische Frage, versteht sich, denn Teil der Philosophie von Google ist auch, dass man die Funktion der Welt im Innersten erkennen kann – mit ausreichend Rechnerpower und den richtigen Algorithmen. Über bisher bekannte Musik-Analysesysteme geht das Anliegen, den Hit, gar den Star, automatisch zu erkennen, weit hinaus.
Harmonik und Rhythmik kannte schon die Antike
Musik zu analysieren ist keine neue Idee. Seit der Antike gehören Kenntnisse über Harmonik und Rhythmik zum grundlegenden Handwerkszeug von Komponisten. Die Harmonielehre – ihre verbürgten theoretischen Wurzeln liegen im frühen 18. Jahrhundert – fasst zusammen, wie Klänge und ihre Kombinationen so gestaltet werden können, dass sie dem menschlichen Gehör als angenehm oder unangenehm erscheinen. Jeder Hobby-Gitarrist lernt heutzutage zuerst jene Akkord-Folgen, die als besonders eingängig gelten. Welche Regeln es noch gibt, ein „gutes“ Stück Popmusik zu komponieren, gehört wiederum zum Handwerkszeug einer nicht eben kleinen Liga von Hit-Schreibern. Deren Anzahl in Deutschland kann man vielleicht am ehesten – und selbstredend sehr grob und spekulativ – mit jenen gut 3.000 GEMA-Mitgliedern quantifizieren, die ungefähr zwei Drittel aller in Deutschland erwirtschafteten Musik-Tantiemen kassieren.
Von Hörerseite aus hat sich die Situation erst in der Neuzeit radikal verändert. Über Generationen hinweg war die Auseinandersetzung mit Musik Experten vorbehalten. Voraussetzung waren ein akustisches Gedächtnis und die Lesefähigkeit für Notenblätter. Erst im Zeitalter der technischen Reproduzierbarkeit von Musik – also seit gut hundert Jahren – gibt es die zumindest theoretische Option, ein jederzeit verfügbares vergleichendes Hörbeispiel im Archiv zu haben. Erst im Internetzeitalter beginnt dieses Archiv, universal umfassend zu werden; losgelöst von persönlichem Recherche- und Beschaffungsaufwand. Inzwischen lassen sich mit Handy-Apps wie Soundhound oder Shazam erstaunlich korrekte Ergebnisse zu Titel und Interpret erzielen, wenn man mal wieder irgendeinen Song im Radio oder Club hört, der nachforschenswert ist.
Ebenfalls eine unabdingbare Grundlage für den Erfolg eines Musikstücks: die Empfehlung. Auch diese ist dem Status des Vertrauensverhältnisses zwischen Freunden oder der individuellen Beratungskompetenz des Plattenhändlers erst in den letzten Jahren entwachsen. Jeder ernstzunehmende Online-Musikhändler oder -Streamingdienst empfiehlt weitere Songs, die zum bisher gekauften oder gehörten passen. Ermittelt werden diese meist durch reine Statistik; die Empfehlung beruht auf einer Auswertung von Kauf- und Hörgewohnheiten anderer Nutzer.
Was maschinell messbar ist, wird gemessen
Google ist da schon weiter. Sein soeben in den Staaten gestarteter Online-Musikdienst bietet auch die Option „Instant Mix“. Deren Empfehlungen basieren – soweit man das bei Google durchblicken lässt – hauptsächlich nicht auf bisher erfassten Präferenzen, sondern vor allem auf einer melodischen und rhythmischen Analyse der Songs an sich. Es werden also Stücke angeboten, die den schon gehörten strukturell gleichen.
Die Videoanalyse des eingangs erwähnten Google-Projekts „Music Slam“ basiert auf diesem Modell und treibt es weiter. Sie soll nicht nur die Beschaffenheit eines dargebrachten Songs untersuchen und mit bisherigen Erfolgen vergleichen, sondern sogar, ob es sich wirklich um Amateur-Material handelt. Dazu dienen Kennwerte wie Beleuchtung, Kameraeinstellung oder die Nicht-Fülle verwendeter Instrumente, die offensichtlich allesamt auch maschinell messbar sind.
Ergänzt wird das jedoch immer noch durch den „menschlichen Faktor“. „Wir wissen, dass Maschinen den nächsten großen Star nicht allein auswählen können“, merkt DuHadway denn auch an. Die Algorithmen sorgen bislang nur dafür, dass potenziell erfolgverheißende Kandidaten in der Warteschlange der Aufmerksamkeit bewusst nach vorn gerückt werden. Die Abstimmung über die Mehrheitsfähigkeit bleibt den Usern vorbehalten. Wobei man sicher sein kann, dass auch dies wieder eine erweiterte Datenbasis für forcierte Modelle darstellt, die weitere Kriterien für Beliebtheit herauszufiltern versuchen. So kann vielleicht – das ist das grundlegende Google-Prinzip – eine erhöhte Trefferwahrscheinlichkeit erzielt werden. Irgendwann – nicht mehr all zu lange hin – wird Google vielleicht auch in der Lage sein, die Wirkung eines Bubi-Charmes zu berechnen, den ein Justin Bieber-Nachfolger auf Millionen von minderjährigen Mädchen hat. Das wäre wieder ein verdammt gutes Geschäftsmodell.
Was ist Ihre Meinung?
Kommentare einblendenDiskutieren Sie mit.