Vermenschlichte Computermusik
Untersuchungen von Musikern haben gezeigt, dass Zeitreihen auch beim musikalischen Schaffen eine große Rolle spielen: Kein Musiker spielt nämlich exakt im Takt. Die Schwankungen betragen zwar nur Millisekunden, doch gerade das macht menschliche Musik im Gegensatz zur Computermusik aus. Weil vor allem in der Popmusik Schlagzeug und Synthesizer häufig vom Rechner beigesteuert werden, wird die Musik dann nachträglich mithilfe spezieller Programme - der sogenannten "Humanizer" - menschlich gemacht.
Zugegeben: Aller Anfang ist schwer. Doch den richtigen Takt zu finden, das gelingt selbst den Profimusikern keineswegs. Dr. Jan Nagler vom Max-Planck Institut für Dynamik und Selbstorganisation hat die professionellen Musiker auf die tausendstel Sekunde genau unter die Lupe genommen. Sie sollten nach Vorgabe eines Metronoms trommeln. Ergebnis: Der Takt blieb auf der Strecke.
"Also das schwankt natürlich, und es hängt auch von der Person ab. Sieben bis zehn Millisekunden sind so die Größenordnungen der Schwankungen von einem Schlag zum nächsten Schlag. Und die Hauptfrage ist aber, ob die Schwankungen, die man von einem Schlag zum nächsten Schlag produziert, korreliert sind oder nicht. Das heißt, sind die völlig zufällig, und der Fehler, den man gerade macht, hängt gar nicht davon ab, welche Fehler man vorher gemacht hat. Oder hat das Ganze ein System und die Fehler hängen irgendwie nach einem System voneinander ab."
Tatsächlich haben die Schwankungen ein System. Verzögert sich der Musiker ein wenig im Takt, erfolgen auch die weiteren Schläge verspätet. Wohlgemerkt: Es geht hier nur um Millisekunden. Nach einigen Takten folgen dann Phasen, in denen die Musiker Bruchteile von Sekunden zu früh dran waren. Ein Computer indes spielt immer präzise.
"Das heißt einfach, die Media-Sequenz, die vom Computer produziert wird, wird einfach exakt wiedergegeben ohne jeglichen Fehler."
Musiker indes machen "Fehler": Und sie haben dabei einen ganz persönlichen Stil: Die Taktschwankungen der getesteten Spieler erstreckten sich über unterschiedlich lange Phasen hinweg. Manche trommelten eher verzögert als vorauseilend. Bei anderen wiederum waren die Werte vergleichsweise klein, die Abweichungen individuell verschieden.
Anders klingt es, wenn ein sogenanntes Humanizing-Programm ins Spiel kommt, um den Sound aus dem Computer menschlicher zu machen. Solche Software-Lösungen werden allerdings nicht in der Klassik als vielmehr beim Pop verwendet, um digitale Klänge vom Synthesizer oder Drums nicht so steril klingen zu lassen, erklärt Prof. Theo Geisel, Direktor des Max-Planck-Instituts für Dynamik und Selbstorganisation.
"Der Grund dafür ist natürlich, dass Musik, die im Computer erzeugt wird, recht unnatürlich klingt. Um diese Künstlichkeit der Rhythmen etwas zu vermenschlichen, gibt es diese Algorithmen in professioneller Studio-Software, mit der man den Zufall wieder einbaut in die Musik."
Herkömmliche Programme haben die Computer basierten Klänge bislang mehr schlecht als recht "humanisiert", weil sie die Taktschwankungen willkürlich einfügen, so die Kritik des Forschers. Neben dem Beispiel Bach wurde das Verfahren sogar an einer eigens komponierten Popsequenz ausgelotet. Hier mit Schlagzeug, Gitarre und Gesang – wobei nur das Schlagzeug aus dem Computer kommt – mit Humanizing aus dem Hause der Max-Planck-Gesellschaft vermenschlicht.
Die Unterschiede zwischen Humanizing und Computermusik ohne Humanizing hört man am besten mit einer Musikanlage und ohne störende Nebengeräusche. Aufgrund der Versuche mit den Musikern entwickelten die Physiker ein eigenes Humanizing-Programm. Anschließend wurden die unterschiedlichen Klänge 39 Mitgliedern eines Göttinger Chors vorgespielt mit dem Ergebnis, dass die musikalische Interpretation mit Humanizing a la "Max Planck" deutlich präferiert wurde. Diese Musik gefiel den Leuten von Chor einfach am besten.
"Ich glaube nicht, dass diese Methode ähnlich bedeutend sein wird wie MP3. Aber die Max-Planck-Gesellschaft hat diese Methode zum Patent angemeldet."
Sicher ist sicher. Vielleicht lässt sich damit eines Tages sogar Geld verdienen. Für eine wissenschaftliche Organisation, die sich Grundlagenforschung auf die Fahnen geschrieben hat, ein durchaus ungewöhnlicher Vorgang – dieser Ausflug in die Niederungen des kommerziellen Musikgeschäfts. Hörproben gibt es im Internet, einfach googlen: Max Planck, Humanizing und Audio: Dann kann's auch schon losgehen.
"Also das schwankt natürlich, und es hängt auch von der Person ab. Sieben bis zehn Millisekunden sind so die Größenordnungen der Schwankungen von einem Schlag zum nächsten Schlag. Und die Hauptfrage ist aber, ob die Schwankungen, die man von einem Schlag zum nächsten Schlag produziert, korreliert sind oder nicht. Das heißt, sind die völlig zufällig, und der Fehler, den man gerade macht, hängt gar nicht davon ab, welche Fehler man vorher gemacht hat. Oder hat das Ganze ein System und die Fehler hängen irgendwie nach einem System voneinander ab."
Tatsächlich haben die Schwankungen ein System. Verzögert sich der Musiker ein wenig im Takt, erfolgen auch die weiteren Schläge verspätet. Wohlgemerkt: Es geht hier nur um Millisekunden. Nach einigen Takten folgen dann Phasen, in denen die Musiker Bruchteile von Sekunden zu früh dran waren. Ein Computer indes spielt immer präzise.
"Das heißt einfach, die Media-Sequenz, die vom Computer produziert wird, wird einfach exakt wiedergegeben ohne jeglichen Fehler."
Musiker indes machen "Fehler": Und sie haben dabei einen ganz persönlichen Stil: Die Taktschwankungen der getesteten Spieler erstreckten sich über unterschiedlich lange Phasen hinweg. Manche trommelten eher verzögert als vorauseilend. Bei anderen wiederum waren die Werte vergleichsweise klein, die Abweichungen individuell verschieden.
Anders klingt es, wenn ein sogenanntes Humanizing-Programm ins Spiel kommt, um den Sound aus dem Computer menschlicher zu machen. Solche Software-Lösungen werden allerdings nicht in der Klassik als vielmehr beim Pop verwendet, um digitale Klänge vom Synthesizer oder Drums nicht so steril klingen zu lassen, erklärt Prof. Theo Geisel, Direktor des Max-Planck-Instituts für Dynamik und Selbstorganisation.
"Der Grund dafür ist natürlich, dass Musik, die im Computer erzeugt wird, recht unnatürlich klingt. Um diese Künstlichkeit der Rhythmen etwas zu vermenschlichen, gibt es diese Algorithmen in professioneller Studio-Software, mit der man den Zufall wieder einbaut in die Musik."
Herkömmliche Programme haben die Computer basierten Klänge bislang mehr schlecht als recht "humanisiert", weil sie die Taktschwankungen willkürlich einfügen, so die Kritik des Forschers. Neben dem Beispiel Bach wurde das Verfahren sogar an einer eigens komponierten Popsequenz ausgelotet. Hier mit Schlagzeug, Gitarre und Gesang – wobei nur das Schlagzeug aus dem Computer kommt – mit Humanizing aus dem Hause der Max-Planck-Gesellschaft vermenschlicht.
Die Unterschiede zwischen Humanizing und Computermusik ohne Humanizing hört man am besten mit einer Musikanlage und ohne störende Nebengeräusche. Aufgrund der Versuche mit den Musikern entwickelten die Physiker ein eigenes Humanizing-Programm. Anschließend wurden die unterschiedlichen Klänge 39 Mitgliedern eines Göttinger Chors vorgespielt mit dem Ergebnis, dass die musikalische Interpretation mit Humanizing a la "Max Planck" deutlich präferiert wurde. Diese Musik gefiel den Leuten von Chor einfach am besten.
"Ich glaube nicht, dass diese Methode ähnlich bedeutend sein wird wie MP3. Aber die Max-Planck-Gesellschaft hat diese Methode zum Patent angemeldet."
Sicher ist sicher. Vielleicht lässt sich damit eines Tages sogar Geld verdienen. Für eine wissenschaftliche Organisation, die sich Grundlagenforschung auf die Fahnen geschrieben hat, ein durchaus ungewöhnlicher Vorgang – dieser Ausflug in die Niederungen des kommerziellen Musikgeschäfts. Hörproben gibt es im Internet, einfach googlen: Max Planck, Humanizing und Audio: Dann kann's auch schon losgehen.