ANZEIGE

Basics – Mastering #2

Exotischeres

De-Noiser und Co. – Entstördienste für die Soundqualität
Unerwünschte Signalanteile lassen sich als “Störgeräusche” bezeichnen. Einige davon lassen sich in einer Produktion manchmal nicht vermeiden, andere fallen gar nicht erst auf. Aufgaben des Mastering-Engineers ist es, diese Geräusche zu erkennen und abzuwägen, ob eine Korrektur möglich oder sinnvoll ist. Häufig leidet das Material, wenn Störgeräusche entfernt werden. Der Klassiker unter den Störgeräuschen ist das Rauschen, welches aber in den letzten Jahren durch gestiegene Gerätequalität und den Verzicht auf Bandmaschinen kein großes Problem mehr darstellt. Um dennoch eventuell vorhandenes Rauschen mit einem störenden Level und Spektrum zu verringern, kommen De-Noiser zum Einsatz. Dies sind hochspezialisierte Systeme, die in erster Linie mit “Fingerprints” des Rauschens arbeiten. Dazu muss ihnen das reine Rauschen einmal zur Analyse “vorgespielt” werden können. Nicht zuletzt deswegen sollte zum Mastering angeliefertes Material vor und hinter dem Song genug “Fleisch” haben. Oft reicht eine Sekunde. Im Grunde wäre es auch möglich, intelligente Algorithmen nach aperiodischen Signalanteilen suchen zu lassen, also solchen, die keine definierte Tonhöhe aufweisen. Allerdings ist dabei problematisch, dass Geräuschanteile ein fester Bestandteil aller natürlichen Klänge sind: Musik ohne ihre Anstreich-, Anblas- und Anschlaggeräusche etwa klingt sehr unnatürlich. Und auf stark aperiodische Signale wie Snare oder Konsonanten der menschlichen Stimme wollen wir garantiert nicht verzichten wollen.

Ein vor allem durch Editingvorgänge aber auch fehlerhafte (Digital-)Geräte entstehendes Störsignal ist der Knackser. Um diese zu erkennen, müssen Monitorsysteme innerhalb kürzester Zeit enorme Pegelzuwächse in Schall umsetzen – sonst werden sie nicht gehört. Oft kann man sie in der Schwingungsform einer DAW sehen, aber wer sucht schon die oft mehreren tausend Spurminuten einer Album-Produktion danach ab? Selbst für Pegelmesser sind manche dieser Spikes viel zu schnell: Bei einer üblichen Integrationszeit eines PPMs von zehn Millisekunden ist die kurze Signalspitze schon längst wieder vorbei, bevor das Peak-Programme-Meter überhaupt etwas mitbekommen hat. In Mastering-Suiten stehen häufig Monitoranlagen, die Clicks auch wirklich übertragen, der Engineer hat die Möglichkeit, die entsprechenden Samples entweder in der Schwingungsformdarstellung wegzuzeichnen, oder einen speziellen De-Clicker einzusetzen. 

Ähnliche Geräte werden für die weiteren Störgeräusche angewendet. Neben De-Hummer (“Entbrummer”) und De-Crackler (“Entknisterer”) gibt es tatsächlich auch De-Distorter und De-Reverberator. Allerdings kann man ab einem gewissen Level dieser Bearbeitung kaum noch von Mastering sprechen, sondern vielmehr vom absoluten Spezialbereich der Audio-Restauration, die es unter anderem ermöglicht, fast verrottete Analogbänder verrauschter Aufnahmen wieder so aufzupäppeln, dass eine für den Konsumenten annehmbare Qualität entsteht. Ein genereller Nachteil aller derartiger Bearbeitungen: Es ist wirklich verdammt zeitaufwändig und so richtig ekelhaft teuer!

Verbrechensbekämpfung mit der Tontechnik
Hier sind ausnahmsweise keine mikroskopisch kleinen Wanzen gemeint: Der Bereich der “forensischen Tontechnik” befasst sich mit dem technischen Aufarbeiten von Signalen, wie zum Beispiel bei Erpressungsanrufen. Es können aus dem Material zum Beispiel Stimmanalysen angefertigt werden, die Rückschlüsse auf den Körperbau zulassen und etwa bei einem Erpressungs- oder Drohanruf vor Gericht eingesetzt werden können. Ausserdem können aus dem Material Hinweise auf einen Aufenthaltsort extrahiert werden. Dazu werden Glockenschläge von Kirchtürmen, der Telefontyp, Gleisgeräusche etc. im Hintergrund freigestellt und analysiert.

Re-Taping, Re-Miking und “Färber” – Wir brauchen Dreck!
Manchen Produktionen fehlt einfach das gewisse Etwas. Oftmals ist es der “Schmutz”, den wir von vielen Produktionen kennen, der ihnen fehlt. Bandmaschinen, alte (Röhren-)Geräte, analoge Mischpulte und viele weitere Geräte mehr verändern die Signale oft sehr stark, fügen Harmonische hinzu (“lineare Verzerrungen”), verändern den Frequenzgang stark und verändern das Zeitverhalten und die Dynamik von Klängen. Extrem ist das bei Bandmaschinen: Die Signale werden vor der Aufzeichnung und nach der Wiedergabe stark gefiltert, werden moduliert, je nach Recording-Level leicht bis stark verzerrt und komprimiert. Manchen Signalen (vor allem Bass, Stimme, Gitarren, Becken) tut das richtig gut. Heutige Produktionen werden durch den Verzicht auf (teure) externe Hardware oftmals zu klinisch. Es gibt zwar Plug-Ins, um dem zu begegnen, doch ist immer nur das “Original so original wie das Original”. Daher gibt es eine ganze Reihe Systeme, die sich auf das Hinzufügen dieses “Schmutzes” spezialisiert haben, unter ihnen viele Röhrengeräte. Manche Mastering-Studios nutzen keine analogen oder digitalen Prozessoren, um Bandmaschinenartefakte nachzuahmen, sondern leisten sich eine große Bandmaschine. Auf bis zu zweizölligem Band wird dann ein Re-Taping mit dem Mix durchgeführt! Auch Re-Miking, also das Ausgeben über Lautsprecher und erneute Mikrofonieren ist manchmal sinnvoll, allerdings wird in einem solchen Fall das erzeugte Signal nur leicht zugemischt.

Reverb – Flexibles Multifuntions-Tool im Mastering
Richtig gelesen: Auch im Mastering werden Nachhallgeräte eingesetzt! Auch wenn es auf den ersten Blick merkwürdig erscheint: Es kann sinnvoll sein, einen Gesamtraum zu schaffen, um einen Mix mit etwas sperrigen Signalen “zusammenzubringen”, Löcher im Stereobild zu füllen oder einfach eine gewisse Atmosphäre zu schaffen. Allerdings muss der Engineer dabei äusserst behutsam sein, denn vor allem Rauminformationen werden von unserem Wahrnehmungsapparat schnell “weggerechnet”, was zu übertriebenem Einsatz und somit zu einem zu indirekten Klang führen kann. Raumeindrücke entstehen beim Hörer bekanntermaßen durch die ersten Rückwürfe der Begrenzungsflächen wie Decke, Boden und Wände. Diese ER (“Early Reflections”) werden von unserem Gehör analysiert, eine Nachhallfahne, die das Signal vermatschen könnte, ist gar nicht zwingend notwendig. Andersherum kann ein reines Reverb-Tail ohne Erstreflektionen für eine interessante Form von Verdichtung sorgen. Im Grunde generiert das Reverb Signale, die durch Verzögerung und Filterung des Eingangssignals entstehen. Dadurch erhält man zusätzlichen, signalabhängigen und mit vielen Parametern regelbaren “Füllstoff”, den ein Dynamikgerät nicht erzeugen kann, denn er muss mit dem Vorhandenen arbeiten. Man kann dem Hauptkompressor mit der Erstellung eines Reverb-Tails quasi “zuarbeiten”.
Ausserdem kann ein Hallgerät zum Retter zu kurzer Recordings oder Bounces sein, denn oft wird zum Beispiel der komplette Ausklang eines Becken nicht ganz abgewartet und fehlt dann! Auch Fade-Outs können mit dem Reverb unterstützt werden, denn schliesslich lassen sich auch Positionen von Signalen im Raum beeinflussen (und automatisieren!).

Stem Mixing – Noch ein Zwitter!
In Teil 1 wurde es schon angesprochen: Eine grundlegende Schwierigkeit beim Mischen ist die diffizile Angelegenheit, den Gesang zu leveln. Schnell verschwindet er zu stark in den Instrumenten, schnell wirkt er “aufgeklebt”. Das Ganze ist erschwerenderweise kein statischer Vorgang, sondern dynamisch. Sicher ist es einfacher, stark komprimierte Signale zu positionieren, doch im Regelfall ist das Fahren mittels Fader notwendig (Nebenbei bemerkt: Deswegen sind die an Mischpulten so groß und in Reichweite…). Da man sich jedoch zu schnell in eine Mischung “hineinhört”, zu subjektiv empfindet und die menschliche Stimme sowieso vom Gehör äusserst genau untersucht wird, ist die Entscheidung, ob die Positionierung jetzt ok ist oder nicht, oft nicht möglich. Dazu gesellen sich noch musikrichtungsabhängige Fragen, ausserdem werden in Deutschland traditionsgemäß die Stimmen oft sehr weit nach vorne gemischt (Was das soll, eine böse Metalband mit absolut schlagermäßig vorne stehenden Vocals zu mischen, muss mir unbedingt mal irgendjemand erklären. Entsprechende Mails bitte an die Redaktion…). Aus gutem Grund werden also häufig Vocals-Up- und Vocals-Down-Mixes angefertigt, aus denen der Mastering-Engineer dann auswählen kann. Manchmal jedoch akzeptiert (oder sogar verlangt) er zwei separate Mixes: den Mix ohne Vocals als Stereofile und umgekehrt die Vocals als LR-File ohne Instrumentals. Damit kann er dann einfacher arbeiten. Das oft sinnvolle “Cross-Keying”, also das gegenseitige Side-Chaining von Vocals und Mix kann dann bequem im Mastering durchgeführt werden.

Noch einen Schritt weiter geht das Stem-Mixing oder auch Stem-Mastering. An der Problematik mit der Begriffsfindung erkennt ihr, dass es sich hier um ein Zwischending aus Mastering und Mixing handelt. Das Mastering übernimmt hier an einer früheren Stelle der Produktion: Viele Mixing-Engineers legen Signalgruppen auf Busse, die sie dann abschliessend bearbeiten und leveln. Oft sind das in Stereokonfiguration Drums, Gitarren und Bass, Vocals und Keyboards/Synthesizer/Specials. Werden diese “Stems” separat ausgespielt und ins Mastering gegeben, ist es (eventuell mit zusätzlichem MS!) deutlich einfacher, Reparaturen auszuführen oder sogar Mixes, die von verschiedenen Engineers und vielleicht in unterschiedlichen Regieräumen durchgeführt wurden, für ein Album anzugleichen. Stems sollten im Übrigen immer auf Unity (also Nullstellung der Fader) zusammengemischt den Mix ergeben, wie er geplant war. Natürlich ist diese Art von Mastering zeitaufwändig (und damit “kostenintensiv”) und kann nicht immer in jedem Studio angeboten werden.

Kommentieren
Profilbild von Marcus

Marcus sagt:

#1 - 25.09.2013 um 02:30 Uhr

0

Du sprichst da für mich zwar jetzt nichts Neues an, ist aber dennoch ein gut zusammenfügter Artikel.Viele denken sicher das hier Soundbeispiele fehlen, was aber Quark ist.
Da jeder Musiktitel individuell ist und vondaher eine spezielle Bearbeitung benötigt.Von der Summenbearbeitung mal abgesehen, lässt sich das hintereinander schalten von Kompressoren, nicht nur auf der Summe anwenden.LG,Marcus

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.
Bonedo YouTube
  • Quarterhead talk about overrated and underrated plugins and give insights into their production
  • Arturia Tape J-37 Demo (no talking)
  • Jayson Joshua talks about underrated and overrated plugins and how to mix like a pro