Allgemeine Frage: Normalisieren

Hallo, ich habe irgendwo gelesen, die Funktion NORMALISIEREN wäre nicht so das Optimum und man solle sie tunlichst vermeiden. Kennt das Thema jemand und gibt es vielleicht eine Begründung dafür?

Ich kann mir nur vorstellen, dass diese Ablehnung des Normalisierens auf übertriebenen Einsatz bezogen ist.
D.h. ich habe ein schwaches Signal (z.B. Gesangsaufnahme) und ziehe den Pegel auf Normal-Pegel hoch. Dabei werden dank geringer S/N ratio dann auch die Rauschanteile unnötig hochgezogen. Deshalb sollte man schon bei der Aufnahme ordentlich auspegeln. Wenn mann danach normalisiert ist der Effekt der Rauchanhebung wesentlich geringer.

Ich normaliesiere relativ viel, dann aber nicht auf 0dB sondern auf -0,3dB

Hi,

Kommt drauf an, was du den normalisieren möchtest. Wenn ich z.b, von einem Vst’i einen “one-shot”
Lead/Fx in ein wav.file exportiere, normalisiere ich (wenn nötig) auf 80%. Habe dadurch, bei diesen Sounds
immer ungefähr das gleiche Level, was mir beim Abmischen am Schluss sehr hilft. Bei Sounds von
Externen Synths, schaue ich, das die Aufnahme sauber ausgesteuert ist.(Thema Analog Aufnahme/
Rauschabstand). Sounds auf 100% normalisieren, während der Produktion ist schlecht, da du dir sämt-
lichen Headroom nimmst, denn du für EQ Korekturen nach oben vieleicht mal brauchst.
Oberflächlich gesagt…Digitales/Ja, Analoges/Nein.

Grüsse

Hallo da hätte ich auch gleich eine Frage, die mir keiner beantworten konnte.
Es heisst ja, dass man in 32 Bit in Cubase nicht übersteuern kann.
Angenommen ich habe einen Sänger aufgenommen, der bei ca. -1 dB seine höchsten Peaks hat,
dann hab ich zu 0 hin noch ca. 1 dB bis es übersteuert. Aber wenn es in Cubase dann eine 32 Bit Datei
ist, was passiert dann, wenn man seinen EQ um 5 dB anhebt? dann wäre ich ja quasi 4 dB über 0 drüber,
wenn die Aufnahme von Haus aus bei -1 dB ausgesteuert ist. Und was wäre agenommen wenn ich die Aufnahme
auf -10 dB normalisiere, dann hätte ich ja wieder 10 db Headroom zu 0 dB und erhöhe jetzt den EQ um 5 dB dann hätte ich ja theoretisch noch 5 dB Headroom frei aber dadurch dass die Aufnahme ja eigentlich nur -1 dB Headroom zum Zeitpunkt der Aufnahme hatte, müsste dies ja de Aufnahme auch schon verschlechtern. Sehe ich das so richtig? Kennt sich da jemand richtig gut aus?

Hi,

Wenn du keinen Headroom mehr zur Verfügung hast, musst du, statt das gewünschte Signal
anheben, alles andere absenken. Der Headroom steckt in der Aufnahme (lautester pegel vom
Signal bis 0db) Leiser stellen oder per normalisierung absenken nützt da nichts. Eine übersteu-
erte Aufnahme überschlägt auch, wenn du sie dir ganz leise anhörst…
Gibt sehr viel gute Literatur über dieses Thema, einfach mal googeln.

Gruzzle

Das heisst auf gut Deutsch, wenn der Headroom in der Aufnahme nicht vorhanden ist z.b. Spur mit -1 dB Aussteuerung, dann ist jede Erhöhung, die darüber geht eine Verzerrung. Erst intern gibt es dann keine Übersteuerung mehr z.B. wenn 4 Kanäle mit -10 dB Headroom auf einen Master laufen und der Master dann um 2 dB über Null geht, verzerrt nichts solange man in 32 Bit sich befindet. Sobald man wieder auf 24 oder 16 bit rendert, muss der Pegel wieder unter 0 dB sein, weil sonst die Spitzen abgeschnitten werden. Ist das so korrekt?

Hi,

Meines Wissens ist das korrekt…

Da muss man sich nicht mal so supertoll auskennen…

Im Prinzip (es schlage mich niemand für vereinfachte Darstellungen, bitte!) isses wurscht, wie laut dein File ist, solange es unter 0 db FS bleibt. Also ein bisschen drunter schadet nicht :sunglasses: Bei 24 oder 32 bit float darf’s sogar ein sehr großes bisschen drunter sein, grob gesprochen ist dein digitales Signal technisch gesund, wenn es zwischen -20 und -0,1 db FS hat. Cubase verarbeitet es immer mit 32 bit float-Auflösung.
Ob es analog gesund ist, hängt davon ab, was du wie in deine Wandler schickst. Nimmst du z.B. über ein Pult oder einen Channelstrip auf, dann muss dort natürlich erst mal ordentlich gepegelt sein und nichts sollte (wenn es denn nicht soll) verzerren etc. Wenn du dein Mic an einen einfachen Mic-In deiner Soundkarte anstöpselst, dann sollte sich kein Problem ergeben, wenn du den Mic-Gain so pegelst, dass im Cubase’schen Inputkanal nix clippt.

‘Gain Staging’ ist der Schlüsselbegriff, wenn’s um die Weiterbearbeitung mit Plugins geht. Ein Signal mit -20 db spricht Dynamik-Plugins natürlich weniger an, als ein Signal mit -1 db (im Falle eines Kompressors müsstest du beim -20-file den Threshold viel weiter runterziehen, damit das Ding was tut). Was aber auch kein großes Ding ist, denn genau dafür gibt’s ja den Input-Gain (jetzt, häufig unsichtbar :imp: im Pre-Rack versteckt).
Bei EQ-Plugs macht’s nur 'n Unterschied, wenn du Zeug benutzt, das analoge Schaltkreise emuliert.

Du kannst also machen, was/wie du willst. Damit alles, was soll, im grünen Bereich bleibt, empfiehlt sich’s aber durchaus, den Kanal-Gain so zu regeln, dass 10 - 20 db Headroom verbleiben. Eben je nachdem, worum sich’s bei dem Signal handelt und was du damit anzustellen gedenkst :mrgreen:

Dabei werden dank geringer S/N ratio dann auch die Rauschanteile unnötig hochgezogen.

Rauschen? Wo lebst du denn :smiley: Also selbst wenn ich den Pre-Gain-Regler fast ganz runter dreh, das in Cubase normalisiere und dann noch so richtig überkomprimiere habe ich kein hörbares/störendes Rauschen :wink:

Interessante Aspekte. Danke. Ich hatte so in die Richtung gedacht, gegen das Normalisieren spräche irgendein technischer Grund, Veränderung der Daten in einer nicht dienlichen Weise oder so.

das Normalisieren stammt noch aus der 16bit Aera. Ich vermeide jede unnötige Berechnnung des Audiomaterials. In einer 32bit-Umgebung kann ich mit Spitzenpegeln in der Gegend von ca. -20 dBFS sehr gut leben… da bleiben immernoch gut 120 dB an Geräuschspannungsabstand übrig … :slight_smile:

das Normalisieren stammt noch aus der 16bit Aera. Ich vermeide jede unnötige Berechnnung des Audiomaterials. In einer 32bit-Umgebung kann ich mit Spitzenpegeln in der Gegend von ca. -20 dBFS sehr gut leben… da bleiben immernoch gut 120 dB an Geräuschspannungsabstand übrig …

+1
Nur, das Normalisieren ist nicht wirklich eine Berechnung. Das Audiomaterial wird einfach so hoch gezogen, dass die Spitzen an 0db (oder anderer Wert) “anstoßen”. So aber jetzt ist erst mal Weltuntergang :mrgreen:

Was bedeutet das in einer 32 Bit umgebung genau?
Angenommen ich möchte beim mischen mit relativ gleichen Pegeln starten,
kann ich dann nicht alle Spuren z.B. Bass bei -20, Gitarre bei -8 usw.
erstmal auf - 10 normalisieren und dann mit dem Mix beginnen?
Dann hätte ich die Pegel doch viel besser unter Kontrolle. Daher könnte normalisieren doch sinnvoll sein.
Gerade wenn man die Spuren geschickt bekommt und selbst nicht eingepegelt hat.

Übrigens hat marQs recht. Ich hab gestern ein Signal mit -1 dB Headroom ausgesteuert und einen EQ insertiert, der um 10 dB die Mitten angehoben hat, anschließend als 32 bit datei exportiert und wieder auf -1 dB normalisiert.
das gleiche mit einer Datei, die bei -11 db ausgesteuert war, EQ drauf, ca. 10 dB erhöht, so dass es nicht über 0 geht, exportiert und auch auf -1 dB normalisiert. Beide Datein sind gleichwertig. Die Datei mit -1 dB Headroom verzerrt oder übersteuert tatsächlich gar nicht. Wie das funktioniert … keine Ahnung aber es ist so. Wenn man gleiches mit 24 Bit macht und in 24 Bit exportiert, sind die Peaks gnadenlos gecuttet.

Ein Computer muss immer Rechnen… Auch in diesem Fall. Jede Manipulation erfordert eine Neuberechnung. Es sei denn man spielt eine Datei nur ab, ohne sie in irgend einer Weise zu beeinflussen. :wink:

Ja, schon klar. Ich wollte damit nur sagen, das am Klang nicht verändert wird. Bit- und und Samplerate bleiben gleich, es wird einzig und allein die Lautstärke angehoben.

PS: Schönen Weltuntergang noch :mrgreen:

Normalisieren verändert aber den Klangcharakter eines Sampels nicht. Daher kannst so viel normalisieren wie du möchtest. Es ist nur eine digitale mathematische Lautstärkeveränderung und nicht vergleichbar mit einem analogem Gain.