Normalisieren Ja oder Nein?

Hallo Zusammen,

ich hab da mal ne ganz banale, um nicht zu sagen dumme, Frage!?

Vocalrecordings…Audiospuren normalisieren oder nicht?

Wenn wir im Studio recorden, pegeln wir den Artist immer ein über den Auschlag am Audiointerface (bisher Audiofire 4 - seit heute UR44)
Allerdings haben die Leute die Angewohnheiten wie, mal näher ran ans Mikro, mal weiter weg, mal Finger in der Nase, mal Handstand in der Gesangskabine… daher normalisiere ich immer die Audiospuren, da sonst auch kaum ne satte Lautstärke der Spur zu hören ist. Wobei das Fehlverhalten in der Booth damit natürlich nicht behoben, mir ist schon klar, dass das Signal nur angehoben wird. Bisher habe ich es allerdings nicht hinbekommen die gewünschte Lautstärke zu erhalten, ohne das das Interface vorher übersteuert.
Macht das Sinn oder sollte man lieber mit dem Pegel alles auf die richtige Grundlautstärke regeln? Wenn ja wie?

Danke für Infos

Grüße

Sinnvoll pegeln und eine gewisse Disziplin seitens der Künstler sind schon gute Ansätze - wenn die Sängerin im Handstand mit den Zehen popelt mag das einer gewissen Ästhetik nicht entbehren, wird der Gesangsperformance aber bestenfalls bei psychedelischer Experimentalmukke weiterhelfen :laughing:

Wenn die Aufnahme starke Pegelschwankungen aufweist, dann hilft normalisieren ja auch nur, wenn du den Kram vorher in einzelne Events zerlegst/in lautstärkeähnlichen Parts aufgenommen hast. Dann kannst du auch gleich händisch und ohrisch die Pegel einfach über den Eventgain anpassen. Überhaupt, Normalisieren von Einzeltracks auf 0 dbFS macht eh kaum Sinn, überfährt die internen Arbeitspegel der allermeisten Plugins (Stichwort ‘gain staging’).

Also pegeln zwischen -18/-12 db, einzelne Peaks bis rauf zur fast-Null sind auch kein Stress, dazu ein kräftiger Rüffel, wenn Mr. oder Mrs. Artist zu arg hopsen, tanzen, turnen, popeln und dann sollte die Frisur doch sitzen, oder?

Beim ersten Text Record siehst ja eh schon, ob der Eingangspegel des Interfaces passt, der Sänger den richtigen Abstand etc.
Wenn der Song dynamisch gesungen wird, dann nehm ich (ich singe selbst ein) die lautesten Passagen und schau dass nichts übersteuert.

Den Rest mach ich dann mit dem Compressor - bzw Sänger die Live singen, werden mit dem Mikro arbeiten - also bei leisen Passagen näher ran gehen und bei lauteren weiter weg.

So als “Erziehungsprozess” kannst ja nach dem ersten Take dem Sänger das vorspielen, wie es klingt. Dann brauchst ihn nicht zu tadeln - dann hört er es selbst und wird Disziplin walten lassen. Gilt nicht nur für die richtige Lautstärke sondern in erster Linie für die richtigen Töne, die immer Konzentration erfordern.

Wenn nicht…dann mach Dich auf viel Zeitaufwand gefasst…oder such Dir einen anderen…:wink:

Also, zuallererst sollte man schon VOR der Aufnahme darauf achten, genug Pegel aufs “Band” zu bringen (ohne zu Clippen, versteht sich) Die gezielte Aussteuerung ist ebenso wichtig wie genug Headroom.

Innerhalb der DAW (Cubase) normalisiere ich nichts mehr. Wozu auch?

Man hat schliesslich genug Möglichkeiten, den ggf. mal leisen Pegel einer Audiospur grundsätzlich höher zu fahren:
Im Pre-Bereich die GAIN-Stufe (bis plus 48 dB!) der MixConsole (so mache ich es)
Durch insertierte Plugins (Kompressoren, EQs u.a. haben meinst einen eigenen Level-Parameter zur Anpassung)
Aber auch die Volume-Anfasser direkt auf jedem Audio-Event kann man hierzu bequem verwenden.

Eigentlich sollte heutzutage eh nichts mehr rauschen, innerhalb der DAW ja sowieso nicht mehr.
(Gutes Mikro, guter A/DWandler, Pegel stimmig eingestellt stets vorausgesetzt)

Merke dennoch: es ist nicht schlimm, leiser aufzunehmen! Das kann alles aufgeholt werden.
Bei deinem Beispiel der wechselnden extremen Gesangsabstände durch ggf. mal “zappelige” Sänger/innen
sollte man eh besser auf Nummer sicher gehen und niedriger recorden. Passt schon!



Gruss
C.

Wichtig ist im Grunde nur mit 24 Bit aufzunehmen, da kann man sich locker einen Maximalpegel von -10db erlauben, die Bittiefe reicht da immer noch (bei 16 Bit sieht das anders aus).
Im Gegenteil ein hoher Pegel ist in der Verarbeitung des Signals eher von Nachteil, denn ich muss immer schauen die nachgeschalteten Plugins im Eingang nicht zu “überfahren” → zerren und matter, schlechter Klang ist die Folge.
Das ist mir als alter Hase gerade wieder passiert, eine Aufnahme mit -0.7db in der Spitze (war auch nicht schlimm, eh nur eine Guidevocalspur) da musste ich erstmal den Pegel wieder wegnehmen, damit ich ordentlich EQen und Komprimieren konnte.

Normalisieren mache ich nur dann, wenn ich Gerätschaften, vor allem Mikros miteinander vergleiche, damit ich gleichen Maximal-Pegel habe, eine Nachbearbeitung entfällt meistens und wenn dann, dann regle ich ein paar db wieder weg, aber ich habe einen gleichen Ausgangspegel bei den Mikros (klar die Durchschnittlautheit muss ich auch im Auge behalten…)

Bin völlig deiner Meinung, Whitealbum! Stimmt alles.
Und 24 Bit ist mittlerweile ja eh überall Standard geworden.
Wobei ich der Meinung bin, dass man auch mit 16 Bit heutzutage immer noch hochwertige Aufnahmen machen kann!
(gute Mics/Wandler vorausgesetzt) 16 Bit sind also keinesfalls “falsch”, das kann durchaus ausreichen. Ich fahre manchmal immer noch mit 16Bit/44,1 - hier dann höher ausgepegelt, manchmal gar mit dezentem “unhörbaren” Einsatz Limiter/Kompressor. Aber auch ohne, direkt aufs “Band”. Nie Probleme, geht alles klar.
Kommt vielleicht drauf an, was man so recordet (Jazz-Drums oder dynamische Ak Guit, ja da sind 24 Bit gern von Vorteil).

C.

Ja Cent. guter Hinweis, meine alten Aufnahmen waren alle 16Bit/44,1Khz und mit viel Fingerspitzengefühl gepegelt :slight_smile:
Und klangen keinen Deut schlecher…
Und klar, das kann man heute auch noch immer tun, aber wie Du sagst, man muss halt aufpassen nicht zu niedirg und nicht zu hoch zu pegeln (Einsatz von Comps/Limitern schon bei der Aufnahme).

DA ich mir da keinen Kopp mehr machen will, und wie Du auch richtig bemerkst, sehr viele akust. Instrumente aufnehme, bin ich mit 24 Bit auf der sicheren Seite.

Ich überlege tatsächlich, ob nicht mal 24 Bit/88,2khz bzw. 24 Bit/96khz aufnehmen soll, gerade bei rein akust. Arrangement (alles fein aufgenommen mit Top-Mikros und Top-Preamps). Habe da gerade einen längeren und älteren Artikel gelesen, dass nicht nur die Bandbreite eine Rolle spielt, sondern auch die zeitliche Komponente, die beim rigorosen Abschneiden bei 22khz “gefälscht” wird, mit dem Ergebnis das es eben nicht so klingt wie es der Hörer erwarten würde (Nur so in Kürze, der Artikel war wirklich lang :wink:.
Natürlich ergibt dies ggf. auch nur Sinn bei hochwertigen Aufnahmen von Naturinstrumenten.

Hast Du da schon “Langzeit”-Erfahrungen gerade bei Aufnahmen von akust. Instrumenten?

Hallo,
soweit, so klar.
Die Aufnahme sollte schon am Anfang stimmen.

Jetzt habe ich aber mal eine evtl. dumme Frage.
Was ist, wenn man ein fertiges Audiofile, oder Sample vorliegen hat, das extrem leise ist (komplett), oder man im Event nicht einmal die Transienten erkennt?

Was spricht da gegen das Normalisieren?
Welche Nachteile hat das Normalisieren überhaupt? Ist das nicht einfach eine interne Pegelanhebung?
Die Möglichkeit der Normalisierung muss doch einen Sinn haben, sonst wäre diese Bearbeitungsmögllichkeit ja überflüssig in der DAW.

Gruß
Gerd

@Whitealbum:
Eigentlich ging ich immer davon aus, so auch meine bisherigen eigenen Tests und Erfahrungen, dass es sich eher um einen Mythos handelt “höher als 44,1” zu recorden… (Film-Standard in 48 kHz, für Audio mache ich stets alles in 44,1).
Aber wenn du da einen treffenden, weil aufschlussreichen Artikel vorzuzeigen hast - immer gern, bin interessiert! :slight_smile:

Es ist richtig, “sorgenfreier” nimmt man eher mit 24 Bit auf, da kann kaum etwas passieren, in dieser Bit-Qualität ist es wirklich eine gute Absicherung.

Ja, , Naturinstrumente nahm ich bereits viele auf, insbesondere Akustik-Gitarren (sehr dynamisch spielende Gitarristen aus Südamerika!), aber auch Cello, eine Fidel, zuletzt eine alte Violine aus dem Jahre 1860. Ach so, viel dynamische Perkussion aus Lateinamerika ebenso. (Albumproduktion eines bras. Künstlers). Hier überwiegend in 24 Bit, da wir das herrliche Zeugs natürlich pur haben wollten. (“Surdo”, “Cuíca” waren einige dieser etlichen Instrumente, diese kurzen Namen konnte ich mir wenigstens merken, d.h. waren gut im Cubase Mixer einzutragen…) :mrgreen:

Gruss
Central

.

Ja, solche Instrumente machen mal richtig Laune :slight_smile:

D.h., in 88,2 und 96khz hast Du noch nichts aufgenommen?

Den Artikel den ich meine erschien im Professional Audio MAgazin, moment muss schauen…09 und 10/2009.
Autor Ralf Koschnicke Geschäftsführer von acousence.de:

Leider sind die Artikel nicht auf der Seite.

Klar ist aber auch, dass das Endmedium auch die gleiche Auflösung haben muss, heute kein Problem mehr, es gibt genügend Vertriebe die solche Files verkaufen.

Ah, ok… Das mus ich mal überprüfen, danke f.Link!
Ja, in 88,2 nahm ich bereits auf - konnte aber leider keine relevanten Unterschiede zu 44,1 feststellen. (so dass ich 96 kHz sowieso nicht mehr ausprobiert habe) :wink:
Wie gesagt, das sind nur meine eigenen “Testergebnissse” dazu, ich fahre mit 44,1 wirklich ausreichend bei allen meinen Recordings. Es passt einfach, bin zufrieden soweit.

Klar ist aber auch, dass das Endmedium auch die gleiche Auflösung haben muss…

Jep, korrekt!
Aufpassen sollte man da eigentlich nur bei Filmvertonungen, da hier das Format mit 48 kHz aus bekannten (oder nachzulesenden :wink: ) Gründen letztendlich vordefiniert ist, und es somit mit dieser Einhaltung auch keine Probleme beim Im/Export geben sollte.




.

Beim nächsten akustischen Song probiere ich das einfach mal aus.
Und wenn ich in die Lautsprecher rein und rausgekrochen bin und “erhöre” keinen Unterschied, ist ja auch nicht schlimm :wink:
Es soll auch weniger mit den Frequenzen zu tun haben, sondern mit dem “Erleben” des Musikstückes, also, man hört sich das lieber an und empfindet das insgesamt als stimmiger.
Kann natürlich auch Esoterik sein :wink:, aber mal hören was dann daraus wird.

haha… ja, ich weiss genau was du meinst, Whitealbum!
Das kenn ich auch… (letztens mal wieder beim Checken von Monitorabhören, es gab da so eine Box, in die konnte man förmlich “hineinkriechen” wegen der Tiefenwirkung…haha)

Eigentlich geht´s ja nie um technische Werte, nein! es geht immer um das “gute Gefühl”, was einem etwaiges Equipment unbedingt erzeugen sollte!
:slight_smile: :wink:
Bin auf jeden Fall gespannt auf deine weiteren Tests!
aber poste doch gern hier, interessantes Thema, vllt. geh ich das auch noch mal an…
:sunglasses:

Gruss
Cent

Eigentlich ist das Thema ja “Normalisieren Ja oder Nein?” :laughing:

@MGP @Vollgerd

Ich Zitiere mal http://www.delamar.de
“Das Normalisieren von Audiodaten ist eine Anhebung der Amplitude, um die maximal mögliche Lautstärke zu erreichen, ohne das bearbeitete Audiosignal verzerren oder clippen zu lassen. Die Anhebung findet gleichmäßig auf allen Bereichen des Audiosignals statt”.

@Vollgerd

Das Normalisieren kenne ich aus meinen Zeiten der Film/Video-Produktion.
Wenn man duzende von Interviews Sauber machen muss (schneiden etc) dann hat man die dateien schnell mal alle Normalisiert. Um sie dann bei verwendung alle so ziemlich gleich auf einem Level hatte. (Für die Time-Line )
In einer Musik-Produktion ist das verwenden vom Normalisieren (ich sag mal) eher Unzweckmäßig.

Genau genommen braucht man diese Funktion gar nicht, weil:
Die Aufnahme so leise das man sie eigentlich sowieso nicht werwenden würde.
Denn man würde auch den ganzen (Dreck) Umgebungsgräusche,Raumanteil, alles was so im Signal mitschwingt (evtl Netzbrummen,) mit Anheben. Ob man das den noch gebrauchen kann…?

( Ausnahmen gibt es natürlich immer)


Tipp meinerseits: Beschäftige dich mehr mit dem Themen: Nutzsignal-Headroom, Sämplingrate, analog vs.digital. Und vor allen, “richtiges Mirkrofonieren”!

@centralmusic und whitealbum

Hallo, ich erlaube mir, mich mal in Euer 2-er Gespräch einzuschalten. Ich arbeite vorwiegend akustisch und habe (Ohr-seitig) keinen Unterschied von 44.1 auf 88.2 bemerkt. ABER: Ich bilde mir ein, das meine VST Instrumente aus der Vienna Library weniger Latenz haben, wenn ich in 88.2 unterwegs bin. Ich kann es grade nicht testen, aber vielleicht wißt Ihr was dazu?
Gruß streamingtheatre

Sorry, da wird`s von meiner Seite aus noch mehr offtopic… hatte ich nicht dran gedacht.
Gruß
streamingtheatre

Hallo Blechklotz,
danke für die Info.
Meine Dinge sind fast ausschließlich VST und Midi.
Mit Ausnahme von den evtl. vorkommenden Gitarrenspuren.
Die laufen aber auch ohne Mikrofon ab, da ich diese direkt in das Audiointerface einspiele.
Und da ist es meistens so, dass die Aufnahmen viel zu leise sind, was sich allerdings ändert, wenn dann der Guitarrig zum Einsatz kommt.

Gruß
Gerd

@Vollgerd
Auch wenn du nicht selber direkt Aufnahmen durchführst. So ist doch das Handwerk dazu für ein Autio-Ingenieur doch ein Wichtiges Basic. Abgesehen davon das man auch erst versteht warum manche sagen so klingen, wie sie dann klingen.

Ich denke, jetzt ist mir auch klar, die Frage nach dem Normalisieren.
Es ist halt schon ein gewaltiger Unterschied ob ich ein Vst-Instrument verwende oder richtige Instrumente mIsche.

Das ist klar und du bildest es dir nicht ein - je höher die Samplerate desto schneller werden die Daten verarbeitet, geht aber ziemlich auf die CPU los das Ganze, außerdem ist der erhöhte Speicherbedarf bei größeren Projekten auch nicht von schlechten Eltern. Allerdings hab ich bei Freunden die richtig gute (leider sauteure) Preamps bzw. andere analoge Goodies haben festgestellt das höhere Samplerates schon was bringen, nicht unbedingt vom Grundsound her, aber es klingt im Mix irgendwie luftiger, lebendiger. Ich zB. arbeite mit einem AxeFx (48) da bringen höhere Sampleates als 48 wenig bis nix und die meisten Samples von zB. Drums wie BFD3 etc. sind 44,1 oder 48 da bringts auch nicht wirklich was.

Anders gesagt, würde ich über richtig gutes analoges Equipment (Mics, Preamps, Comps, die ganze Palette halt :slight_smile: ) verfügen wären 88.2 oder 96 meine Wahl aber in meinem Fall reichen 44.1 oder halt 48 aus.

Oh, ich war nicht im 2-er Gespräch, die beiden mögen mir verzeihen :slight_smile:

Was Normalisieren anbelangt, probiert hab ich es schon liegt aber schon sehr lange zurück, in den Anfangstagen meiner “Digitalzeit” sozusagen, wende es aber nicht mehr an weil es meiner Meinung nach vernünftiges Einpegeln nicht mal im Ansatz ersetzt - verlorene Bits sind nun mal verlorene Bits - ist für mich wie ein grottenschlechtes Foto wo die Auflösung nicht stimmt, das wird durch Photoshop auch nicht wirklich besser und als Grafiker. . . . . ., naja lassen wir das.

Bei höherer Samplingrate verkürzt sich die Wandler latenz.
Abgesehen davon, wird der Puffer bei höheren Samplingraten schneller abgespielt, was bei doppelter Samplingrate, die halbe Latenz bedeutet…