Bitte klärt mich auf!!!

Seit kurzer Zeit befasse ich mich mit Tontechnik, bzw hab mir ein Buch gekauft… (und les grad was über Planck:)
Und mein Wetbild hat etwas zu kippen begonnen:

Da ich Keyboardler bin frage ich euch erst was über MIDI:

  1. MIDI im Rechner ist so sau schnell das gleichzeitig gedrückte Noten wirklich gleichzeitig(=gleiches Sampel) ertönen?

  2. Es ist aber möglich das “überflutung” des Datenstroms dazuführt dass das “Timing” doch nicht so 100% das Sample trifft als es bei 1000 plugins weniger der Fall war?

  3. Kann ein VST Plugin “zwischen Sampels” auch Werte abfragen oder max=Samplerate?


    so jetzt kommen wir zum zweiten Thema, das mit der Laufzeit von Frequenzen:

  4. Wie groß ist die Phasenverschiebung der verschiedenen Frequenzen einer Quelle bei großen entfernungen?

  5. Hab ich das Richtig verstanden, werden solche Phasenverschiebungen der Frequenzen "absichtlich total außer acht gelassen (“non-linear”…), und wenn ein Nebenprodukt? (Filter)

  6. Ein Filter ist das einzige Ding was FrequenzPhasenverschiebung erzeugt (sonst ist dort ein Filter drinnen…)?

  7. Ihr kennt nicht zufällig so ein Plugin was FrequenzPhasenverschiebung von “Abhörentfernungen” simuliert?
    (additive Synthese wär wahrscheinlich resourcenschonender oder reichen “4 Bänder”?:slight_smile:



    Lg

  1. Ja.
  2. Kommt auf das Programm an. Die Steinberg-Plugins sind meist akkurat.
  3. Nein.
  4. Maximale Auslöschung entsteht bei Wellenlänge/2.
    Schallgeschwindigkeit ist 343 m/s.
    Wellenlänge einer bestimmten Frequenz ist Schallgeschwindigkeit durch Frequenz.
    Maximale Auslöschung für 100 Hz ist 343/100/2=1,715m.
    Stellst du also einen Lautsprecher direkt vor dich und einen 1,715m weg und gleichst die Lautstärke beider so an, dass jeder für sich für dich gleich laut zu hören ist, dann werden sich beide gleichzeitig weitestgehend auslöschen, wenn beide einen 100Hz Sinuston wiedergeben.
    Sehr empfehlenswert für alle möglichen Berechnungen dieser Art:
    http://www.sengpielaudio.com/Rechner-wellenlaenge.htm
  5. Praktisch alle einfachen EQ-Plugins ohne eigene Signallatenz sind nicht phasenlinear und basieren auf der Fourier-Transformation, weil sie fast latenzfrei, mit relativ wenig Rechenleistung und gut dokumentiert umsetzbar ist.
  6. Mittelbar erzeugt auch ein Phaser oder Flanger sowas denke ich.
  7. Kannste selber bauen - schick dein Signal auf mehrere Gruppen, filtere möglichst steilflankig mit einem Linearphasigen EQ und verzögere die einzelnen Frequenzen um einige Samples. Ansonsten guck dir mal das NI Spectral Delay an.

Gruß
Timo

1 = ja, das tun die. Und zwar wird im Rechner alles so weit intern verzögert, dass es gleichzeitig ausgespielt wird! (Bei vielen Plugins ertönt dann alles etwas später, was aber eher unmerklich ist. Es ist aber völlig synchron.
2 = nein. Wenn alles hart quantisiert, ist alles synchron im Rechner. Eine Sinus-Region mehrmals übereinander, oder ein VSTi gestackt, dann wird der Sound nur lauter (logisch, Gesetz der Physik).
Einzig schlecht programmierte Plugins oder das belastende Ankratzen der CPU-Obergrenze können timingmässige “Wackler” verursachen.
Latenzen beim Midi-Einspielen (auch A/D) Wandlungen) sind da natürlich ein anderes Thema.

4 bis 7 = willst du das wirklich so genau physikalisch, mathematisch und rechnerisch wissen?
ist es nicht viel passender, seine Tracks richtig gut mischen zu lernen, als sich um sowas zu kümmern…?
Meine Meinung dazu… (Du kennst mich) :wink:

Ja. siehe intersample peak limiter. Und auch alle EBU 128 R meter müssen laut Spezifikation intersample peaks auslesen können (True peak Level).

  1. Danke!
  2. Danke!
  3. Danke! siehe thinkingcap
  4. Maximale Auslöschung entsteht bei Wellenlänge/2.

Meinst jetzt wenn sie sich auslöschen wenn wenn sie eine Periode überholt wurde und sich auslöschen lässt weil sie eine periodische Wellenform ist…

Schallgeschwindigkeit ist 343 m/s.
Welche Frequenz?

Wellenlänge einer bestimmten Frequenz ist Schallgeschwindigkeit durch Frequenz.
Maximale Auslöschung für 100 Hz ist 343/100/2=1,715m.

Ein 100Hz Ton braucht 1,715m Platz zum leben.

Sehr empfehlenswert für alle möglichen Berechnungen dieser Art:
http://www.sengpielaudio.com/Rechner-wellenlaenge.htm
cool Danke!


Ein Praktisches Beispiel:

Wir sind in einen Raum ohne Boden und Wände.
Eine mono Quelle und wir sitzen 100km entfernt?
wär ja interessant wie das kling…



5) Praktisch alle einfachen EQ-Plugins ohne eigene Signallatenz sind nicht phasenlinear und basieren auf der Fourier-Transformation, weil sie fast latenzfrei, mit relativ wenig Rechenleistung und gut dokumentiert umsetzbar ist.

Fourier-Transformation also, Boah, super Danke!

Weißt du zufällig wie weit sie wann verzögert werden und so? (also in Tabellenform oder so :confused: )

  1. Mittelbar erzeugt auch ein Phaser oder Flanger sowas denke ich.
    Delays die sich auf auf das ganze Spektrum beziehen…

    \
  2. Kannste selber bauen - schick dein Signal auf mehrere Gruppen, filtere möglichst steilflankig mit einem Linearphasigen EQ und verzögere die einzelnen Frequenzen um einige Samples. Ansonsten guck dir mal das NI Spectral Delay an.


    Danke!!! genau sowas hab ich gesucht:
    http://www.kvraudio.com/product/ni_spektral_delay_by_native_instruments_ni
    gibt’s da noch mehr?


    1000Dank Timo!!!

Danke, jetzt hab ich gehofft ich hätte es aber wie soll cubase wissen was außerhalb eines Sampels abgeht? und auf welche zeit will sich das Plugin beziehen?
aber wahrscheinlich geht es jetzt um automationen und weil automationen die ur komische lettn manchmal haben sind es wahrscheinlich wirklich nur Kurven die berrechnet werden und bei bedarf übergeben?.. hab jetzt gegoogelt und:

intersample peaks
http://de.wikipedia.org/wiki/Limiter
„Intersample Limiting“: Durch die stetige Erhöhung der Lautheit von Musikproduktionen ist man auf das Problem der „Intersample Peaks“ gestoßen. So kann es bei der Digital-Analog-Wandlung zwischen den Samples zu Pegeln jenseits von 0 dBFS (dB Full Scale) kommen. Pegelmessgeräte mit höherer Auflösung als das Audiomaterial können diese darstellen. Einige Hersteller bieten deshalb „Intersample Limiter“ an, die das Audiomaterial mit einer hohen Samplerate abtasten und diese Übersteuerungen begrenzen.

das Plugin wird wahrscheinlich oversampeln, und es ist wie Timo schreibt nicht möglich?


Lg

Ja, oversampling. Dadurch lassen sich im zu analysierenden Audiosignal Werte über 0dBFS, die zwischen den reinen Samplewerten der Audiosamplefrequenz liegen und bei einem normalen Peak meter nicht angezeigt werden können anzeigen. Oder ich versteh jetzt die Frage falsch.

ich glaub wir reden aneinander vorbei.
Cubase weiß doch auch nicht mehr als im .wav drinnen steht?

Ne, aber das Plugin und das war doch die Frage…?

Weiß es eben nicht?
es nimmt einfach so irgendeinen Wert an, aber es kann die verlorene information nicht mehr “zurückquantisieren”.


3)Die Frage ist weil es ja mit Autoamationen optisch anscheinend schon möglich wäre, weil es ja Kurven, die in Funktionen dargestellt werden können, sind wo jeder Zeitpunkt exakt berechnet werden könnte




Ach ja:

8) Brauchen deaktivierte EQ Bänder Resourcen?

Die information ist ja in dem Moment nicht verloren, sondern ergibt sich aus der Digitalen Bearbeitung, und der limiter liegt noch vor der D/A Wandlung. Würde ich jetzt mal behaupten.


Was… :question:

Das Plugin kann intern machen, mit seiner zeit die ihm der Host zu Verfügung stellt, was es will,
sprich er kann intern Werte dazu dichten wie es will, auf Grund einer Modulation oder was auch immer der Effekt darstellen soll. Das plugin gibt das Audio oder Midi mit der Host-Samplerate ab.

  1. diese frage bezog sich auf noten, wobei Noten in Cubase ja Midi (physicalische/virtuelle Ports) sind, und da es
  2. anscheinend möglich ist Noten unterschiedlich timen zu können, (wenn auch nur unwillkürlich durch “überlastung”) sind die anscheinend an keine Zeit gebunden…

Automationen hingegen könnten keinen festen Werte zu einer Zeit sondern auch Kurven (ohne krümmung) sein und zu jeder beliebigen Zeit beliebig genau berechnet werden…

Danke!
Lg