Umstellung von Bitwig auf Cubase - Viele Fragen

Hallo Cubase Pro’s,

Ich möchte mich zunächst vorstellen: Kay, 52, wohnhaft in Herrsching, mache elektronische Musik mit einer DAW seit 37 Jahren.
Begonnen habe ich mit Cubase 1.0 (Atari), dann nach einer Pause weitergemacht mit Reason, dann Ableton Live, dann Presonus und seit 6 Jahren recht intensiv mit Bitwig.
Ich konzentriere mich im Moment auf Live-Musik (live gespielte und live modulierte Bitwig Clips), aber meine kommenden Events sind immersiv (7.1.4). Ich habe zwar in Bitwig viel gebastelt, um das immersiv hinzubekommen, aber das bleibt am Ende eine große Krücke, weil der Bus nun mal einfach Stereo ist und das 7.1.4 Processing “von Hand” sehr umständlich ist, den Workflow verkompliziert und auch jede Menge CPU kostet.

Natürlich funktioniert das aus Bitwig gewohnte Looping so in Cubase nicht, das ganze ist ja hier linear. Am Ende wäre es aber nicht schlimm, wenn ich mit einem Launchpad zumindest bestimmte Szenen anfahren kann, die ich dann live über Hardwarecontroller moduliere. Ich denke, das sollte auf jeden Fall klappen, richtig?

Ich synchronisiere zusätzlich eine recht komplexe Lichtanlage (u.a. 10 grafikfähige Laser, insgesamt über 50 Fixtures) über MIDI CC (4 Midikanäle, um ein DMX512 Universum abzubilden). Das schaffe ich wahrscheinlich nicht direkt mit Cubase: In Bitwig triggere ich z.B. eine AR Hüllkurve, wenn auf einer Spur eine Note gespielt wird, diese Hüllkurve steuert dann z.B. die Helligkeit und/oder die Farbe einer oder mehrerer PAR LEDs oder eine Laser Y-Achse usw. Ich habe keine Möglichkeit gefunden, wie ich in Cubase auf einer Spur mit einem VST für das Audio zusätzlich noch Hüllkurven triggern kann, die dann durchaus komplexe MIDI CC ausgeben -
oder: 1. Frage: Geht das evtl. doch?

Alternativ könnte ich die Lichtanlage auch in Bitwig belassen, dann wäre das Triggerereignis aber zumindest eine MIDI Note. Es wäre ohnehin sehr praktisch, wenn ich beide DAWs synchron betreiben könnte.
Daraus ergibt sich Frage 2: Wenn ich ein VST für die Sounderzeugung auf einer Spur benutze, kann ich das dann gleichzeitig zusätzlich noch als NoteOn/NoteOff auf einem Hardwareinterface ausgeben? In Bitwig kann man ja beliebig viele Instrumente auf einer Spur layern, durchaus auch mit gemeinsamen Insert FX, auch eine Kombination von VST und Hardware. In Cubase finde ich da nichts, es gibt es kein Container/Layer Plugin oder ich bin einfach zu doof, eines zu finden.
Frage 2B: Wie ist denn in Cubase grundsätzlich die Philosophie für das Layern von Instrumenten, z.B. 8 Instrumente auf einer Spur, gelayert und getriggert in Abhängigkeit von der Velocity und/oder Key, oder auch nur einfach alterniert gespielt?

Gerne würde ich Bitwig und Cubase auch stabil Beat-synchronisieren. Hier bietet sich prinzipiell Ableton Sync an. Das nutze ich z.B. auch, um Traktor bei einem DJ-Set in Sync zu halten. Es scheint aber so, dass Cubase das nicht unterstützt.
Ich finde zwar eine Menge Dinge bzgl. Timecode, aber das ist ja eine komplette Arrangement-Synchronisation. Ich nutze aber in Bitwig (und auch in Traktor) keine Timeline, sondern starte bestimmte (Licht/Drum/Bass)-Loops eben einfach nur im Beat-Sync. Insofern erscheint mir Timecode auch nicht sinnvoll.
Frage 3: Gibt es hier DJs die ihre Performance mit Cubase synchronisieren und wie realisiert ihr das?

Von Bitwig kommend, nutze ich dessen Modulatoren sehr umfangreich. Die seit V14 in Cubase vorhandenen Live Modulatoren sind auch der wesentliche Grund, warum ich mir Cubase aktuell anschaue.
In Bitwig gibt es halt eine Menge Modulatoren: Nicht nur LFOs, Envelope Follower und co, sondern auch MIDI getriggerte Hüllkurven, Velocity, Key, Aftertouch, Arpeggiators, mathematische Funktionen etc. Ein Riesensammelsurium.
Vor allem aber eine mehrstufige Hüllkurve ist für mich ein Standardwerkzeug, was z.B. einen Saturator steuert und so z.B. den Ton eines VST Instruments bei bestimmten Tonhöhen synchron modifiziert.
Frage 4: Ist so etwas in Cubase ebenfalls möglich?

Container/Layer Instrumente im allgemeinen ermöglichen es bei Bitwig, einen komplexen Multieffektkatalog aufzubauen und auch, ein oder mehrere Instrumente zusammen mit zusätzlichen Effekten als “Performancepatch” Sound abzuspeichern und sich so eine Library zu erstellen.
Frage 5: Wie erstelle ich in Cubase eigene Soundlibraries, die aus verschiedenen Instrumenten und Effekten bestehen?

Sorry für diesen langen ersten Post, ich habe versucht, mich in verschiedenen Foren und im Handbuch durchzuarbeiten, aber da die Funktionsweise der zwei DAWs doch sehr verschieden ist, habe ich keine wirklich passenden Antworten zu meinen Fragen gefunden. Falls ihr Howto’s oder Videos kennt, die das beschreiben, könnt ihr das auch gerne einfach verlinken.
Ich arbeite mich da schon gerne ein und investiere Zeit, die Hürde ist nur größer als zunächst vermutet.

Danke und viele Grüße
Kay

Eine weitere Möglichkeit wäre noch folgende:

Ich nutze derzeit ein Wing als Audiointerface in Bitwig, habe also 48 Audiokanäle.
Ich könnte wieder alles auf Stereo umstellen - das ist die Komfortzone in Bitwig.

Wenn ich alle Spuren einzeln ins Wing ausgebe (das wären dann maximal 24 Stereospuren und sollte reichen), könnte ich es von dort über Dante (ebenfalls im Wing) in einen zweiten Rechner mit Cubase routen. Auf dem Cubase Rechner könnte eine Dante Virtual Soundcard installiert werden.

Via Dante habe ich 64 Audio Spuren In und Out verfügbar, die Instrumente können also einzeln nach Cubase geroutet werden, in Cubase würde ich dann das Mixing (nativ in Atmos) realisieren und der Atmos Master geht wiederum über Dante zurück ins Wing und von dort ins Broadcasting/Streaming und auf die PA.

Dann nutze ich Bitwig für das Soundengineering und Clip-Launching, also für den Live Part und Cubase für Audio Recording, Arrangement, Mixing und Mastering.
Ich habe natürlich zusätzliche 10ms Audiolatenz durch den Dante Umweg über Cubase - aber das fällt für mich nicht wirklich ins Gewicht.
Was meint ihr dazu? Eventuell die einfachste Option? Und best-of-breed… ;)?

Aus meiner Sicht ist es so, dass, von allen DAWs sich Cubase und Bitwig am meisten unterscheiden. Man könnte sagen, dass FL Studio generell anders ist, weil es einen anderen, patternbasierten Ansatz verfolgt. Aber wenn man das mal weglässt, hat Bitwig aus Sicht von Cubase m.M. nach die kleinste Schnittmenge. Von daher fand ich es auch sehr sinnvoll, das C14 DAWproject-Unterstützung eingebaut hat. Diese beiden DAWs funktionieren am besten Seite an Seite ergänzend zueinander.

Von daher würde ich Dir empfehlen, die Idee in Deinem zweiten Beitrag umzusetzen. Mach Dein Ding in Bitwig und sende dann die Signale rüber zu Cubase, um dort die Immersion vorzunehmen.

1 Like

Trotzdem nochmal ein paar Einzelantworten, für den Fall, dass Du dennoch ein wenig in Cubase arbeiten möchtest:

Man würde denken, Cubase kann alles in Sachen MIDI, doch Cubase kann hauptsächlich aufzeichnen und editieren. “Kreieren” ist nicht so ganz die Stärke, und dazu gehört aus einer MIDI Note einen zeitlichen Controller-Lauf zu kreieren. Theoretisch könnte jemand ein passendes MIDI-Plugin programmieren, aber praktisch gibt es das nicht.
Ausserdem können die Signale von den neuen Modulatoren (nennen wir sie mal VST-Modulation) nicht in MIDI umgewandelt werden.

Ja und nein.
In Cubase müsste man eine MIDI-Spur erzeugen. Deren Hauptausgang wird dann auf ein Instrument geroutet, aber es gibt dann noch bis zu vier MIDI-Sends. Diese kann man dann auf weitere Instrumente oder einen Hardware-MIDI-Port routen.
Layering ist in Cubase alles andere als elegant und mächtig.

Ableton Sync wird nicht unterstützt.

Cubase ist wirklich kein Non-linear-live-performance-Programm. Es mag es gerne etwas gemütlicher im Studio.

Ja und nein. Ich glaube, out of the box geht das nicht. Cubase hat allerdings den ModScripter und damit kann man solch einen Modulator erstellen. Der ModScripter kann auf eingehende MIDI-Noten reagieren.
Ich hänge unten mal ein Video an, wo Paul Marx zeigt, wie man die so etwas mittels Hilfe von KI recht zügig selber machen kann.

Ich persönlich würde das mittels Spurenarchiven machen. Die Spuren in Cubase sind wie Container für das Instrument und die Effekte. Nicht vom Wort “Archiv” abschrecken lassen. Es geht nicht um staubige Keller:

Hier das ModScripter-KI-Video:

2 Likes

Super! Echt ganz vielen Dank, mit diesen Antworten hilfst Du mir ungemein. 100 Punkte für diesen klasse Support!
Ich werde das in Ruhe ausprobieren und mich auf den Parallelbetrieb konzentrieren und Cubase als Live Atmos Mixer nutzen.
Für die 3DFx, die dann ja in Cubase liegen, werde ich MIDI Clock für die Synchronisierung ausprobieren, damit Delays etc in Sync sind.

Ich glaube, ein solches Setup hat durchaus Potential, auch für Studios, die eine Bitwig oder Ableton Song-Performance mixen und mastern sollen. Die Spuren über Dante einzeln rüber zu bekommen, ist dafür allerdings absolut notwendig. (Eine 64 Spur Dante Virtual Soundcard kostet gerade mal 50 Euro, das ist wirklich eine gute Lösung, wenn das funktioniert!)
Es hat für mich den riesigen Vorteil, dass ich auch alte Songs ganz einfach in den Atmos Raum bringen kann, ich muss ja nur die einzelnen Spuren nach Cubase routen und die ganze, wirklich zeitraubende Konvertierungsarbeit in ein 3D Template in Bitwig entfällt.
Es hat den weiteren Vorteil, dass man die Arbeit einer Live Performance bei Bedarf auch personell splitten kann: Der Künstler arbeitet mit Bitwig auf der Bühne, Cubase läuft als FoH Mixer, bedient vom Audio-Engineer im Saal - ein paar Fx werden ggfs über MIDI von der Bühne gesteuert.

Wenn das so alles funktioniert, gewinnt ihr mich als neuen Cubase Nutzer und ich werde im Nachgang ausführlich berichten, wie das ganze praktisch umgesetzt wurde.

Danke nochmals!
Kay

Oha, dafür müsste Bitwig sich als Clock Slave andienen können, denn Cubase kann nur Master sein.

Auf jeden Fall klingt Dein Vorhaben schon recht komplex und spannend. Du kannst uns gerne auf dem Laufenden halten, wie es läuft.

Ok, das ist ungeschickt. Bitwig kann das zwar (als Slave), aber dann verliere ich Ableton Sync und dann läuft Traktor nicht mehr in Sync.
Da muss ich mir etwas überlegen, Cubase sollte nicht der Master sein, das passt vom Konzept nicht.
Wenn zwei Cubase DAWs gesynct werden sollen, ist das nicht möglich? Cubase kann niemals Slave sein?

Bitwig kann auch MTC senden.
Das sollte Cubase ja als Slave verwenden können, korrekt? ich probiere das nachher aus.

1 Like

Das ging alles mal so schön über ReWire, aber das hat Reasons Studio ja beerdigt. Zu Ableton Sync konnte sich Steinberg noch nicht hinreißen lassen. Politik oder technische Gründe? Man weiß es nicht.

MTC müsste gehen.

Cubase kann auch per VST System Link zwei Computer samplegenau miteinander snychronisieren. MIDI, Audio, Transport - alles drin. Aber das unterstützen dann Ableton und Bitwig nicht.