Ipad als Controller für Cubase in der Zukunft?

Ich habe mich schon lange gefragt warum Steinberg nur das iC rausgebracht hat.
Man könnte so schön den Channel EQ oder andere Plugins mit dem Ipad steuern.
Die Mackie MCU Emulationen sind nicht so haptisch, da die MCU keine vernunftige Einbindung der EQs hat (zuviele Pages und sinnlose Belegung der Vpots für ein/aus der Bänder).

Presonus hat mit dem neuen StudioLive Mischpult in Verbindung mit der Editorsoftware VSL die Messlatte gelegt.
Dort kann man beim Channel EQ grafisch sehr schön mit mehreren Fingern die Bänder steuern.

Steinberg könnte mit dem Ipad auch endlich mal die Parameternamen der Midicontrols für einzelne Plugins anzeigen.
Kann man mit Ipad Software nicht genug verdienen oder woran liegts?

Hallo Backbeat,


Es sind Sachen geplant, was genau kann ich dir leider nicht sagen.

gruß,

Chris

Schön, das da etwas in der Mache ist.
Bis jetzt bin ich etwas angefressen, was die Haptik und Controlleranbindung von Cubase angeht.
Die neuen CMC Controller sind so gar nicht mein Fall.
Sicher ist die ein oder andere Idee ganz gut.
Insgesamt bringen die Haptisch keine Vorteile für mich bei der täglichen Arbeit.
Bin noch zufrieden mit meiner MCU Pro und der BCR 2000 Generic Remote Anpassung die jeden Tag im Einsatz ist.

Ich probiere gerade andere DAW Hersteller mit Controllern aus.
Dort muss man sich natürlich auch erst wieder reinarbeiten.
Was mir dort halt positiv aufgefallen ist, war die Mixersteuerung von dem Presonus Live Mixer.

schön zu hören. “Geplant” oder bereits in Realisierung?

Sind Feature Requests erwünscht? :laughing:

ich könnt mir sowas vorstellen wie
a) virtuelle Grafikkarte(n)-Treiber, die dem System zusätzliche(n) Monitor(e) hinzufügen
b) spezialisierter VNC-Server in Cubase als Device(s) im Device Manager (Network Verbindungseinstellungen)
c) spezialisierte VNC-Clients für Win, MacOS, iOS, Android


“Erweiterung der Fensterfunktionalität” in Cubase: mittels ergonmisch leicht zugänglicher Funktionalität (z.B. in Fenster-Titelleiste) werden Cubasefenster wie TransportPanel, Mixer1, Mixer2, ChannelEdit, Plugin-Windows etc…, einem VNC-Server "zugeordnet. Eine solche “Zuordnung” bedeutet, dass das entsprechend zugeordnete Fenster mit den Clients, die mit dem entsprechenden Server verbunden sind auf den Displays der Clients angezeigt oder gespiegelt werden. (Die Fenster werden “einfach” auf den zusätzlichen Monitoren der virtuellen Grafikkarten gerendered, per VNC zum client übertragen und auf deren Displays anzeigt).

Die Clients sind derart spezialisiert, dass man vom Client aus Cubase-Fenster zuordnen bzw. deren Zuordnung aufheben kann. D.g. man kann vom CLient aus steuern, welches Cubase-Fenster man auf dem CLient sehen möchte. So kann man sich z.B. am Client ein Plugin-Window “herholen”, oder den Mixer2…

Das “Eingabegerät” des Clients wird dabei für die Steuerung benutzt. Also wenn der Client auf einem PC läuft, an dem eine Maus hängt, und man bewegt/klickt mit der Maus am Client den Mauszeiger im Client-Fenster, dann wird dies dem Server mitgeteilt, dieser widerumg bewegt den Mauszeiger des Server-Rechners entsprechend. Multitouch, z.B. auf dem Display des iOS-clients, das z.B. den Mixer2 anzeigt wird dem Server mitgeteilt. Solange die Server-App (Cubase) noch nicht multitouchfähig ist kann das iOS Multitouchdisplay wenigstens als Mauszeigersteuerung des Servers verwendet werden (es kann EIN Fader auf dem iOS-Mixer bewegt werden), und/oder Cubase selbst wird multitouchable, und am iOS-Display kann ein Plugin per Multitouch gesteuert werden.

Eine weitere Client-Spezialisierung wäre ein Skalieren/Zoomen des und Bestimmen des View-Ausschnitts auf das anzuzeigende Cubase-Fenster, damit auch kleine Displays (iPhone) komfortabel genutzt werden können.


Im Grunde also keine neuen GUIs, wie Cubase IC, sondern bestehende Cubase-GUIs auf im Netzwerk verfügbare Displays zur Anzeige und Steuerung verteilen.

Dann muß man einerseits das Rad nicht fotwährend neu erfinden und neue GUIs basteln (Cubase IC, TouchOSC etc…), und Steuerparameter unterschiedlicher GUIs “mappen” (per MIDI, per OSC, per VSTparametercontrol wie bei Automap) sondern man teleportiert bereits Erfundenes (bestehende GUIs wie plugins etc.) und deren Steuerung auf (mobile) Displays/Controller…

Das ganze tausendfache ge"Mappe", wie generic Remote, QuickControls, Automap, MIDI-Maps kann man sich sparen: Man zeigt das GUI da an wo man es gerne hätte und steuert das GUI exakt da wo man es hat. Man sieht, was man steuert… What you see is what you get…

träum

Ich sehe das etwas anders …
Wozu habe ich denn Multitouch an den IOS Geräten, wenn ich dann wieder nur so arbeiten kann wie mit der Maus?
Wo wäre dann der Mehrwert?
Ich träume eher davon das ich die Channel EQs direkt mit dem Multitouch steuern kann.
Z.B. mit 4 Fingern 4 Bänder gleichzeitig steuern oder zumindest ein Band mit 2 Fingern im Frequ.,Gain und Q steuern.

Das ganze wäre noch viel besser, wenn man sich selbst Pages wie bei der Generic Remote erstellen könnte.
Ich habe z.B. für meinen lieblings EQ (UAD Cambridge) eine extra Page in der Generic Remote, wo ich alle Parameter sofort auf meiner BCR 2000 habe.
Sowas könnte ich mir für das iPad auch vorstellen.
Eine eigens erstellte GUI für das Pad mit Parametern die man Multitouch kontrollieen kann, Cubase erkennt dann wenn das Edit Fenster sich im Vordergrund befindet, das es auf die UAD Cambridge Page umschalten muss da ich diese mit dem Ipad steuern möchte.

Natürlich wären dann auch extra Pages für andere VST Effekte wie auch VST Instrumente möglich…

Cubase also als Schaltzentrale, gibt es eine Anpassung auf dem Ipad für das jeweilig im Focus befindliche Plugin wird diese sofort auf dem Ipad angezeigt.
Wenn es keine extra Anpassung mit GUI gibt wäre ja noch eine Liste mit den Steuerbaren Parametern des VSTs möglich mit Fadern ( ähnlich des Generischen Bedienfelds der Edit Fenster), die man daneben Horizontal auf dem IPad anzeigen könnte.

Von so etwas träume ich schon lange…

Multitouch:

Nix anderes hab ich geschrieben. Nur ist Cubase selbst “mausgesteuert”, also “singlepoint”, weil halt das OS “mausgesteuert” war bisher. Cubase gehört aufgebohrt hinsichtlich mutlitouch. Erst wenn das Cubase GUI selbst multitouch capable ist macht die Anzeige des GUIs auf Multitouch-Devices Sinn… bis dahin kannste wenigstens per single touch bedienen, wie bisher auch, nur auf mobilen Displays…

Ne eigens erstellte GUI-app für jede Applikation in Cubase, jedes Plugin, Mixer, EQs… für jedes OS!!! kannste Dir dann sparen. Und Steinberg vor allem und ressourcen für Cubase selbst freihalten, statt entwicklungszeit für stupide GUI/Mapping-Geschichten zu verschwenden. Einmal EINEN Client geschrieben für ein OS und gut is.

Und EINMAL customizebare “Remote-Panel” in Cubase selbst einbauen. Die könnten dann auf den iOS-/android/Win8-Tablets etc… angezeigt und gesteuert werden, auch per multitouch, schließlich wird Cubase mit Sicherheit multitouch-fähig, irgendwann… Wenn’s die Betriebssysteme standardmäßig sind…

Na dann sind wir doch wieder einer Meinung :wink:

…und natürlich ist der Beitrag mal wieder in der Forumstoilette gelandet…

Na hoffentlich tut sich da bald was. Ein Cubase Controller fürs iPad ist schon lange überfällig.