Separate Stereo Mix Busse: Verständnisfragen

Da ich im Forum noch nichts greifbares gefunden habe, möchte ich die v8-Neuheit mit den vier neuen Bussen zur Sprache bringen.
Sollte das Thema dennoch bestehen und von mir versehentlich übersehen worden sein, dann führt die doch bitte zusammen. Danke.

Soweit ich mich da bislang durchprobiert habe und auch die Stellen des Einsatzes gefunden habe, ist immer noch der Signalfluss unklar.

  • Streng genommen sind es ja fünf Busse: 1 - 4 sowie “Main”.
    Hm.
    Ja, die kann man ja auch entsprechend auswählen.

  • Wenn ich jetzt ein DSP im Master habe (also eine Ebene höher), wirkt das dann auf alle anderen Busse oder werden die Busse feat. Main am Master vorbeigeschleust?
    Angenommen, Mix #1 hat gar kein Soundprocessing, ist es dann “clean”, auch wenn im Master noch was drin steht?

Bei allem Fortschritt, aber so langsam wird’s haarig.

  • Früher™ konnte man jedem Encoder sein eigenes DSP zuweisen, zusätzlich zum generellen DSP für alle Encoder.
    Okay.
    Zusätzlich hatte jeder Eingang noch sein eigenes DSP, wenn man wollte.
    Sehr cool!
    Dann kam die Option des Soundprocessings in den Audio-Einstellungen hinzu: Jedem Device konnte grundsätzlich ein DSP zugewiesen werden.
    Bemerkenswert, aber so langsam wird’d konfus.
    Tja, und nun haben wir 4 bis  5 Busse zusätzlich im Spiel.

Ganz offen: Ich habe die Orientierung verloren.
Gibt es überhaupt noch Hoierarchien im Signalfluss, ist da etwas kaskadiert und wenn ja, wie?
:exploding_head:
Natürlich ist die Flexibilität von mAirList großartig und die Möglichkeiten scheinen unbegrenzt, aber in dieser Angelegenheit scheint Wildwuchs ausgebrochen zu sein.

Kann mir bitte mal einer der professionellen Radiomacher im Forum erklären, ob das auf den größeren Systemen auch so ist oder ob man da auf einfachere Strukturen setzt?

Besten Dank für jede Orientierungshilfe.

Natürlich gibt es im Radio Busse, jede Menge sogar, aber die befinden sich alle in einem Regietisch (vulgo Pult) und sorgen dafür, daß man vorhören kann, Vorgespräche führen, verschiedenen Konferenzteilnehmern unterschiedliche Rückprogramme geben usw. Hat also nichts mit dem zu tun, was eine Ausspiel-/Encodersoftware so treibt. Vielleicht übersehe ich aber was.

Ein neues, umfassendes (und exaktes!) Blockschaltbild wäre eine große Hilfe zum Verständnis des Audioroutings!

1 Like

D’accord.. :grin:

Da bin ich ja ganz bei dir.

Ob analog (FOH (größter Einsatz: Allen&Heath MixWizard 14:4:2), aber auch kleines Heimstudio fürs Radio (zuletzt: D&R Airmate 8-USB, allerdings noch die zweite Generation)) oder auch digital (kleines mobiles Setup für Mini-FOH, Audio-Zuspielung für Video-Livestream oder Mischpultschorsch™ bei einer Video-Offlineproduktion nach den Maßgaben eines ö-r Senders): Diese harte Schule hat dazu geführt, dass mich AUX-Wege, Subgruppen, Matrixe, Signalprozessoren auf verschiedenen Ausspielwegen so schnell nicht aus der Bahn werfen.

Und ob ich heute nun helfen kann, analoge Heimstudios einzurichten, auf virtuellen Pulten cleanfeed-Schaltungen zu emulieren oder gar die Software zu einem Audio-Interface mit mAirList zu verbinden: Wenn die Basis stimmt, ist die Hilfestellung kein Problem.

Als ehemaliger Ausbilder weiß ich: Du hast erst dann etwas wirklich verstanden, wenn du es einem Dritten so erklären kannst, dass er es wiederum versteht.
Das war der Punkt, an dem ich gestern Abend vor eine Wand gelaufen bin.

Daraus folgt: Auch wenn es um DSP in mAirList geht, komme ich klar. Soweit im Grunde kein Problem. Hauptsache, der Signalfluss ist logisch nachvollziehbar.
Für die Neuerung in v8 mit den Bussen habe ich auch schon eine Idee (wenngleich nicht so, wie vermutlich ursprünglich angedacht). Allerdings fehlen mir grundlegende Informationen dazu.

Ja, ein Blockschaltbild wäre ein Anfang.

Aber selbst ein großes Digitalpult hat nicht so viele Eingriffswege für Soundprocessing wie das aktuelle mAirList. Und mittlerweile kommt mir sogar der xyz Broadcaster auf diesem Sektor etwas leichter vor.
Die Stärken von mAirList liegen meiner Ansicht nach woanders. Mag sein, dass sich diese Meinung noch ändert.

Torben hat in Keine Unterschiede in Mairlist v8 Beta geschrieben:

Da möchte ich ihm gar nicht widersprechen. In v6.0 war das im Grunde auch nicht anders.
Was ich aber im Laufe der Jahre gelernt habe: Was man geschickt kommuniziert und vielleicht sogar mit Praxisbeispielen untermauert, führt zu höherer Akzeptanz und vielleicht auch zusätzlicher Kaufbereitschaft.

Ich denke, wenn man der Kreativität der Anwender erst mal einen Anstupser gibt, kann das ein Selbstläufer werden. Mit den ganzen zusätzlichen Filtern bei der Playlist-Zusammenstellung war es anfänglich doch auch nicht anders.

Soll heißen: Vielleicht erkenne ich die Genialität der Neuerung noch nicht im vollen Umfang und brauche daher etwas Hilfestellung.
Momentan fühle ich mich quasi vom Bus überfahren. :upside_down_face: :face_with_spiral_eyes:

Vom Bus überfahren, oje.

:face_with_diagonal_mouth:

Öhm … nö.

Ja, es war der M34 in der Nähe der Haltestelle Dornbusch. :upside_down_face:

Im Ernst: Eine gute, nachvollziehbare Erklärung im Sinne eines “Was man damit in welcher Kombination machen kann und den Zusammenhang mit allen anderen DSPs in der Konfiguration” wäre wirklich sehr hilfreich.
Vor allem dann, wenn man mehr Ideen hat als das, was mir im ersten Moment eindimensional durch den Kopf gegangen ist. Ich schaue nun mal gerne über den Tellerrand hinaus.

Vielleicht kann es @Stefan_Hillen ?
Ganz ohne Hintergedanken: Vor einiger Zeit haben wir in einem Thread in Sachen Soundprocessing des Mikrofonsignals im VT zwei unterschiedliche Herangehensweisen im Rahmen der Hilfestellung diskutiert und dem Ratsuchenden empfohlen. Bis auf die Frage des Monitorings (mit oder ohne Live-DSP) ist das Ergebnis gleich geblieben.

Ich weiß halt bloß nicht, was passiert, wenn sich zwei Einstellungen im Signalweg begegnen. Und irgendeiner sollte das doch wissen, denke ich.


Apropos Praxis:
Wenn ich mal remote bei einem anderen Anwender auf dessen PC bin, dann ist die Konfiguration von mAirList das eine, eine Fehlersuche nochmal was ganz anderes. Normalerweise kennt man die üblichen verdächtigen Stellen und arbeitet sie der Reihe nach ab (Beispiel: Die Suche nach versteckten, vergessenen DirectSounds im Audio Routing). Auf der Suche nach einem unerwarteten Klang müsste man jetzt alle Ecken von DSPs - und schlimmstenfalls ihr Zusammenspiel - überprüfen. Nicht gerade vergnügungssteuerpflichtig und die Fehlersuche selbst ist wiederum höchstwahrscheinlich fehlerbehaftet. :sad_but_relieved_face:

Bei den Encoder-Bussen geht es tatsächlich primär darum, eine weitere Ebene zu haben, auf der man DSPs einsetzen und “gruppieren” kann.

Einfaches Beispiel:

  • 10 ausgehende Encoder-Verbindungen, davon sollen sich jeweils 5 ein StereoTool-Preset teilen.
  • StereoTool im Master kommt nicht in Frage, da unterschiedliche Presets je Stream.
  • Bisher musste man die DSP-Chain der einzelnen Verbindungen nutzen, also 10 StereoTool-Instanzen starten → frisst Ressourcen
  • Jetzt kann man je ein StereoTool auf Bus 1 und Bus 2 setzen, und die Verbindungen dann jeweils von diesen Bussen abzweigen anstatt direkt vom Master.
  • → 80% CPU gespart, Klima geschont :wink:

Die Encoder-Busse sind prinzipbedingt immer stereo, also aktuell noch nicht mit Regionalisierung kompatibel.

Zur Erinnerung: Wenn Regionalisierung konfiguriert ist, hat der Encoder 2*(Anzahl Regionen + 1) Spuren: L+R für das nicht regionalisierte Signal, und je einmal L+R für jede Region.

Der Downmix geschieht aktuell erst auf Ebene der Verbindungen; zukünftig könnte er aber auch schon auf Basis der Busse passieren, so dass jeder Bus schon einen fertigen Regio-Mix enthält, auf dem das DSP dann wirken kann.

Der Kunde, auf dessen MistAnforderungen das gewachsen ist, verwendet allerdings keine regionalisierten Playouts, deswegen haben wir das erstmal außer Acht gelassen. Der Code ist aber schon vorbereitet, und es fehlt eigentlich nur noch die Konfigurationsseite mit den Häkchen, welche Region auf welchen Bus soll.

1 Like