Zugriffsverletzung beim Hinzufügen von StereoTool

An dieser Stelle wage ich mal zu fragen, was das überhaupt soll mit zweimal Stereotool?

Das DSP-Plugin hat aber leider auch nicht funktioniert, als ich das generic Stereo Tool gelöscht habe. Also geht es irgendwie so oder so nicht bei mir. Warum weiß ich leider nicht :man_shrugging:

Der Stream-Monitor nutzt doch im High-Priority-Eingang nicht das Soundprocessing des Masters, oder? Deshalb würde ich es gerne zweimal hinzufügen.

Übernommene Streams sollen dasselbe Processing wie das Mater-Processing erhalten.

Nach dieser Grafik schon…

EDIT: Im WIKI steht auch “The encoder combines thes signals into a master signal and sends it to the Icecast/Shoutcast servers. Additionally, the master signal is sent to the “Encoder Playback” audio device set up in the configuration if you want to listen to it locally.”

1 Like

Danke Stefan! Ich teste das mal. Mir kam das letztes Mal auf jeden Fall so vor, als wenn das nicht passieren würde…

1 Like

WIE hast Du das abgehört?. Es gibt ja auch die Option “Lokale Wiedergabe ist Pre-DSP”, womit dann in der Grafik das rohe Signal bei (B) vor dem Master-DSP zur lokalen Wiedergabe abzweigen würde, obwohl es im Stream doch angewendet würde.

Leider schweigt dieses Bild sich über den High-Priority-Eingang aus. Darf man annehmen, daß dieser wie alle anderen behandelt wird?

Das müsste ich noch mal prüfen. Ich bin gerade allerdings nicht zu Hause.

Ich hoffe doch! Wissen tue ich es allerdings leider nicht. :thinking:

Im Text steht:

The “Player” inputs receive the signal of all players which have their output device set to the “Encoder” (or “Encoder - Secondary Input” or “Encoder - High Priority Input”)

In Der Grafik ist ganz links der namentliche “Player” aufgeführt, der dann wohl für alle oben genannten Inputs steht. Vielleicht kann @Torben das bestätigen?

Okay. Anscheinend kann ich mir das wirklich sparen! Ich habe es gerade getestet und einfach mal ein Instrumental ins reguläre Programm “gegrätscht” und extern aufgezeichnet.

Der High-Priority-Eingang nutzt das Soundprocessing des Masters - Danke dir @Stefan_Hillen, dass du mich auf den richtigen Pfad geleitet hast. Natürlich auch an alle anderen vielen Dank für eure Hilfe (und euer kritisches Auge auf mein Vorhaben)!

Mich irritierte, dass man im High-Priority auch Soundprocessing konfigurieren kann. Deshalb bildete ich mir wohl auch ein, dass das gesendete Signal anders/leiser klang.

1 Like

Super!

Das ist ja im Grunde auch gar nicht schlecht. Wenn Du zum Beispiel einen “brüllenden” Webstream reinbekommst, kannst Du durch diese Option das Signal schon vor dem eigentlichen Processing mit den mAirlist-hauseigenen Mitteln etwas runterziehen…

Oder halt bestimmte VST nutzen, um das Signal “aufzupeppen” etc.

Stimmt. Dafür ist das natürlich sehr nützlich!

1 Like

Hallo @OliverTL,

denk’ das mal konsequent durch:

  • Ich bin Hörer deines Streams.
    Derzeit läuft die Automation.

  • Ein Moderator schaltet sich für ein Liveprogramm via Stream-Monitor auf.
    Preisfrage: Welchen Stream höre ich nun (rein technisch betrachtet!)?
    Deinen oder seinen?

  • Klar, er spielt das Signal zu. Aber zu wem?
    Zu dir als weiterverbreitende Station oder direkt zu mir?
    Betrachte das aus Hörersicht: Wessen Stream läuft bei mir im Player weiter?

  • Was ändert sich, wenn er off geht und deine Automation weiter spielt?

Auflösung: Es ist immer dein Stream und dein Encoder, der mich versorgt.
Dieser deine mAirList-Encoder hat als allerletzte Instanz immer den Master.

Dass im Encoder jede zuspielende Quelle ein eigenes Soundprocessing bekommen kann: Klasse!
Aber doppelt oder gar mehrfach ist nicht automatisch besser.

Mir wurde vor vielen Radiojahren mal eine (wirklich gute!) Techniker-Weisheit mit auf den Weg gegeben:

So viel wie nötig, so wenig wie möglich.

Klar, das ist Geschmackssache. Aber ich brauche zum Beispiel keine Geschmacksverstärker im Essen.
Ähnlich halte ich das mit der Musik.

1 Like

Das ist ja auch der Vorteil von mAirList, der mir zuerst nicht so klar war.

Ich kenne andere Automationen/Sendesysteme, die direkt das Originalsignal des Moderators unbearbeitet über den eigenen Encoder weitergeben. Das bedeutet, jede Moderatorin und jeder Moderator klingt anders.

Da nicht jede/jeder dieselbe Software mit denselben Einstellungen verwendet, möchte ich, dass das Endsignal angepasst wird, weil es sonst einfach zu viele Unterschiede unter den Moderatoren gibt (z. B. in der Lautstärke).

Nebenschauplatz: Dies bedarf Disziplin bei den gebenden Streams, denn sonst hast Du doppeltes Soundprocessing auf der Leitung.

1 Like

Das wird auch so gefordert. Wer die Kriterien nicht erfüllt, kriegt auch keinen Sendeplatz :smile:

Nun, das kann mAirList durchaus auch, und das muss nicht unbedingt ein Nachteil sein.

Stell’ dir mal vor, da liefert dir ein Kollege eine live gefahrene Sendung direkt vom Vinyl an, mit gepflegten Schätzchen und sauber gefahrenem Pegel.
Aus eigener Erfahrung: Das ist ein Ohr-gasmus!
(Sorry, Google Übersetzer!)
Zudem stand mir, dem Betreiber sei Dank, die Aufzeichnung einer solchen Sendung jeweils vor und nach dem sendereigenen, zentralen Soundprocessing zur Verfügung. Rate, welche ich deutlich besser fand.

Vielleicht formulieren wir unterschiedlich, aber: JA, bitte!
Reden wir an der Stelle ernsthaft über den Klang?
Angenommen, alle Mit-Diskutierenden in diesem Strang wären Moderatoren bei dir: Sollen die tatsächlich alle gleich klingen? Keine unterschiedlichen Stimmfarben?

Persönliche Meinung: Nein, bitte nicht!
Ich mag vielleicht nicht die beste Stimme haben, aber ich möchte im Radio nicht anders klingen als wenn wir uns beim persönlichen Gespräch gegenübersitzen. Ich empfände das a) als Lüge (ja, da bin ich hart) und b) zudem respektlos dem Hörer gegenüber.

Wenn du ein Problem mit Stimmen hast, die du elektronisch gleich zu bügeln versuchst, dann arbeite an deinem Personal und nicht an der Technik.
Nochmals: Das ist meine persönliche Meinung.

Au weia… wie oft schon habe ich das gehört und wie oft konnte ich es als Ausrede entlarven.
Was benötige ich dazu?

  • Eine klare Ansage des Betreibers, an die sich alle halten. Punkt.

  • Den Mut, sein Radio mal nicht im Brüllpegel-Wettbewerb mitspielen zu lassen, sondern leiser zu sein als der Durchschnitt:

Überraschung: Das geht!

Und was hat das jetzt mit anderen Programmen und Moderatoren zu tun? :thinking:
In dem Artikel Wie normalisieren? MP3Gain, ReplayGain, EBU R 128 (s2) vs. Peak habe ich dargelegt, dass es möglich ist, ein Sendesignal mit verschiedenen Codecs und Abspielprogrammen auf einen Level von ca. -18 LUFS zu bringen.
Man muss halt nur wollen und alle ziehen an einem Strang.

Dass ein Mikrofon bei jedem, egal, welche Technik eingesetzt wird, ohnehin sauber und passend zur Lautheit des Musiksignals eingepegelt wird, ist eine Grundvoraussetzung.

Zack, schon habe ich ein ordentliches Signal, das fast keiner Eingriffe mehr bedarf.
Gegen den Einsatz eines guten Notbremslimiters™ ist sicher nichts einzuwenden, aber alles andere ist, streng genommen, nicht notwendig und jede weitere Manipulation gehört in die Hände des Hörers, nicht aber die des Senders.

Du diskutierst mit Tondose gerade über Disziplin bei den gebenden Streams?
Super!
Aber wozu brauchst du dann solche (vermutlich erhebliche) Eingriffe?

Wer mein sauber angeliefertes Signal zentral verbiegt, hat mich als Moderator nicht verdient. Es gibt nämlich, wie bereits verlinkt, bessere Methoden als ein zentrales Soundprocessing.

Ich bitte um Verständnis, dass ich hier jetzt mal nicht zwingend mAirList-bezogen und stattdessen privat-persönlich geantwortet habe, aber hört doch endlich mal mit dieser imho dämlichen Soundverbiegerei auf, ehrlich.
Wer Interesse an einem leisen, unverbogenen Teststream hat, möge mich bitte anpingen (nein, PN ist zu).

Puristische Grüße

Das wird erst mal nicht der Fall sein. Und sollte es doch irgendwann mal so weit kommen: Ich mache auch gerne mal Ausnahmen. Vor allem in solchen Fällen.

Nein. Jeder soll seine eigene Stimmfarbe ins Programm einbringen und darf sie auch gerne behalten. Mir ging es hier eher um die Sprechlautstärke bzw. um das, was ankommt.

Hier kommentiere ich deine Aussagen einfach mal als “unnütz”, da du hier eine Über- bzw. Fehlinterpretation meiner Aussage an den Tag gelegt hast. Das bringt uns beide nicht weiter. Das ist meine Meinung und keine Interpretation. :wink:

Anscheinend hast du immer nur Exklusivmaterial in der Hand? Das ist bei mir nicht der Fall. Einzelne Sendungen werden auf verschiedenen Sendern ausgestrahlt. Und wie du weißt, ist jedes Radioprogramm unterschiedlich laut ausgepegelt (auch, wenn dir das vielleicht nicht gefällt - ist eben so).

Jetzt kann ich schlecht sagen, dass jemand seine Sendung, die er schon mehrere Jahre bei Sender XY in einer gewissen Lautstärke sendet, an meine Bedürfnisse anpasst und Sender XY links liegen lässt. Das wäre doch unfair, oder? Höchstens ein Mittelmaß wäre hier vielleicht in Absprache für beide Parteien gerecht.

Wer sagt, dass ich das empfangene Material hochregel? Vielleicht regel ich es sogar runter - hoppla! :face_with_raised_eyebrow: Soundprocessing muss nicht unbedingt heißen, dass man alles lauter macht. Man achtet hier in diesem Fall nur darauf, dass der Pegel in Relation zum restlichen Programm stimmt.

Etwas anderes habe ich auch nie behauptet.

Dann darfst du ja bei gar keinem Sender sein und bist arbeitslos. Na super! Jede Radiostation auf dem Planeten Erde pegelt sein Programm in einer gewissen Art und Weise aus. Das Verändern der Lautstärke zählt schon zum zentralen Verbiegen. Vielleicht solltest du deine Aussagen noch einmal mehr präzisieren, um Missverständnissen vorzubeugen?

Warum mache ich das überhaupt? Ganz einfach: Deine Predigten erreichen nicht alle Menschen auf dieser Erde. Infolge dessen muss man eben selber nachjustieren, weil wie weiter oben bereits beschrieben nicht auf jeden Wunsch eingegangen werden kann. Die Lautheitsunterschiede sind alle aus einer Kettenreaktion entstanden, die vor vielen vielen Jahren begonnen hat. Widersprich mir ruhig, aber rückgängig kannst du diese Reaktion auch nicht machen.

Normale Grüße

Wir reden also über den Pegel und nicht über den Klang?
Gut, jetzt sind wir wieder auf einer Wellenlänge. Ich hatte mich tatsächlich auf den von dir verwendeten Begriff des Klangs bezogen.

Ah, so etwas. Okay, andere Voraussetzungen.
Verständnisfrage: Handelt es sich um vorproduzierte Syndications? In dem Fall kann ich das Material ja beim Import auf meine eigene Senderlautstärke normalisieren.

Bei der Übernahme eines Livestreams wiederum sollte ich Erfahrungen damit haben, wie laut oder leise der Livestreamer reinkommt und dem Element eine Verstärkung in der Wiedergabe mitgeben.

Hier wäre eine für alle Abnehmer fest stehende durchschnitliche Lautheit als verlässliche Größe sogar vorteilhaft, möchte ich vermuten.

Bei meiner Argumentation war ich tatsächlich davon ausgegangen, dass es sich um Moderatoren des Radioteams handelt, und hier alle gemeinsam an einem Projekt arbeiten.
Allein als Hörer habe ich mit Syndications schlechte Erfahrungen gemacht; vielleicht habe ich auch immer nur die falschen gehört. Wer weiß.

Habe ich das so behauptet? Ich habe doch gar keine Ahnung, was du machst.
Ich beziehe mich auf Erfahrungswerte bei der Lautheits-Auswertung von Webstreams (Hobby-Webcaster, lokale DAB+ -Sender, UKW-Privat und ö-r-Streams). Nachweislich sind fast alle einfach sehr laut, mit oder ohne Clipping. “Leisetreter” sind extrem selten und das meist auch nur “aus Versehen”.

In der Szene setzt man vermutlich gerne Limiter ein, und die meisten dieser Plugins sind mit Maximizern gekoppelt. Soll heißen: Entferne die Dynamik und nagel’ mir das Signal bis an die Decke. Anders kann ich mir das (derzeit) leider nicht erklären.

Wenn du eine Ausnahme bist: Super!

Diskussionswürdig.
Wie kommt denn der Pegel des “restlichen Programms” zustande? Führt das nicht im Zweifel eher zu einer Anpassung nach oben, was dann zur Folge hat, dass… und die Katze beißt sich in den Schwanz.

Oder, andersrum: Wie wird verhindert, dass eine Aufwärtsspirale entsteht; welches Maß bestimmt “bis hierhin und nicht weiter”? :thinking:

Derzeit gehört Sendungsproduktion nicht zu meinem Broterwerb und ich würde es, wenn, gerne wieder als Ehrenamt betreiben.

Ja, das ist korrekt.
Die Frage ist nur: Welche Mittel werden genutzt?
Wir haben hier mit StereoTool begonnen. Ein unbestritten mächtiges Werkzeug, das allerdings auch zu Dingen verführen kann, die ursprünglich im Sendesignal gar nicht vorhanden sind.

Beim Einsatz eines Kompressors zwecks Pegelbegrenzung ist der Verlust von Dynamik ein zwangsläufiges, unschönes Nebenprodukt. Bei einem reinen Brickwall-Limiter bin ich schon aufgeschlossener (wobei der natürlich kein Freibrief dafür sein darf, den so brutal wie nur möglich anzufahren).

Jepp, und das habe ich auch gar nicht vor. Aber auf dem gleichen Wege, wie wir uns an schlecht klingendes Radio und Soundmatsch gewöhnt zu haben scheinen, so gibt es auch eine Gegenbewegung, die mich gar nicht braucht. Ich bin nur derjenige, der zeigt, wie es geht, wenn man will.

Einen Hardcore-Peak-Normalisierer werde ich nie überzeugen. Warum auch? Reine Energieverschwendung.

Sieh’ mal, vor einigen Jahren hat eine Partei vorgeschlagen, eventuelll weniger Fleisch zu essen. Der Aufschei war riesig, primär angeführt von einer “Zeitung”.
Heute kloppen sich Anbieter von Veganprodukten um die Kühlplätze im Lebensmitteleinzelhandel, die dieser nur allzugerne zur Verfügung stellt, weil man mit diesem Marktpotenzial ordentlich Umsatz machen kann. Zuvor hätten sie dich mit Schimpf und Schande aus dem Geschäft gejagt.
Heutzutage teilen sich vegane, vegetarische und Billigfleisch-Gerichte den Platz.

Im akustischen Markt könnte es ähnlich zugehen. Gegen den loudness war der Musikproduktion hat sich eine Gegenbewegung etabliert. Viele Streaming-Plattformen etablieren Lautheits-Obergrenzen für dort bereitzustellendes Material.
Das totgesagte Vinyl erlebt eine Renaissance.
Nur im Webcast, da herrscht ein nicht erklärbarer loudness race. Nun, was die Zukunft betrifft, da wage ich keinen Blick in die :crystal_ball:, da wurde ich einfach schon zu oft überrascht.

… und deren Auswirkungen gerade beginnen sich zu konsolidieren, wie vorab ausgeführt. Nichts ist in Beton gemeißelt.

Sorry, FDP, aber: “Das regelt der Markt.”
Nein, genauer: Der Fortschritt. Das ist das einzig unaufhaltsame. Was wir Menschen daraus machen, ist etwas anderes, aber die R 128 ist, ebenso wie die mp3, ein Produkt von Forschungen, Untersuchungen, Vorschlägen und Weiterentwicklungen.

Nein, das sind übernommene Livestreams. Ich bin nicht so der Freund von ganzen vorproduzierten Sendungen. Einzelne vorproduzierte Beiträge in einer Livesendung sind natürlich in Ordnung!

Genau das sprach ich ja auch an. Allerdings müssen sich dann auch wirklich alle einig sein.

Und die bekommen dann von uns auch die von dir erwähnten Anweisungen. Das wäre ja sonst Schwachsinn. Da gebe ich dir Recht!

Das kann ich verstehen. Gefühlt immer eine neue Telefonnummer, fremde Websites usw.
Da versuche ich immer ein Auge drauf zu haben. Ich möchte ja keinen Mist senden (lassen).

Naja - deuten kann man es schon, wenn du ehrlich zu dir bist:

Kann aber auch nur allgemein von dir angesprochen worden sein.

Na gut. Da gebe ich dir Recht. Soundprocessing ist hier vielleicht das falsche Wort. Dort kommt das Signal ja in der Regel leiser rein als es raus kommt. Nach unten zu processen ist eher unüblich.

Das war nicht auf deinen jetzigen Beruf bezogen. Habe aber schon vermutet, dass du es so deutest.

Ich rede hier nicht davon, die komplette Dynamik flöten gehen zu lassen, aber man sollte sie etwas “sanfter” gestalten, da nicht jeder z. B. das Dynaudio-Paket von VW und damit super Lautsprecher hat. Auf den Webcast bezogen: Nicht jeder hat eine Hifi-Soundanlage sondern eher die kleine JBL-Box, die man mit in den Park nimmt. Sehr leise Töne gehen da schnell unter und man denkt, die Batterie ist leer oder schlimmstenfalls: Der Sender ist weg.

Ich glaube nicht, dass es den nur im Webcast gibt.

Vielleich hätte ich das “du” groß schreiben und noch fett markieren sollen. Natürlich glaube ich an den Fortschritt und auch, dass sich Vieles in Zukunft verbessern, aber leider auch verschlechtern kann. Eine einzige Person kann nicht viel bewirken, aber du sagtest ja auch schon, dass wir alle an einem Strang ziehen müssten. Und der Meinung bin ich auch.

1 Like

Noch kurz zur Info, da es ja oben gefragt wurde: Ich habe gerade keine Zeit Diagramme zu zeichnen, aber ich kann es kurz textuell beschreiben:

  • Die vier normalen Player-Eingänge (alle außer High Priority) sind alle gleichberechtigt.
  • Der Grund für die Existenz mehrerer Player-Eingänge ist ausschließlich die Möglichkeit, bei Bedarf unterschiedliche DSPs zu verwenden.

Das Mixing erfolgt in mehreren Schritten:

  1. Alle Player-Eingänge + Line + Aux
  2. Mic dazu
  3. High-Priority dazu - schaltet wenn aktiv 1+2 stumm bzw. blendet sie aus/ein.
  4. Master Pre-DSP
  5. Master

Dass das Mic in einem getrennten Schritt dazugemischt wird, ist um zu ermöglichen, das Signal ohne Mic an die Lautsprecher ausgegeben wird.

Zwischen Schritt 4 (Master Pre-DSP) und Schritt 5 (Master) wird nichts mehr dazugemischt, sondern es werden lediglich die Master-DSPs angewandt.

4 Likes