Laufzeit- vs. Pegelpanning
Re: Laufzeit- vs. Pegelpanning
So sehe ich das auch, die Entwicklung der Technik wird anscheinend noch viel zu sehr von Leuten bestimmt, die in der analogen Welt "aufgewachsen" sind.
Ich habe derzeit für ausführliche Experimente dieser Art keinen Zugriff auf eine vernünftige Produktionsumgebung. Deshalb suche ich auch Leute, die da evtl. mehr Erfahrung haben. Bisher musste ich die Erfahrung machen, dass die Themen Panning und Räumlichkeit nicht besonders gut verstanden werden und in ihrer Bedeutung unterschätzt werden. Man erzählte mir dann immer von mangelnder Monokompatibilität, Kammfiltereffekten und den achso berüchtigten Phasenschweinereien, Letztere werden immer dann ausgepackt, wenn das theoretische Wissen am Ende ist. Das sind eben jene Leute, die dann z.B. XY, Doppel-MS, etc. gleichzeitig belächeln und dann nicht verstehen, dass sie mit einem Panoramaregler doch auch Pegeldifferenz-Stereofonie anwenden! Sicher kann man argumentieren, das es etwas anderes ist, ob ich eine reale Quelle in einem realen Raum aufnehme oder ein trockenes Mono-Signal panoramisiere. Aber soweit ging die Diskussion bisher nicht mal. Ich bin froh, dass es hier anders ist!
Gruß,
Uranus
Ich habe derzeit für ausführliche Experimente dieser Art keinen Zugriff auf eine vernünftige Produktionsumgebung. Deshalb suche ich auch Leute, die da evtl. mehr Erfahrung haben. Bisher musste ich die Erfahrung machen, dass die Themen Panning und Räumlichkeit nicht besonders gut verstanden werden und in ihrer Bedeutung unterschätzt werden. Man erzählte mir dann immer von mangelnder Monokompatibilität, Kammfiltereffekten und den achso berüchtigten Phasenschweinereien, Letztere werden immer dann ausgepackt, wenn das theoretische Wissen am Ende ist. Das sind eben jene Leute, die dann z.B. XY, Doppel-MS, etc. gleichzeitig belächeln und dann nicht verstehen, dass sie mit einem Panoramaregler doch auch Pegeldifferenz-Stereofonie anwenden! Sicher kann man argumentieren, das es etwas anderes ist, ob ich eine reale Quelle in einem realen Raum aufnehme oder ein trockenes Mono-Signal panoramisiere. Aber soweit ging die Diskussion bisher nicht mal. Ich bin froh, dass es hier anders ist!
Gruß,
Uranus
Re: Laufzeit- vs. Pegelpanning
Zitat:
"Interessanter wird die Diskussion, wenn wir sie auf die Verzögerung von Stützmikrophonen erweitern würden. Ich habe damit bei Abmischungen schon gute Ergebnisse erzielt."
Das ist ja wieder ein völlig anderes Thema.
Natürlich bietet der herkömmliche Panpot die gleichen Vor- und Nachteile wie eben ein Pegeldifferenz-Hauptmikrofon. ABER eben ein Äquivalenz- oder Laufzeitpanpot eben die gleichen Vor- und Nachteile eines entsprechenden Mikrofonsystems. Da in der Aufnahmepraxis in den meisten Situationen Äquivalenzsysteme eingesetzt werden, frage ich mich, wie man es dann kritisieren kann, wenn man exakt deren Funktionsprinzip beim Mischen einsetzt? Warum sorgen Laufzeitdifferenzen bitte bei der Aufnahme für die oft der Lokalisierbarkeit vorgezogene Räumlichkeit und beim Mixdown sorgen sie plötzlich angeblich nur noch für "Phasenschweinereien" und Kammfiltereffekte? Wo bleibt da die Logik? Das sit genau die Argumentation, die ich eingangs kritisiert habe.
Natürlich darf man ein AB- oder Äquivalenzsystem nicht mit herkömmlichen Panpots einengen. Wer das versucht, hat natürlich nicht einmal die Grundlagen verstanden. Die Panpots sind in dieser Situation ja auch gar keine Panoramaregler mehr. Man kann vielleicht im Notfall bei einem Äquivalenzsystem Kammfiltereffekte in kauf nehmen, wenn man zwingend den "Pegelanteil" des Stereobildes einengen muss.
Danke und beste Grüße,
Uranus
"Interessanter wird die Diskussion, wenn wir sie auf die Verzögerung von Stützmikrophonen erweitern würden. Ich habe damit bei Abmischungen schon gute Ergebnisse erzielt."
Das ist ja wieder ein völlig anderes Thema.
Natürlich bietet der herkömmliche Panpot die gleichen Vor- und Nachteile wie eben ein Pegeldifferenz-Hauptmikrofon. ABER eben ein Äquivalenz- oder Laufzeitpanpot eben die gleichen Vor- und Nachteile eines entsprechenden Mikrofonsystems. Da in der Aufnahmepraxis in den meisten Situationen Äquivalenzsysteme eingesetzt werden, frage ich mich, wie man es dann kritisieren kann, wenn man exakt deren Funktionsprinzip beim Mischen einsetzt? Warum sorgen Laufzeitdifferenzen bitte bei der Aufnahme für die oft der Lokalisierbarkeit vorgezogene Räumlichkeit und beim Mixdown sorgen sie plötzlich angeblich nur noch für "Phasenschweinereien" und Kammfiltereffekte? Wo bleibt da die Logik? Das sit genau die Argumentation, die ich eingangs kritisiert habe.
Natürlich darf man ein AB- oder Äquivalenzsystem nicht mit herkömmlichen Panpots einengen. Wer das versucht, hat natürlich nicht einmal die Grundlagen verstanden. Die Panpots sind in dieser Situation ja auch gar keine Panoramaregler mehr. Man kann vielleicht im Notfall bei einem Äquivalenzsystem Kammfiltereffekte in kauf nehmen, wenn man zwingend den "Pegelanteil" des Stereobildes einengen muss.
Danke und beste Grüße,
Uranus
Re: Laufzeit- vs. Pegelpanning
Kein Witz, aber man sieht auch heute noch vor einem klassischen Sänger oder einem Instrumentalsolisten zwei Mikrofone in Klein-AB 30 bis 40 cm und die Panpots dazu werden automatisch auf halblinks und halbrechts gestellt. Wenn man fragt, warum das so sein muss, kommt die prompte Antwort: damit das Signal einen besseren Korrelationsgrad bekommt, der "Mund" nicht unnatürlich breit in Stereo erscheint und der Klang auch nicht zu sehr von links nach rechts springt. 
Ist doch logisch. Wozu sind denn unsere Panpots da?

Ist doch logisch. Wozu sind denn unsere Panpots da?
Re: Laufzeit- vs. Pegelpanning
Aktenzeichen AB ungelöst. Der Panpot ist bei solcher Verwendung dazu da, meinen Mund auf der gesamten Ohrenabstandsbasis (17,5245642 cm) abzubilden.

So ungefähr...

So ungefähr...
Re: Laufzeit- vs. Pegelpanning
Ah tach auch,
die Lokalisierbarkeit ist bei reinen Laufzeitsystemen schlechter. Dies stört heutzutage eigentlich nicht mehr so sehr. Die Monokompatiblität ist auch nicht vorhanden. Auch dies ist heute kein Argument mehr.
Wie sieht es nun bei großen Produktionen mit einer großen Anzahl an Stützmikrophonen aus. Diese "nageln" gewissermaßen das Signal fest, wenn man ein Pegeldifferenz-Panning verwendet.
Um das ganze eventuell aufzuweichen gibt es zwei Möglichkeiten. Entweder man versucht es tatsächlich mit "Laufzeit-Panning" oder man nimmt Pegeldifferenz-Panning UND verzögert die Stützen zusätzlich.
Dies läßt sich ja mit den meisten HD-Systemen heutzutage problemlos bewerkstelligen und auch mit den meisten tauglichen Digitalpulten.
Hierfür braucht man keine neuen Algorithmen, sondern nur ein Delay und ein klassisches Pan-Pot.
Ich persönlich empfinde die letztere Variante als sehr gut und auch praktisch.
Die Stützen lassen sich besser in das Gesamtklangbild einfügen ohne einen Teil ihrer Lokalisations-stabilisierenden Fuktion zu verlieren.
Reine Laufzeitunterschiede sind nicht gut lokalisierbar.
Wenn ich mich nicht ganz irre, verarbeitet das menschliche Ohr ja beides. Im Zweifelsfalle überwiegen aber die Pegeldifferenzen dies ganze natürlich gemeinsam mit dem optischen Eindruck, der uns ja leider bei Aufnahmen fehlt und den wir irgendwie "trickreich" nachbilden müssen.
Gruß aus Berlin
"Der ewige" Markus P.
die Lokalisierbarkeit ist bei reinen Laufzeitsystemen schlechter. Dies stört heutzutage eigentlich nicht mehr so sehr. Die Monokompatiblität ist auch nicht vorhanden. Auch dies ist heute kein Argument mehr.
Wie sieht es nun bei großen Produktionen mit einer großen Anzahl an Stützmikrophonen aus. Diese "nageln" gewissermaßen das Signal fest, wenn man ein Pegeldifferenz-Panning verwendet.
Um das ganze eventuell aufzuweichen gibt es zwei Möglichkeiten. Entweder man versucht es tatsächlich mit "Laufzeit-Panning" oder man nimmt Pegeldifferenz-Panning UND verzögert die Stützen zusätzlich.
Dies läßt sich ja mit den meisten HD-Systemen heutzutage problemlos bewerkstelligen und auch mit den meisten tauglichen Digitalpulten.
Hierfür braucht man keine neuen Algorithmen, sondern nur ein Delay und ein klassisches Pan-Pot.
Ich persönlich empfinde die letztere Variante als sehr gut und auch praktisch.
Die Stützen lassen sich besser in das Gesamtklangbild einfügen ohne einen Teil ihrer Lokalisations-stabilisierenden Fuktion zu verlieren.
Reine Laufzeitunterschiede sind nicht gut lokalisierbar.
Wenn ich mich nicht ganz irre, verarbeitet das menschliche Ohr ja beides. Im Zweifelsfalle überwiegen aber die Pegeldifferenzen dies ganze natürlich gemeinsam mit dem optischen Eindruck, der uns ja leider bei Aufnahmen fehlt und den wir irgendwie "trickreich" nachbilden müssen.
Gruß aus Berlin
"Der ewige" Markus P.
Re: Laufzeit- vs. Pegelpanning
Hallo ewiger Markus,
in Deinem posting lese ich verschiedene interessante Punkte. Der Grund, Instrumente oder Gruppen zu stützen ist an sich, so finde ich, gar nicht immer so klar und allgemeinverständlich, wie wir immer behaupten. Angefangen damit, dass die Qualität der Übertragungskette verantwortlich ist für das Stützverhalten (Diskussion mit Rainer vorprogrammiert), denn es zeigt sich immer wieder, dass bei Verwendung höchstwertiger Geräte nicht unbedingt mehr gestützt werden brauch - jedenfalls nicht aus dem Grund, weswegen man ansonsten gestützt hätte!
Das Verzögern von Stützmikrofonen ist ja ein Kapitel an sich. Persönlich verwende ich das nur als Problemlösung, denn mit Verzögern des Stützmikrofons erhöht sich der benötigte Zumischpegel und damit die Kammfiltereffekte. Übrigens, eine andere Möglichkeit, das "Herausstechen" gegenzuwirken ist doch Hall zufügen?
Ausserdem, wenn man verzögert, dann interessiert es mich, weshalb immer noch gepanned wird. Die Abbildungsinformation des Hauptsystems ist zeitlich nun doch vorrangig, dann sollte es ja eigentlich wurscht sein, wie die Stütze gepanned ist. Wäre es dann nicht sinnvoller, diese hart in eine Richtung zu routen?
Was übrigens die Verarbeitung der Laufzeitdifferenzen angeht - was ja nichts anderes ist, als kurze Echos (z.B. Reflektionen) die durch unser Gehör zusammengefasst werden - so ist ja das Problem bei zweikanaliger stereophoner Wiedergabe, dass sowohl das frühe als auch das späte Signal beide Ohren erreicht. Das hat ja mit "normal" eigentlich nichts zu tun.
Grüße,
Dirk
in Deinem posting lese ich verschiedene interessante Punkte. Der Grund, Instrumente oder Gruppen zu stützen ist an sich, so finde ich, gar nicht immer so klar und allgemeinverständlich, wie wir immer behaupten. Angefangen damit, dass die Qualität der Übertragungskette verantwortlich ist für das Stützverhalten (Diskussion mit Rainer vorprogrammiert), denn es zeigt sich immer wieder, dass bei Verwendung höchstwertiger Geräte nicht unbedingt mehr gestützt werden brauch - jedenfalls nicht aus dem Grund, weswegen man ansonsten gestützt hätte!
Das Verzögern von Stützmikrofonen ist ja ein Kapitel an sich. Persönlich verwende ich das nur als Problemlösung, denn mit Verzögern des Stützmikrofons erhöht sich der benötigte Zumischpegel und damit die Kammfiltereffekte. Übrigens, eine andere Möglichkeit, das "Herausstechen" gegenzuwirken ist doch Hall zufügen?
Ausserdem, wenn man verzögert, dann interessiert es mich, weshalb immer noch gepanned wird. Die Abbildungsinformation des Hauptsystems ist zeitlich nun doch vorrangig, dann sollte es ja eigentlich wurscht sein, wie die Stütze gepanned ist. Wäre es dann nicht sinnvoller, diese hart in eine Richtung zu routen?
Was übrigens die Verarbeitung der Laufzeitdifferenzen angeht - was ja nichts anderes ist, als kurze Echos (z.B. Reflektionen) die durch unser Gehör zusammengefasst werden - so ist ja das Problem bei zweikanaliger stereophoner Wiedergabe, dass sowohl das frühe als auch das späte Signal beide Ohren erreicht. Das hat ja mit "normal" eigentlich nichts zu tun.
Grüße,
Dirk
Re: Laufzeit- vs. Pegelpanning
Zum Verzögern von Stützmikrofonen gibt es doch zwei unterschiedliche Philosophien.
1. Das Verzögern der Stützmikrofone haarscharf auf den Zeitpunkt des Hauptmikrofonsystems, was von den Professoren Rainer Maillard, Michael Sandner in Detmold und Ulrich Vette in Wien gelehrt wird. Hierbei braucht man Panpots für die Stützen.
2. Das Verzögern der Stützmikrofone etwa 20 ms über den Zeitpunkt des Hauptmikrofonsystems hinaus, so dass die Stützmikrofone in die Zeit der frühen Reflexionen fallen, wird von Günther Theile, IRT propagiert. Hierbei braucht man für die Stützsignale keine Panpotrichtungseinstellung, weil die Richtung der Phantomschallquellen allein vom Hauptmikrofonsystem bestimmt wird.
Siehe: Hauptmikrofon und Stützmikrofone
http://www.sengpielaudio.com/Hauptmikro ... rofone.pdf
Ich mache darauf aufmerksam, dass das Thema mit den irgendwie verzögerten Stützmikrofonen gegenüber dem Stereo-Hauptmikrofon nichts mit dem anderen Thema von Pegeldifferenz-Panning und Laufzeitdifferenz-Panning zu tun hat.
1. Das Verzögern der Stützmikrofone haarscharf auf den Zeitpunkt des Hauptmikrofonsystems, was von den Professoren Rainer Maillard, Michael Sandner in Detmold und Ulrich Vette in Wien gelehrt wird. Hierbei braucht man Panpots für die Stützen.
2. Das Verzögern der Stützmikrofone etwa 20 ms über den Zeitpunkt des Hauptmikrofonsystems hinaus, so dass die Stützmikrofone in die Zeit der frühen Reflexionen fallen, wird von Günther Theile, IRT propagiert. Hierbei braucht man für die Stützsignale keine Panpotrichtungseinstellung, weil die Richtung der Phantomschallquellen allein vom Hauptmikrofonsystem bestimmt wird.
Siehe: Hauptmikrofon und Stützmikrofone
http://www.sengpielaudio.com/Hauptmikro ... rofone.pdf
Ich mache darauf aufmerksam, dass das Thema mit den irgendwie verzögerten Stützmikrofonen gegenüber dem Stereo-Hauptmikrofon nichts mit dem anderen Thema von Pegeldifferenz-Panning und Laufzeitdifferenz-Panning zu tun hat.
Re: Laufzeit- vs. Pegelpanning
Zum Thema Haupt- vs. Stützmikrofone könnte auch dieser Ansatz interessieren, wieder unter dem Motto "die Möglichkeiten digitaler Technik konsequent ausnutzen":
http://infoscience.epfl.ch/getfile.py?d ... &version=1
Zitat Dirk F:
"Was übrigens die Verarbeitung der Laufzeitdifferenzen angeht - was ja nichts anderes ist, als kurze Echos (z.B. Reflektionen) die durch unser Gehör zusammengefasst werden - so ist ja das Problem bei zweikanaliger stereophoner Wiedergabe, dass sowohl das frühe als auch das späte Signal beide Ohren erreicht. Das hat ja mit "normal" eigentlich nichts zu tun."
Ich weiß nun nicht, was die ITD (um unnötige Anglizismen zu vermeiden: zwischenöhrliche Zeit-Differenz *g*) mit Echos oder Reflexionen zu tun hat. Mit normal hat ja LS-Wiedergabe doch eh nicht viel zu tun oder? Andersherum ist es ja auch so das da auch bei reiner Pegeldifferenz-Stereofonie auch Laufzeitdifferenzen entstehen. Signal des linken LS kommt ja auch zeitlich verzögert am rechten Ohr an. Das Ohr und sein Kumpel Hirn sind aber anscheinend schon bei ihrer Planung für die Lautsprecherwiedergabe ausgestattet worden:
"Es läßt sich zeigen, daß eine äquivalente Intensitäts- und Laufzeitdiffe-renz zwischen den Lautsprechersignalen, die zur gleichen Phantomschallquellenrich-tung führt, auch die gleichen Phantomschallquellenklangfarbe erzeugt, obwohl unterschiedliche Spektren wirksam sind.
[...]
Es wurde in Abschnitt 2.2 festgestellt, daß in der Phantomschallquellensituation die Kammfilterwirkungen an den Ohren weder die Entfernungswahrnehmung noch die Wahrnehmung der Klangfarbe beeinflussen. Nicht die an den Ohren tatsächlich auftretenden Spektren sind wirksam, sondern eher diejenigen Spektren, weiche die Lautsprecher einzeln an den Ohren hervorrufen.
Diese Beobachtung führt auf die Vermutung, daß das Gehör die Komponenten der Summensignale, die an den Ohren auftreten, wieder trennt. Versteht man die Abhän-gigkeit der Ohrsignale vom Schallquellenort als einen Mechanismus zur Kodierung räumlicher Information, so kann die Kenntnis dieser Ohrsignalabhängigkeit als Schlüssel zur Dekodierung der räumlichen Information aufgefaßt werden. Wenn man annimmt, daß im überlagerten Schallfeld die gleichzeitige Dekodierung von wenigs-tens zwei räumlichen Informationen noch möglich ist, beispielsweise durch Musterer-kennungsprozesse, dann ist eine getrennte Verarbeitung der Komponenten der Summensignale denkbar."
Aus Günther Teiles Dissertation "Über die Lokalisation im überlagerten Schallfeld"
http://www.hauptmikrofon.de/theile/UEBE ... eutsch.pdf
Ich versteh' auf diesem Level zwar nichts mehr, aber mein Hirn macht's zum glück auch so..
http://infoscience.epfl.ch/getfile.py?d ... &version=1
Zitat Dirk F:
"Was übrigens die Verarbeitung der Laufzeitdifferenzen angeht - was ja nichts anderes ist, als kurze Echos (z.B. Reflektionen) die durch unser Gehör zusammengefasst werden - so ist ja das Problem bei zweikanaliger stereophoner Wiedergabe, dass sowohl das frühe als auch das späte Signal beide Ohren erreicht. Das hat ja mit "normal" eigentlich nichts zu tun."
Ich weiß nun nicht, was die ITD (um unnötige Anglizismen zu vermeiden: zwischenöhrliche Zeit-Differenz *g*) mit Echos oder Reflexionen zu tun hat. Mit normal hat ja LS-Wiedergabe doch eh nicht viel zu tun oder? Andersherum ist es ja auch so das da auch bei reiner Pegeldifferenz-Stereofonie auch Laufzeitdifferenzen entstehen. Signal des linken LS kommt ja auch zeitlich verzögert am rechten Ohr an. Das Ohr und sein Kumpel Hirn sind aber anscheinend schon bei ihrer Planung für die Lautsprecherwiedergabe ausgestattet worden:
"Es läßt sich zeigen, daß eine äquivalente Intensitäts- und Laufzeitdiffe-renz zwischen den Lautsprechersignalen, die zur gleichen Phantomschallquellenrich-tung führt, auch die gleichen Phantomschallquellenklangfarbe erzeugt, obwohl unterschiedliche Spektren wirksam sind.
[...]
Es wurde in Abschnitt 2.2 festgestellt, daß in der Phantomschallquellensituation die Kammfilterwirkungen an den Ohren weder die Entfernungswahrnehmung noch die Wahrnehmung der Klangfarbe beeinflussen. Nicht die an den Ohren tatsächlich auftretenden Spektren sind wirksam, sondern eher diejenigen Spektren, weiche die Lautsprecher einzeln an den Ohren hervorrufen.
Diese Beobachtung führt auf die Vermutung, daß das Gehör die Komponenten der Summensignale, die an den Ohren auftreten, wieder trennt. Versteht man die Abhän-gigkeit der Ohrsignale vom Schallquellenort als einen Mechanismus zur Kodierung räumlicher Information, so kann die Kenntnis dieser Ohrsignalabhängigkeit als Schlüssel zur Dekodierung der räumlichen Information aufgefaßt werden. Wenn man annimmt, daß im überlagerten Schallfeld die gleichzeitige Dekodierung von wenigs-tens zwei räumlichen Informationen noch möglich ist, beispielsweise durch Musterer-kennungsprozesse, dann ist eine getrennte Verarbeitung der Komponenten der Summensignale denkbar."
Aus Günther Teiles Dissertation "Über die Lokalisation im überlagerten Schallfeld"
http://www.hauptmikrofon.de/theile/UEBE ... eutsch.pdf
Ich versteh' auf diesem Level zwar nichts mehr, aber mein Hirn macht's zum glück auch so..

Re: Laufzeit- vs. Pegelpanning
Zitat Filbig:
"Ich mache darauf aufmerksam, dass das Thema mit den irgendwie verzögerten Stützmikrofonen gegenüber dem Stereo-Hauptmikrofon nichts mit dem anderen Thema von Pegeldifferenz-Panning und Laufzeitdifferenz-Panning zu tun hat. "
Hatte ich auch schon erwähnt. Möchte daher meine Frage konkretisieren: Wendet jemand regelmässig und konsequent Panoramisierungs-Techniken jenseits des ollen Panpots an? Mich interessiert v.a. Rock- und Pop-Poly-Mono-Knüppelei. Verbindet dies jemand dabei auch noch konsequent mit "korrekt" (im Sinne von realitätsnah) modellierten frühen Reflexionen für jede Quelle und deren Position?
Danke!
Beste Grüße,
Uranus
"Ich mache darauf aufmerksam, dass das Thema mit den irgendwie verzögerten Stützmikrofonen gegenüber dem Stereo-Hauptmikrofon nichts mit dem anderen Thema von Pegeldifferenz-Panning und Laufzeitdifferenz-Panning zu tun hat. "
Hatte ich auch schon erwähnt. Möchte daher meine Frage konkretisieren: Wendet jemand regelmässig und konsequent Panoramisierungs-Techniken jenseits des ollen Panpots an? Mich interessiert v.a. Rock- und Pop-Poly-Mono-Knüppelei. Verbindet dies jemand dabei auch noch konsequent mit "korrekt" (im Sinne von realitätsnah) modellierten frühen Reflexionen für jede Quelle und deren Position?
Danke!
Beste Grüße,
Uranus
Re: Laufzeit- vs. Pegelpanning
Hallo Uranus,
ich denke mal, daß im Pop-Rock-Mono-Poly-Knüppel-Bereich alles erlaubt ist, was zu einem guten Ergebnis führt. Hier wendet man auch eher selten Hauptmikrophone an, höchstens irgendwo in den Raum gestellt, um ein wenig "Ambience" zu bekommen. Dies dürfte aber eher für Live-Aufnahmen, denn für Studio-Produktionen zutreffen.
Wenn aber der Raum gut ist und die Musik paßt (Bigband u.a.), kann ein Haupt- und oder Raummikrophon schon "schön" sein.
Gruß aus Berlin
"Der ewige" Markus P.
ich denke mal, daß im Pop-Rock-Mono-Poly-Knüppel-Bereich alles erlaubt ist, was zu einem guten Ergebnis führt. Hier wendet man auch eher selten Hauptmikrophone an, höchstens irgendwo in den Raum gestellt, um ein wenig "Ambience" zu bekommen. Dies dürfte aber eher für Live-Aufnahmen, denn für Studio-Produktionen zutreffen.
Wenn aber der Raum gut ist und die Musik paßt (Bigband u.a.), kann ein Haupt- und oder Raummikrophon schon "schön" sein.
Gruß aus Berlin
"Der ewige" Markus P.
Re: Laufzeit- vs. Pegelpanning
Hallo Dirk,
in Deinem posting lese ich verschiedene interessante Punkte. Der Grund, Instrumente oder Gruppen zu stützen ist an sich, so finde ich, gar nicht immer so klar und allgemeinverständlich, wie wir immer behaupten. Angefangen damit, dass die Qualität der Übertragungskette verantwortlich ist für das Stützverhalten (Diskussion mit Rainer vorprogrammiert), denn es zeigt sich immer wieder, dass bei Verwendung höchstwertiger Geräte nicht unbedingt mehr gestützt werden brauch - jedenfalls nicht aus dem Grund, weswegen man ansonsten gestützt hätte!Das Verzögern von Stützmikrofonen ist ja ein Kapitel an sich. Persönlich verwende ich das nur als Problemlösung, denn mit Verzögern des Stützmikrofons erhöht sich der benötigte Zumischpegel und damit die Kammfiltereffekte. Übrigens, eine andere Möglichkeit, das "Herausstechen" gegenzuwirken ist doch Hall zufügen?Ausserdem, wenn man verzögert, dann interessiert es mich, weshalb immer noch gepanned wird. Die Abbildungsinformation des Hauptsystems ist zeitlich nun doch vorrangig, dann sollte es ja eigentlich wurscht sein, wie die Stütze gepanned ist. Wäre es dann nicht sinnvoller, diese hart in eine Richtung zu routen?Was übrigens die Verarbeitung der Laufzeitdifferenzen angeht - was ja nichts anderes ist, als kurze Echos (z.B. Reflektionen) die durch unser Gehör zusammengefasst werden - so ist ja das Problem bei zweikanaliger stereophoner Wiedergabe, dass sowohl das frühe als auch das späte Signal beide Ohren erreicht. Das hat ja mit "normal" eigentlich nichts zu tun.
Re: Laufzeit- vs. Pegelpanning
Ja, natürlich. Aber mir schwebt mal ein andere Ansatz vor.
Keiner will natürlich eine Blackmetal-Band mit einem Hauptmikrofon abnehmen. Selbst wenn alle Faktoren ideal wären, sprich toller Raum, Instrumente, etc. das würde nicht funktionieren. Rocksound ist historisch anders entstanden. Hier gilt die Studio-Produktion als ideal, die in der Live-Situation nicht einmal zu 10% erreicht wird. Nicht der Klang einer Gitarrenbox live in einem Raum gilt als Klangideal, sondern, z.B. eine SM57 mikrofonierte Box, mit Bandkompression und was-weiss-ich.
Mir schwebt quasi aber ein virtuelles Hauptmikrofon in einem virtuellen Raum, in dem die mono oder auch mulitmikrofoniert aufgenommenen Signale (die eben nur so dem gewünschten Klangideal entsprechen) verteilt werden. Ich würde mir davon eine gewisse Struktur und Räumlichkeit erhoffen, die diese Produktionen einfach bisher nicht haben. Ich suche schlicht nach Möglichkeiten, diese Art der Produktionen zu verbessern. Denn irgendwann bin ich mal davon abgerückt, da einem angeblichen verfolgten Klangideal nach zu laufen und habe mir beim Anhören einfach mal vorgestellt, welches Klangerlebnis ich denn da eigentlich gerne hätte. Einfach phantasiert. Wenn man dann diese tollen Produktionen mit der Phantasie abgleicht, bleibt von denen nicht viel übrig. Nicht so wichtig...
Michael Gerzon hatte mal vor Urzeiten vorgeschlagen, die Einzelspuren solcher Produktionen zu panoramisieren in dem man jeweils Lautsprecher auf die entsprechenden Positionen in einem realen Raum stellt und diese mit einem Blumlein-Hauptmikrofon abnimmt. Er wollte Dipole nehmen, deren Nullachse zum Mikrofonsystem zeigt, damit in dem aufgenommen "Hall-Return" kein Direktsignal drin ist. Diesen Return kann man dann bei der Mischung beliebig zufügen.
Wurde glaube ich nie durchgeführt, war zu aufwändig damals und Gerzon starb zu früh.
So in die Richtung denke ich, halt nur praktischerweise mit gemodellten IRs, zu mal ich da nach belieben mein "Hauptmikrofon" auswechseln kann. Theoretisch kann ich als virtuelles Hauptmikrofon auch ein Ambisonics-Mikrofon nehmen und dann meinem Endmix im nachhinein (!) ein beliebiges koinzidentes Stereo- oder Surroundmikrofon verpassen oder aber für Headtracked-Binaural decodieren oder in 10 Jahren für 3D-Anordnungen. Monokompatibel? Pfff, sowieso ja klar, aber vor allem zukunftskompatibel.
Da das Hauptmikrofon virtuell ist kann ich es wohl auch im B-Format höherer Ordnung generieren (theoretisch, ich kenne keine verfügbare Software, CATT kann nur erster Ordnung), und die Mixe wären sicherlich in Surround überlegen und selbst auf künftigen WFS-Systemen könnte man damit sinnvolleres anfangen als mit einem regulären, dann überholten Format (Stereo, 5.1, 22.2,etc...)
Allerdings würde ich auch gerne mit virtuellen Laufzeit- und Äquivalensystemen arbeiten.
Immer noch interessiert mich, ob jemand Äquivalenzpanning regelmäßig bei solchen Produktionen anwendet. Bei dieser Frage belasse ich es jetzt auch, sonst wird's zu kompliziert...
Danke!
Keiner will natürlich eine Blackmetal-Band mit einem Hauptmikrofon abnehmen. Selbst wenn alle Faktoren ideal wären, sprich toller Raum, Instrumente, etc. das würde nicht funktionieren. Rocksound ist historisch anders entstanden. Hier gilt die Studio-Produktion als ideal, die in der Live-Situation nicht einmal zu 10% erreicht wird. Nicht der Klang einer Gitarrenbox live in einem Raum gilt als Klangideal, sondern, z.B. eine SM57 mikrofonierte Box, mit Bandkompression und was-weiss-ich.
Mir schwebt quasi aber ein virtuelles Hauptmikrofon in einem virtuellen Raum, in dem die mono oder auch mulitmikrofoniert aufgenommenen Signale (die eben nur so dem gewünschten Klangideal entsprechen) verteilt werden. Ich würde mir davon eine gewisse Struktur und Räumlichkeit erhoffen, die diese Produktionen einfach bisher nicht haben. Ich suche schlicht nach Möglichkeiten, diese Art der Produktionen zu verbessern. Denn irgendwann bin ich mal davon abgerückt, da einem angeblichen verfolgten Klangideal nach zu laufen und habe mir beim Anhören einfach mal vorgestellt, welches Klangerlebnis ich denn da eigentlich gerne hätte. Einfach phantasiert. Wenn man dann diese tollen Produktionen mit der Phantasie abgleicht, bleibt von denen nicht viel übrig. Nicht so wichtig...
Michael Gerzon hatte mal vor Urzeiten vorgeschlagen, die Einzelspuren solcher Produktionen zu panoramisieren in dem man jeweils Lautsprecher auf die entsprechenden Positionen in einem realen Raum stellt und diese mit einem Blumlein-Hauptmikrofon abnimmt. Er wollte Dipole nehmen, deren Nullachse zum Mikrofonsystem zeigt, damit in dem aufgenommen "Hall-Return" kein Direktsignal drin ist. Diesen Return kann man dann bei der Mischung beliebig zufügen.
Wurde glaube ich nie durchgeführt, war zu aufwändig damals und Gerzon starb zu früh.
So in die Richtung denke ich, halt nur praktischerweise mit gemodellten IRs, zu mal ich da nach belieben mein "Hauptmikrofon" auswechseln kann. Theoretisch kann ich als virtuelles Hauptmikrofon auch ein Ambisonics-Mikrofon nehmen und dann meinem Endmix im nachhinein (!) ein beliebiges koinzidentes Stereo- oder Surroundmikrofon verpassen oder aber für Headtracked-Binaural decodieren oder in 10 Jahren für 3D-Anordnungen. Monokompatibel? Pfff, sowieso ja klar, aber vor allem zukunftskompatibel.
Da das Hauptmikrofon virtuell ist kann ich es wohl auch im B-Format höherer Ordnung generieren (theoretisch, ich kenne keine verfügbare Software, CATT kann nur erster Ordnung), und die Mixe wären sicherlich in Surround überlegen und selbst auf künftigen WFS-Systemen könnte man damit sinnvolleres anfangen als mit einem regulären, dann überholten Format (Stereo, 5.1, 22.2,etc...)
Allerdings würde ich auch gerne mit virtuellen Laufzeit- und Äquivalensystemen arbeiten.
Immer noch interessiert mich, ob jemand Äquivalenzpanning regelmäßig bei solchen Produktionen anwendet. Bei dieser Frage belasse ich es jetzt auch, sonst wird's zu kompliziert...
Danke!
Re: Laufzeit- vs. Pegelpanning
""Angefangen damit, dass die Qualität der Übertragungskette verantwortlich ist für das Stützverhalten (Diskussion mit Rainer vorprogrammiert), denn es zeigt sich immer wieder, dass bei Verwendung höchstwertiger Geräte nicht unbedingt mehr gestützt werden brauch - jedenfalls nicht aus dem Grund, weswegen man ansonsten gestützt hätte!""
Diese Aussage scheint mir noch unverständlich.
Welche primären Qualitätsparameter sind denn entscheidend dabei?
Was heißt konkret "höchstmöglich"?
Gruß,
Christopher
NICHT Rainer
Diese Aussage scheint mir noch unverständlich.
Welche primären Qualitätsparameter sind denn entscheidend dabei?
Was heißt konkret "höchstmöglich"?
Gruß,
Christopher
NICHT Rainer

Re: Laufzeit- vs. Pegelpanning
Es ist schon vielen Produzenten aufgefallen, dass ihre einzeln nah aufgenommenen Monoschallquellen in den Mixen eben punktförmig unnatürlich wie dicke unbewegliche Hühner auf der Stange zwischen den Lautsprecher sitzen.
Das wird sicher an den alleinigen gepannten Pegeldifferenzsignalen liegen. Der Musikmischung fehlt irgend etwas. Daher greift man nachträglich zu den vielversprechenden "Verbesserern", wie
Aphex Systems 250 Aural Exciter Type III
http://www.aphex.com/250.htm
http://akmedia.digidesign.com/products/ ... 0_8894.pdf
Big Bottom Pro
http://www.pluginz.com/product/10467?from=rlist
Aphex 661 Expressor with Tubessence and Easyrider Tube Compressor/Limiter
http://www.moultonlabs.com/index.php/more/aphex661/P2/
TC Finalizer Express Multiband Compressor
http://www.tcelectronic.com/FinalizerExpress
Alle geben Versprechen ab, wie:
"Delivers the finishing touches of clarity, warmth, and punch to your mixes."
Gerade das Onepoint-Soundfield-Microphone für Ambisonics leidet am Fehlen von Laufzeitdifferenzen. Gerzon kann auch nicht mit seinem Koinzidenz-Blumlein-Mikrofon helfen. Das ist sicher der falsche Weg. Wie überhaupt dieses 4 Kanal B-Format oder der UHJ Surroundsound-Klang ein Schuss in den Ofen ist. Wie lange wollen diese Sektierer noch daran "glauben". Es klingt halt nicht. Wo sind die gut klingenden Ambisonic-Aufnahmen?
Das wird sicher an den alleinigen gepannten Pegeldifferenzsignalen liegen. Der Musikmischung fehlt irgend etwas. Daher greift man nachträglich zu den vielversprechenden "Verbesserern", wie
Aphex Systems 250 Aural Exciter Type III
http://www.aphex.com/250.htm
http://akmedia.digidesign.com/products/ ... 0_8894.pdf
Big Bottom Pro
http://www.pluginz.com/product/10467?from=rlist
Aphex 661 Expressor with Tubessence and Easyrider Tube Compressor/Limiter
http://www.moultonlabs.com/index.php/more/aphex661/P2/
TC Finalizer Express Multiband Compressor
http://www.tcelectronic.com/FinalizerExpress
Alle geben Versprechen ab, wie:
"Delivers the finishing touches of clarity, warmth, and punch to your mixes."
Gerade das Onepoint-Soundfield-Microphone für Ambisonics leidet am Fehlen von Laufzeitdifferenzen. Gerzon kann auch nicht mit seinem Koinzidenz-Blumlein-Mikrofon helfen. Das ist sicher der falsche Weg. Wie überhaupt dieses 4 Kanal B-Format oder der UHJ Surroundsound-Klang ein Schuss in den Ofen ist. Wie lange wollen diese Sektierer noch daran "glauben". Es klingt halt nicht. Wo sind die gut klingenden Ambisonic-Aufnahmen?
Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 8 Gäste