Trotzdem kann ich es mir nicht verkneifen, nochmal meinen Senf dazu zu geben.
Ich will das Thema dort nicht noch weiter abschweifen lassen und weil's 'ne grundsätzliche Frage ist, die eigentlich nicht nur für die Bass-Abtrennung, sondern auch für den Mittel- und Hochtonbereich relevant ist, stelle ich's mal hier rein...
Analoge Filter:
Mit analogen, frequenzabhängigen Bauteilen (Spulen und Kondensatoren) werden Filter gebaut.
Diese Filter können nur unterschiedlich schnell auf schnelle oder langsame Änderungen des Eingangssignals reagieren.
Dies hat zur Folge, dass Tiefpass-Filter (also Filter, die nur tiefe Töne = langsame Änderungen durchlassen sollen) grundsätzlich deutlich langsamer (= verzögert) reagieren, als Hochpass-Filter. Viele Filter benötigen zusätzlich noch eine gewisse Einschwingzeit, bis sich das gewünschte Filterverhalten überhaupt erst einmal einstellt (Group Delay).
Wenn man das Ergebnis später wieder zusammenmischen muss (im breitbandigen Mehrwege-Lautsprecher mischt sich das dann in der Luft), dann hat man ein Problem... es passt nicht mehr 100%ig.
Um das zu kompensieren verwendet man Tricks, die aber alle mit "Nebenwirkungen" (z.B. Phasendrehungen) verbunden sind.
Über die Hörbarkeit dieser Nebenwirkungen kann man unterschiedlicher Meinung sein, Studien dazu sind z.T. recht unterschiedlich ausgefallen bzw. interpretiert worden.
Im Sinne von "HiFi" (also so originalgetreu wie technisch möglich) sind die Verzögerungen und Phasendrehungen aber trotzdem nicht gutzuheissen...
DSP-Filter:
DSP steht für Digital Signal Processor.
Grundsätzlich muss man sagen, dass der Unterschied zwischen IIR- & FIR-DSP vordergründig durch die jeweilige Filter-Software ausgemacht wird.
Z.B. die SHARC-DSPs, wie sie in den Denon-Receivern drin sind und dort nur IIR-Filter realisieren, lassen sich mit anderer Software genausogut als FIR-Filter verwenden.
FIR-DSPs sind nur deshalb "teurer", weil die FIR-Software für die gleichen Filterkennlinien mehr Speicherplatz und höhere Rechenleistung benötigt und weil den Software-Entwicklern die notwendigen Schritte zur Vorbereitung der richtigen Filterkennlinien nicht so geläufig sind.
IIR-DSP:
Das ist soweit nicht falsch, aber mit IIR-DSPs lassen sich auch Filter-Kennlinien realisieren, die mit analoger Filtertechnik nicht realisierbar sind.G. Nubert hat geschrieben:Ein IIR-Controller (infinite impulse response controller) bildet "die Welt" der analogen Filtertechnik nach.
Praktisch technisch gleichwertig, aber...
Im Gegensatz zu analoger Filtertechnik kann der IIR-DSP nämlich auch breitbandige, phasenneutrale Verzögerungen realisieren. Damit lassen sich (entsprechende Kenntnisse des Programmierers vorausgesetzt) Kammfilter oder phasenkorrigierte Filter realisieren, wie sie mit Analog-Technik nicht realisierbar wären.
Diese Filter können besser als analoge Filter sein, auch wenn damit die Flexiblität von FIR-Filtern nicht erreicht werden kann.
Vermute mal, dass im DXD-Modul genau davon Gebrauch gemacht wird.
FIR-DSP:
Auch das ist zwar korrekt, aber aus meiner Sicht etwas zu einseitg dargestellt.G. Nubert hat geschrieben:Ein FIR-Controller (Finite impulse response controller) stellt (meines Wissens) die einzige Möglichkeit dar, den Frequenzgang und die Gruppenlaufzeit (group delay) unabhängig voneinander einzustellen.
Das FIR-Filter simuliert numerisch die eigentlich exakte und völlig flexible mathematische Beschreibung beliebiger linearer Netzwerke (also auch Filter, Kabel, was auch immer)...
In der Netzwerk-Theorie geht man davon aus, dass das Verhalten eines linearen Netzwerkes korrekt und vollständig durch die Sprungantwort beschrieben wird. Das Signal am Ausgang des Netzwerkes enspricht mathematisch der "Faltung" (dafür gibt es das Faltungsintegral) der Sprungantwort über die Änderung des Eingangs-Signals. Im Gegensatz zur Stoß- (oder Impuls-)antwort gilt dies auch uneingeschränkt für verteilte Netzwerke.
Der FIR-DSP simuliert exakt dieses Verhalten, d.h. er bekommt statt einer Filterkennlinie eine vorgegebene Sprungantwort und "faltet" diese über das Eingangs-Signal.
Damit lässt sich grundsätzlich *jedes* Verhalten produzieren und (was noch viel besser ist):
Damit lassen sich auch Übertragungs-Fehler anderer Glieder in der Kette kompensieren
Für die Ansteuerung von Lautsprechern bedeutet dies, dass man damit die Trennung der Frequenzbereiche auf die verschiedenen Chassis völlig sauber, phasenneutral und verzögerungsfrei (bis auf die von Herrn Nubert bereits erwähnte Grundverzögerung) realisieren kann und dass man dabei auch Verfälschungen durch das Verhalten der Lautsprecher-Chassis weitestgehend kompensieren kann.
Setzt natürlich voraus, dass man für jedes Chassis einen separaten DSP-Filter-Zweig (und dann eine separate Endstufe) hat und die entsprechenden Sprungantworten der einzelnen Chassis kennt und bei der Berechnung der Sprungantwort des Filters mit berücksichtigt...
Wenn ich sowas für meine 7.1-Anlage (mit den verschiedenen Bestückungen) haben wöllte ...
Das Ganze hat allerdings den Preis der höheren Grundverzögerung.
Beim Einsatz in breitbandigen Mehrwege-Lautsprecher kommt ein weiteres Problem hinzu: Die 100%-ig saubere Abstrahlung stellt sich nur in einer "Ebene" ein, also nur wenn alle Lautsprecher den gleichen, vorgegebenen Abstand zum Hörer haben. Ausserhalb dieser Ebene kann es zu Vor- und Nach-Kling-Effekten kommen. Diese sind allerdings (zumindest aus Sicht der messtechnisch/mathematischen Bewertung) geringer, als die Fehler, wie sie z.B. ein "phasenkorrigierter IIR-DSP" oder eine klassiche analoge oder gar passive Weiche produzieren würde.
Zum Thema Grundverzögerung:
Dieses Problem wird meines Erachtens etwas überbewertet.G. Nubert hat geschrieben:Beim Audio-Einsatz in Video-Systemen muss man aber auch bedenken, dass dabei die "Lippen-Synchronität" verloren gehen kann.
Das Problem "Lippen-Synchronität" ist kritisch bei Bildschirmen, die zum De-Interlacen oder Skalieren eine Bild-Verzögerung verursachen, sodass dadurch der Ton vor dem Bild kommen kann. Eine solche Situation ist unnatürlich, paradox und deshalb schwer zu verarbeiten.
Der umgekehrte Fall (Ton zu spät) ist eine völlig natürliche Situation, wie sie im täglichen Leben vorkommt.
Wenn ich mich mit jemandem auf 7 Meter Entfernung unterhalte, dann trifft bei mir der Schall bereits mit 20ms Verspätung ein, ohne dass ich damit ein "Lips-Sync-Problem" habe...
Warum soll's im Fernsehen anders sein?