Philipp hat geschrieben:Wenn ich einen festen Hörplatz habe, sollte ich dann wirklich einfach die Messungen mitteln? Evtl. habe ich ja beispielsweise an den meisten Messpunkten des Raumes eine Auslöschung, die am Hörplatz aber nicht vorhanden ist. Nach der Korrektur wird dieses Frequenzband dann am Hörplatz zu laut sein.
Wäre es nicht sinnvoller, zwar an verschiedenen Orten zu messen, sich die Messungen dann aber nochmal "von Hand" anzusehen und sinnvoll zu gewichten? Das ganze kann natürlich nicht vollautomatisch funktionieren.
Die Gewichtung der einzelnen Messpunkte ist ein sehr wichtiger Faktor, da hast du Recht. Mir fällt da spontan ein Paper
von Tsakiris, Orinos und Laskaris ein. Dort beschreiben die Forscher ein Verfahren zur Bewertung von Raum-Equalizern. Laut ihnen bewerten Menschen die Qualität eines Hörraumes nach der Menge und Größe seiner Frequenzgang-Dellen und -Bergen. Ein weiteres wichtiges Maß ist jedoch, wie häufig diese Dellen und Berge im Raum vorkommen. Mit anderen Worten: Es lohnt sich nicht so sehr, auf lokale Frequenzgänge zu optimieren, da wir eigentlich immer ein Raummittel hören. Wenn ich nächste Woche meinen Probandentest durchlaufen habe, werde ich mehr dazu sagen können.
Philipp hat geschrieben:Sollte man im Tiefbassbereich nicht am besten gar nicht glätten? Dort gibt es ja keine breitbandigen Unregelmäßigkeiten mehr, sondern sehr schmale Peaks und Auslöschungen durch die ersten paar Raummoden. Kommt man denen nicht am allerbesten bei, wenn man die Glättung ganz weg lässt und die Peaks im Filter so genau wie möglich (invertiert) nachbildet? Sonst senkt man am Ende einen Bereich von 30 Hz Breite ab, während der Peak selbst vielleicht nur 10 Hz breit ist. Nur so als Beispiel.
Oder bin ich da völlig auf dem Holzweg?
Da hast du Recht. Aber eine Eigenschaft einer frequenzlogarithmischen Glättung ist, dass sie im Tieftonbereich praktisch gar nicht glättet. Auf der Grafik sieht man eine gewisse Glättung hauptsächlich, weil ich dort mit einer abartigen Frequenzauflösung arbeite. Bei "normalen" Leistungsdichtespektren würde bis ca. 150 Hz gar nicht geglättet.
Philipp hat geschrieben:Ich habe also einfach den Freqenzgang an diversen Stellen gemessen, ein paar Messkurven gemittelt (siehe oben zu Schritt 2) und dann aus einigen Filtern den intertierten Frequenzgang nachgebildet - und zwar unterhalb von 100 Hz sehr detailiert und ohne Glättung (siehe oben zu Schritt 3). Bis 200 Hz wird dann recht sanft und breitbandig korrigiert, darüber habe ich gar nichts verändert. Dieses Verfahren ist natürlich nicht wissenschaftlich begründet, sondern hat sich in diversen Hörsessions als vorteilhaft herausgestellt.
Was sagst du als "Fachmann" dazu?
Zuerst: Hifi soll Spaß machen. Gut ist, was gut klingt.
Meine eigenen Untersuchungen verschiedener Lautsprechersysteme zeigt aber, dass Frequenzgangverzerrungen ziemlich gleichverteilt über alle Frequenzen stattfinden und auch hörbar sind. Im Bass werden sie eher als "Dröhnen" wahrgenommen, während sie in den Mitten und Höhen eher als "Klangfärbung" erscheinen. Eine Anmerkung vielleicht: Streng genommen darf man im logarithmischen Frequenzbereich (dB!) nicht einfach mitteln. Für den Hausgebrauch ist das aber egal.
Philipp hat geschrieben:Das Ergebnis ist ziemlich gut, jedenfalls besser als ohne Korrektur.
Die meisten Kritiker führen ja vor allem die vermeintlich kurzen Bassimpulse ins Feld, die quasi schon vorbei sind bevor sie durch Moden und Nachhall verstärkt würden. Die werden durch so einen Filter natürlich viel zu leise dargestellt. In der Praxis (Hörtests, keine Messungen!) spüre ich davon aber wenig. Zumal die hörbaren Vorteile, insbesondere die Eliminierung von schlimmen Dröhnfrequenzen, bei vielen Stücken wirklich gravierend sind.
Danke Phillipp! Das ist es, was ich mit meinem Projekt zu erreichen versuche
Nächste Woche wird zeigen, ob ich das gut gemacht habe.
Ich persönlich halte nicht besonders viel von "speziellen Testsignalen". Musik und Sprache muss natürlich klingen, Sprache muss gut verständlich sein und der Raumeindruck, die Durchsichtigkeit und die Räumlichkeit sollten nicht beeinträchtigt werden. Es juckt mich ehrlich gesagt nicht die Bohne, wenn Testsignale schlecht klingen, solange Musik und Film gut klingen.
Rank hat geschrieben:Eines der vielen Probleme/Herausforderungen ist es, überhaupt erst mal einen richtig guten parametrischen EQ zu finden, der keine sonstigen klanglichen Nachteile mit sich bringt.
Grundsätzlich kann man bei einem (digitalen) EQ nicht soo viel falsch machen, solange man mit ausreichender Rechengenauigkeit arbeitet. Ein Standard-Robert Bristow-Johnson- oder Butterworth-Entwurf mit double Precision hat einen Störabstand von über 100 dB. Das reicht auch für gutes Hifi. Aber du hast Recht, es ist leider viel Schund auf dem Markt...
Besonders bei schlechten GEQs summieren sich die einzelnen Filter oftmals nicht zu einer flachen Form, sondern zu Wellen- oder Kammartigen Strukturen, was dann grausam klingt. Gute GEQs sind nicht einfach. PEQs sind aber weitläufig als relativ unkritisch bekannt, solange man es mit der Filteranzahl nicht übertreibt. Bei modernen DSPs mit 48-Bit Akkumulatoren kann man getrost zwanzig bis vierzig Filter in Reihe schalten bis das Filterrauschen zum Problem wird. Man handelt sich dabei aber in jedem Fall Phasenverzerrungen ein, auch wenn deren Hörbarkeit
in einem Raum sehr umstritten ist.
Selig ist, wer nichts zu sagen hat und trotzdem schweigt.
[size=75]
nuWave 105, CS-65, RS-5, NAD C370, Denon AVR 2106 und 'n Beamer[/size]