Hi,
auch wenn dieser Thread etwas ins OT abgeglitten und dort eingeschlafen ist, möchte ich ihn doch nochmal vor holen.
Im Rahmen meiner Recherchen für mein nächstes Projekt (einen CD-Player zu bauen, der so gut klingt wie analoge Platte
), bin ich auf 2 Ergebnisse gekommen:
Das Erste:
Die DA-Wandlung ist doch nicht so simpel, wie man oft annimmt. Mit Multibiwandlern oder Einbitwandlern kommt man auf ganz unterschiedliche Ergebnisse. Die neusten (und seehr teuren) Wandler sind ein Symbiose aus beiden Konzepten. Dann wird darum gestritten, dass vielfachoversampling den Klang verfälscht und non oversampling das Wahre ist.
Dann kommt das ganze Feld der Jitter-Problematik hinzu, was direkte Wandlungsfehler bewirkt und schließlich noch ein steilflankiger Tiefpass...
High End Geräte verwenden 24 bit 96 kHz (oder mehr) Wandler und führen vorher mit einem DSP ein upsampling durch. Dadurch sollen Wandlungsfehler minimiert werden....
Es ist also noch eine Baustelle und das Unvermögen der DA-Wandlung ist kein Geheimnis.
Das Zweite:
Habe hier einen sehr interessanten Vortrag gefunden:
http://www.aktives-hoeren.de/downloads/ ... 300708.pdf
Nach dem studieren dessen, war mir klar, dass meine gehörten Unterschiede zwischen Platte und CD keine Einbildung, sondern durchaus erklärbar sind
Der Beitrag hat nichts mit Voodoo zu tun, sondern ist sachlich und verständlich geschrieben, sicherlich auch streitbar und mit Vorsicht zu genießen, aber interessanter Diskussionsstoff.
Ein ganz kurzer Extrakt:
Wir sind landläufig der Meinung, das das Nyquist-Shannon-Abtasttheorem ein "Naturgesetz" ist. Das beinhaltet, dass ein 20 kHz-Signal mit 40 kHz abgetastet werden und wieder reproduziert werden kann. Von uns hört keiner mehr als 20 kHz. also ist die Abtastung des CD-Formates mit 44,1 kHz völlig ausreichend. Soweit so gut.
Frequenzverteilungen von akustischen Instrumenten zeigen aber, dass diese bis 50 kHz gehen. Nun, man kann sagen: Hören wir eh nicht mehr. Stimmt aber nicht ganz, ein Beispiel:
Die kleinste auf einer CD darstellbare Struktur kann nicht kürzer als 22μs sein, was zwar zunächst noch
sehr gut klingt, den Fähigkeiten des menschlichen Hörsystems aber nicht gerecht wird:
Allgemein wird der Hörbereich des Menschen auf 20Hz-20kHz festgelegt. Daraus folgerten dann die
Erfinder der CD die Abtastrate von 44,1 bzw. 48kHz für digitale Audioübertragungssysteme. Könnte
man den Zusammenhang zwischen Bandbreite und zeitlichem Auflösungsvermögen Eins zu Eins auf
den Menschen übertragen, wäre es auch tatsächlich widersinnig von technischen
Audioübertragungssystemen gleich ob analog oder digital eine höhere zeitliche Auflösung zu
fordern, da der Mensch diese dann ohnehin nicht wahrnehmen könnte. Diese seit Erfindung der
Digitaltechnik proklamierte Festlegung muss aus heutiger Sicht jedoch deutlich in Frage gestellt
werden.
Natürlich gilt die Physik auch bezogen auf das menschliche Hören. Die Bandbreite des menschlichen
Gehörs wird anhand von Hörtests mit Sinusschwingungen auf maximal 20kHz (Erwachsener höchstens
17kHz) festgesetzt. Allerdings sollten beim menschlichen Hören nicht die Eigenschaften eines Ohres
isoliert betrachtet werden, genauso wie der psychoakustische Filter Gehirn nicht vernachlässigt
werden sollte. Das Gehirn ist zusammen mit zwei Ohren Teil des menschlichen Übertragungssystems
und bestimmt die Hörwahrnehmung immer mit.
Wenn es zum Beispiel um Richtungswahrnehmung geht, sind Winkelabweichungen von nur 3-5 Grad
exakt wahrnehmbar. Das entspricht einer Laufzeitdifferenz zwischen beiden Ohren von etwa 10μs.
Hingegen kann das Ohr zwei zeitlich diskrete Signale nur mit einem zeitlichen Abstand größer 10ms
bewußt als zwei Signale voneinander trennen. Untersuchungen im Bereich Instrumentenakustik
wiederum zeigen, dass der Mensch kleinste Signalstrukturen bis hinab zu einer Größenordnung von 5μs
wahrnimmt und diese für einen natürlichen Höreindruck benötigt1.
Rechnet man die 20kHz der höchsten hörbaren Frequenz um in Zeitauflösung, ergibt das 25μs. Rechnet
man die 10ms Zeitauflösung um in eine maximal hörbare Frequenz, so dürften wir keine Frequenzen
über 50Hz (das ist die Frequenz eines Netzbrummens) hören. Gleichzeitig hören wir beim Bestimmen
von Richtungen Zeitabstände von 10μs und nehmen in Klängen Signalstrukturen bis hinab zu 5μs wahr.
Die Stichwörter Laufzeitdifferenzen und Richtungswahrnehmung bringens auf den Punkt:
Die beiden menschlichen Ohren können dort Differenzen von 5 us wahrnehmen, die CD kann aber nur 22us als kürzeste Abtastzeit darstellen.
Man kann sicherlich auch diskutieren, dass das Abtasttheorem solche kleinen Zeitraster in 2 Kanälen darstellen kann, aber in einem gehtŽs nich mehr.
Dazu kommen dann die nur 16 bit Auflösung. In diesem Gemisch kann ich mir schon vorstellen, dass einige Informationen verloren gehen...
So, wieder neuer Diskussionsstoff