CJoe78 hat geschrieben: ↑Do 20. Okt 2022, 09:02
@ engineer: Worum geht es dir? Um Musikproduktion oder um Musikhören?
Da sehe ich keinen Unterschied. Das spielt ja in einander. Die Frage ist, was ist Ursache und was ist Wirkung. Nehme ich beim Abspielen auf die Art der Produktion Rücksicht oder nehme ich bei der Produktion auf die Abspieler Rücksicht.
CJoe78 hat geschrieben: ↑Do 20. Okt 2022, 09:02
Normalerweise wird ein Stereobass während der Musikproduktion unter 100 HZ langsam in einen Monobass überführt.
Das wird gemacht, um Monokompatibilität und Phasenauslöschungen auf möglichst vielen Abhören zu vermeiden.
Das kann man so sehen, muss es aber nicht. Die Verengung tiefer Frequenzen auf Mono ist zunächst eine Rücksichtnahme auf die Randbedingungen der Schallplatte gewesen. Im Weiteren gab es später noch jahrelang Monoradios in Autos und Daheim. Beides ist seit 30 Jahren aus meiner Sicht Vergangenheit. Kein Mensch berücksichtigt noch Monokompatibilität, damit der neueste HIP-HOP-Mix auch auf Mamis Küchenradio noch rockt und Schallplattenmischungen werden eh als Sondermischungen erstellt, weil da noch ganz andere Randbedingungen wirken.
Von daher muss man die Frage stellen, wozu?
Phasenauslöschungen gibt es immer, wenn ich mit 2 Lautsprechern arbeite und die existieren auch in realen Räumen mit realen Musikinstrumenten - sind somit nicht primär ein Problem.
Das Einzige, was wir wirklich haben, sind Räume, die keine Bässe vertragen und das Problem ist, dass dasselbe Signal aus einem Lautsprecher mit seinen Reflextionen in MIN-MAX-Phase System bildet wo wir die Löcher bekommen. Ob dann ein anderes, phasenverschobenes und im Pegel anderes Basssignal aus dem anderen Lautsprecher den Pegel weiter senkt oder hebt, ist eine Frage des Ortes. Mithin verwendet man ja zwei Lautsprecher mit demselben Signal (bei Monobass) um dem entgegen zu wirken. Das funktioniert mit einem Stereobass natürlich anders, aber nicht notwendigerweise schlechter.
Und es stellt sich auch die Frage, wie man das mischen soll: Künstliche Klänge aus dem Synth sind kein Problem. Aber die eigentliche Musik, die wir hören, ist oft genug eine Tonaufnahme mit einem Stereoverfahren. Bei klassischen Orchestern sind da mehrere Mikros beteiligt, die u.a. für einen Bassumhüllung sorgt. In jedem der Mikros ist akustisch bedingt schon ein Kammfilter präsent und zwar für alle Frequenzen. Wenn man da nun unterhalb X Hz ins Mono möchte, hat man das Problem, solche Signale zusammenzumischen. Dabei entsteht ein zusätzliches Kammfilterproblem schon im Signal und das ist gravierender, weil es beim späteren abspielen mit weiteren Effekten im Abhörraum belastet wird. Umgehen kann man das nur, wenn man sich einen Mikrokanal, z.B. den Center hernimmt und den auf L+R verteilt. Oder man nimmt nur L und mischt es auf R. Abgesehen von den Effekten im Übergangsbereich, die auch Probleme machen, gibt es dann ein neues Problem: Der Bass ist nicht in jedem Mikro gleich gut repräsentiert, weil das Mikro nur "seine" Musiker gut augezeichnet hat. D.h. du kriegst 2 Kontrabässe rein und die Celli schlechter. Harfe und Pauke von der Seite haben verloren.
Transportiert man aber den Bass über echtes Stereo, liefert ein Mikro ein Signalgemisch und das andere Mikro ein anderes. Diese bilden in aller Regel ein homogeneres Bild ab.
Ich plädiere daher nach wie vor für full range bei Aufnahme und Wiedergabe.
Dass es bei 5:1 oder in schlechten Räumen mit einem vorverkrüppelten, reduzierten Monobass besser klappt, weil der Raum und die Lautsprecher das so bedingen, mag sein - muss aber nicht als Maßstab für moderne Mischungen gelten, die über gute Lautsprecher, in eventuell guten Räumen und unter Nutzung von Modenunterdrückung abgespielt werden können.
Wie gesagt sind die beiden Hauptgründe für Monobass seit Dekaden beerdigt.
Um also die Frage des TE zu beantworten, sind 2 Bassrepräsentanten allemal flexibler, weil sie beide Szenarien beherrschen.
Ich werde dazu wohl mal eine Simulation machen mit dezentral positionierten Bassstrahlern. Dann wird das evident wie sich die Auslöschungen verhalten.