Wäre mir neu, dass die da irgendwas, hinlänglich der HDMI Schnittstelle, in der Architektur verwurzeln (Dein CB Artikel spricht btw bei der Impementierung von DP 1.4 auch von Änderungen Abseits der Architektur). Würde es danach gehen, dürfte es auch keine Custom-PCBs mit DVI geben. DVI hat NVIDIA ja seit langer Zeit rausgeschmissen. Mit VGA war es eigentlich dasselbe.
Aber der GPU scheint es absolut egal zu sein, welche Schnittstelle nun dahinter ist.
Relevant ist wohl eher, dass die Architektur selber in der Lage ist mit solch hohen Auflösungen und Hz umzugehen (und das ist auch schon die alten Karten wie die 580X
![Biggrin :D](./images/smilies/nuforum/icon_biggrin.gif)
).
Anderes Beispiel: XBox One S. Basiert auch noch auf der Uralt-Architektur der ersten XBox One. Unterstützt ebenfalls HDMI 2.0a.
Dürfte sie der Theorie nach ja auch nicht - macht sie aber trotzdem. Solange die GPU "intern" in der Lage ist die Auflösung anzubieten, gibt der entsprechende HDMI Chipsatz (oder DP Chipsatz) die Marschrichtung an. Die Angabe wird ja auch "Max. digitale Auflösung" genannt. Solange da also bspw. 8K@60 unterstützt wird, würde es reichen eine entsprechenden HDMI 2.1 Chipsatz zu verbauen. Hier und da werden dann zwar sicherlich ein paar Tweaks notwendig. Aber da muss halt nichts an der Architektur der GPU geändert werden. Problematisch wird es halt, wenn die GPU an sich schon nicht mit solchen Auflösungen umgehen kann. Dort mag es dann sein, dass Änderungen an der Architektur notwendig werden. Bei der XBox One und PS4 wurde bspw. diese "Auflösung" hochgeschraubt.
In der Vergangenheit war es bei AMD ja auch schon zu Zeiten der 380X ein Problem. Da hatten
die zwar den aktuellsten DP Standard. Die Grafikkarte konnte auch mit entsprechenden Auflösungen und Hz umgehen. Aber der HDMI Port/Chipsatz war trotzdem ein alter 1.4 ^__^ Während also über den DP "4K@60" genutzt werden konnte, hat der HDMI Chipsatz es halt verhindert, dass über HDMI entsprechende Auflösungen und Hz erreicht werden konnten.
Das Problem wird also auch hier einfach die Nicht-Verfügbarkeit der entsprecheden
HDMI 2.1 Chipsätze sein. Dann braucht es ja natürlich auch noch Zeit die Implementation korrekt umzusetzen. Sieht man ja auch in anderen Bereichen. Einzig LG hat es auf mysteriöse Weise geschafft echtes HDMI 2.1 zu verbauen. Nicht mal Sony ist in der
Lage dem 8K ZG9 echtes HDMI 2.1 zu verpassen. Gut, dafür scheint LG die eARC Implementation verkackt zu haben beim C9. Aber das sollte man ja alles fixen können. Aber selbst da stehen noch einige Fragezeichen, da der C9 bspw. gleich 2 HDMI Chipsätze zu haben scheint. Aber ich schweife ab.
Im PC Bereich ist die HDMI Schnittstelle ja sowieso eher irrelevant. Zumindest bei stärkeren Karten will man ja höhere Auflösungen und/oder mehr FPS haben. Bei den Leuten ist dort dann ja DP angesagt. Von daher kann man dort als Hersteller gut sparen. Bei den Konsolen ist das da wieder etwas anderes.
Früher oder später wird es ja aber wohl entsprechenden Adapter geben. Club3D hat da glaube ich auch etwas bestätigt.
Was Raytracing angeht muss man mal schauen. Lässt sich halt auch rein softwarebasiert lösen. Einige 1000er Grafikkarten von NVIDIA haben das ja auch freigeschaltet.
Weyoun hat geschrieben:
Nochmal: Layout ist nicht mit Architektur gleichzusetzen. Da können die Board-Partner für die erste Generation nichts machen.
Habe ich auch nie behauptet.