Seite 2 von 2

Verfasst: Di 11. Mai 2010, 14:10
von Asgard
Sind vielleicht im Treiber AntiAliasing oder sonstige Bildverbesserer eingeschaltet?

Verfasst: Di 11. Mai 2010, 15:15
von Philipp
Asgard hat geschrieben:Sind vielleicht im Treiber AntiAliasing oder sonstige Bildverbesserer eingeschaltet?
Natürlich nicht. Das wäre ja auch zu einfach. ;)


Was ich übrigens noch alles beim Rechner mit der Radeon versucht habe:

BIOS und Chipsatz auf den neuesten Stand gebracht, Festplatte per AAM vom Silent-Modus in den Normal-Modus umgeschaltet, CPU spaßeshalber von 2,67 GHz auf ~3,3 GHz übertaktet (um den Einfluss des Faktors CPU im Vergleich der beiden PCs zu ermitteln - spielt wie zu erwarten keine Rolle).

Bringt alles nichts. Der Rechner bleibt bei im Benchmark deutlich besser, bei den Games dagegen deutlich schlechter als der Rechner mit Intel-Chip.

Verfasst: Mi 12. Mai 2010, 22:48
von Germerman
Hallo,

Mal auf den Stromverbrauch geschaut? Evtl. zuwenig Strom vorhanden? Die Onboard braucht sicherlich weniger. Zu wenig Saft äußert sich nicht immer durch drastische Probleme (Bildfehler etc.).

Ich hatte selber einmal aufgerüstet (Uralt ATI auf NVDIA 7600GS) und die neue war ebenfalls deutlich langsamer. Allerdings so deutlich langsamer, dass klar war, dass was faul ist. Nach einem halben Jahr (hüstel) musste ich meinen zweiten Brenner ausbauen wg. Problemen, dabei einige defekte Treiber entfernt (vom Brenner!) und plötzlich: AHA! Der Rechner lief wie Sau.

Ich konnte leider nicht herausfinden, was es jetzt war (Treiber oder Netzteil), aber dort würde ich das nächste Mal zuerst suchen.

viele Grüße,

Germerman

Verfasst: Do 13. Mai 2010, 00:06
von Zweck0r
Philipp hat geschrieben:
Zweck0r hat geschrieben:Doom 3 ist für die DX8-Kartengeneration geschrieben und nutzt die DX9-Funktionen nicht, mit denen die Ati den Vorsprung beim 3DMark05 wahrscheinlich erreicht hat.
Beide Karten (die Radeon 2400 und der Intel-Chip) unterstützen DirectX 10. Was genau bedeutet dabei "unterstützen"? Dass die grundsätzliche Fähigkeit vorhanden ist, ein solches Spiel darzustellen (und die Radeon evtl. zusätzliche Funktionen mitbringt), oder dass beide exakt die selben Funktionen mitbringen müssen (und sich die Karten ausschließlich in der Geschwindigkeit unterscheiden)?
Einen bestimmten Funktionsumfang müssen Grafikkarten bieten, um DX10-kompatibel zu sein. Das heißt aber nicht, dass alle Funktionen gleich schnell sind. Es kann 'Ausreißer' geben, wie z.B. das bei der Geforce 6800 extrem langsame HDR-Rendering. Es kann sogar sein, dass einzelne Funktionen einfach per Software im Treiber emuliert werden.

Wenn der Intel von der Substanz her ein älterer, aber schnellerer Chip ist und einige DX9-Funktionen nur per Software-Emulation 'angeflickt' sind, könnte das die Unterschiede erklären. Die Sparausgabe eines aktuellen High-End-Grafikchips reagiert dann genau umgekehrt: sie lässt sich vom aktuellen 3DMark nicht so sehr beeindrucken, schwächelt aber bei reinen 'Fillraten-Fressern'.

Bei OpenGL gilt im Prinzip das gleiche, weil die Funktionen neuer DX-Versionen auch in OpenGL eingebaut werden.

Grüße,

Zweck

Verfasst: Do 13. Mai 2010, 09:55
von Lipix
Moin

versuch doch mal deine Komponenten anders zu takten. Dann erkennst du recht schnell welcher Part sich positiv oder negativ in den Spielen und im direkten Gebrauch auswirkt.
Sowohl Graka als auch CPU.

PS: Dein Speicher ist aber bei beiden Rechner ausreichend vorhanden ? 2+ ?

Verfasst: Fr 14. Mai 2010, 13:19
von Philipp
Germerman hat geschrieben:Hallo,

Mal auf den Stromverbrauch geschaut? Evtl. zuwenig Strom vorhanden? Die Onboard braucht sicherlich weniger. Zu wenig Saft äußert sich nicht immer durch drastische Probleme (Bildfehler etc.).
Glaube ich nicht. Eine Radeon 4670 läuft nämlich an Stelle der 2400 Pro hervorragend. Die verbraucht unter Windows zwar sehr wenig (~6-8 Watt), bei Games hat sie aber einen locker doppelt so hohen Strombedarf wie die 2400. Mit der 4670 sind kann ich sämtliche getesteten Spiele in nativer Auflösung mit maximalen Qualitätseinstellungen (8x AA, 16x AF, ...) zocken.

(Hiermit sollte sich auch erklärt haben, warum ich KEINE Tipps zu neuer Hardware brauche. :wink:)
Lipix hat geschrieben:versuch doch mal deine Komponenten anders zu takten. Dann erkennst du recht schnell welcher Part sich positiv oder negativ in den Spielen und im direkten Gebrauch auswirkt.
Sowohl Graka als auch CPU.
Die CPU hab ich schonmal höher getaktet, die hatte keinen Einfluss. Die GPU kann ich ohne weiteres nicht übertakten, weil die entsprechende Funktion im Catalyst-Treiber für solche Minimalst-Karten wie die Radeon 2400 deaktiviert ist.
PS: Dein Speicher ist aber bei beiden Rechner ausreichend vorhanden ? 2+ ?
Jeweils 4 GB (DDR2). Sollte reichen.
Zweck0r hat geschrieben:Einen bestimmten Funktionsumfang müssen Grafikkarten bieten, um DX10-kompatibel zu sein. Das heißt aber nicht, dass alle Funktionen gleich schnell sind. Es kann 'Ausreißer' geben, wie z.B. das bei der Geforce 6800 extrem langsame HDR-Rendering. Es kann sogar sein, dass einzelne Funktionen einfach per Software im Treiber emuliert werden.

Wenn der Intel von der Substanz her ein älterer, aber schnellerer Chip ist und einige DX9-Funktionen nur per Software-Emulation 'angeflickt' sind, könnte das die Unterschiede erklären. Die Sparausgabe eines aktuellen High-End-Grafikchips reagiert dann genau umgekehrt: sie lässt sich vom aktuellen 3DMark nicht so sehr beeindrucken, schwächelt aber bei reinen 'Fillraten-Fressern'.

Bei OpenGL gilt im Prinzip das gleiche, weil die Funktionen neuer DX-Versionen auch in OpenGL eingebaut werden.
Das ist IMHO die bisher überzeugendste Erklärung, zumindest für mich als Laien.
Zu denken gibt mir allerdings, dass beim Test der mobile-Versionen der beiden Chips die Radeon auch bei Games deutlich vorne lag (siehe Tabelle auf der letzten Seite). Auch wenn das so ohne weiteres nicht auf die Desktop-GPUs übertragbar ist...

Vielleicht ist einfach mit der Radeon 2400 irgendwas nicht in Ordnung? Kann eine GK kaputt sein, ohne dass sich das gleich im Totalausfall äußerst, sondern einfach nur in niedrigerer Performance?

Verfasst: Sa 15. Mai 2010, 01:26
von weaker
Vielleicht überhitzt sie gleich und drosselt sich dann. In 2D merkst Du davon dann nix, aber bei 3D schon. Lass doch mal die Temperatur mitloggen wenn Du sie in 3D forderst.

Verfasst: Sa 15. Mai 2010, 11:48
von Faiko
dann würde sie im benchmark ebenso überhitzen