HWL News Bot
News
Thread Starter
- Mitglied seit
- 06.03.2017
- Beiträge
- 114.149
... weiterlesen
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Bei den Verbrauchsmessungen ist alles auf "Auto" gestellt, der RAM läuft mit XMP-Profil. In Windows sind alle störenden Hintergrundaktiviäten (Update etc.) deaktiviert.Ich muss mal direkt fragen:
Habt ihr bei euren Tests eigentlichim Bios alles bei CPU und RAM auf Standard belassen, oder dort etwas verändert? (XMP aktiv z.B.)
Ich komme nicht ansatzweise auf diese niedrigen Verbrauchswerte (mit einer GPU, XMP aktiv und alles auf "Auto" im Bios)
Das bezweifle ich ernsthaft, bei Einzelkerntests sind die Ergebnisschwankungen extrem gering, ein Punkt unterschied mag auftreten aber nicht so viele, beide Generationen sind ident, mit der gleichen Architektur, Fertigung und IPC.Messschwankungen vielleicht, oder kann es sein dass die 9xxx ganz leichte Architekturelle verbesserungen erhalten haben?
Jetzt steht diesem Thema nur eins im Wege... es wird auf niedrig und 1080p getestet. Hab ich zu spät gesehen. Somit sind diese Infos für mich absolut nutzlos und sinnfrei, wünschte ich hätte damit nicht meine Zeit verschwendet...........
Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?
Wofür wäre das interessant für den Leser?
Einfach um zu sehen ob ein CPU Wechsel was taugt oder nicht.
Oder eben wie in dem Fall... ob der """gaming mode""" also 8 Kerne only überhaupt etwas taugt gegenüber den """full cores mode""" also 16 Kerne.
Das ist mir doch sch*** egal ob der 1950X in 1080p @ low mit 8 Kernen schneller läuft als in der Praxis 1440p @ high kein Unterschied zu erkennen ist?!!?
Warum sollte ich mir den gaming mode reinknallen (extra dafür den PC rebooten), damit ich in der Praxis keine große Veränderung habe? Oder eben doch? Es gibt hierzu eben keine benchmarks. Später nach dem gaming wieder neu booten zurück auf 16 Kerne. Jau, das macht Freude!
Aber ist ja immer das gleiche geblubber. Es gibt (für) immer die zwei Lager. Ein Lager will syntetische Benchmarks sehen, am besten benchmarks in denen das eigene auserkorene/auserwählte Produkt maximal gut da steht, das andere Lager will die Praxis sehen und praxisgerecht vergleichen können.
Wenn ich mich zB zwischen einer Workstation CPU und einer ""gaming CPU"" entscheiden müsste, dann wollte ich zumindest wissen, mit welchen Leistungsunterschied ich mich in der Praxis konfrontiert sehen würde.
Ein GPU Bottleneck geht sehr weit. So weit wie die GTX1080ti, oder RTX2080 oder gar RTX2080ti langt... die erst mal haben.
Was Du forderst ist absichtliche Verfälschung der Testdaten. Ein CPU Test sollte die CPU testen und nicht die GPU. Genauso wie ein Auto Test nicht die Straße testen sollte, oder das Fahrad das benutzt wurde um zum Auto zu kommen.
Luxx wird ja bei GPU tests schon genug hinterfragt, weil ein CPU bottleneck nicht aus dem Testsetup entfernt wird.
Und Du würdest jetzt in einem CPU Test auch ein künstliches GPU Bottleneck einbauen wollen?
Wofür wäre das interessant für den Leser?
Und wieso nicht?
Wenn eine CPU bei 720p/low Auflösung 300 fps schafft, dann schafft sie das auch bei 1080p, 1440p und 4k/ultra.
Naja, theoretisch würde sie es schaffen, aber praktisch ist es halt blödsinn, weil da jede GPU limitiert.Wer hat dir denn den Schwachsinn eingetrichtert?
Danke für den Test.
Aber wieso diese Aussage:"NUMA ist somit überflüssig"?
Das ist falsch. Die kleinen Threadripper haben 2 NUMA nodes, die Großen 4. Auf meinem früheren 1950er lief Schach mit NUMA besser als ohne.
Ist doch egal, mit den 7nm Chips sind die NUMA-Nodes beim MCM doch eh Geschichte