Vermeer zeigt sich erstmals in Spiele-Benchmark

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Egal, selbst wenn es nur mit Core- u. Uncore-Übertacktung ist .... - ich glaube daran das es passieren kann ✌
 
Warum steht da eigentlich irgendwo...

10900K @ 3,7HGz?

kenn mich nicht so aus 8-) ...oder kann ich irgendwo anders noch den Takt des Benchmarks ablesen?

Und macht es etwas aus, ob da 16GB oder 32GB verbaut wurden? Und wie viel schnell war der RAM bei dem Test jeweils? Schneit ja nicht der gleiche gewesen zu sein? Zumindest ist Menge ja anders?

1601580000010.png
 
Der Takt ist bei Intel in der CPU-ID hinterlegt, das ist mit AVX-512 und maximaler Vcore für die CPU.
Aber nur 3GByte/Sekunde Transfer, PCI-Express 4.0 wird hier eher 5GByte/Sekunde liefern.

8K Fernseher mit 120Hz sind aktuell erhältlich.
.
 
Aber bestimmt war Intel schon am Anschlag und AMD noch längst nicht :fresse2: :rofl:
Ich bin jedenfalls auf die ersten Tests und die Verfügbarkeit gespannt.
 
Cool down brauner.
Stress ist nicht gut für den Blutdruck.
Dennoch danke für die Glückwünsche & dito bezüglich Textverständnis.
@Kalorean hat doch recht. Textverständnis sollte doch sein, 720p. Alle rufen nach 720p, damit man bei den durchschnittlichen Frames einen etwas größeren Balken sieht.
Natürlich war mein Kommentar ein Stöckchen, über welches jemand hupfen wird.
Aber 10% vom 3600XT auf den 9900K sind jetzt doch wohl zu schaffen.
 
Die Diskussion mit 720p hat jedes Forum schon tot diskutiert. Es ist ein Testszenario, um überhaupt noch Differenzen darstellen zu können, damit man nicht im GPU-Bottleneck ist. Niemand mit ner GPU die über IGP-Leistung liegt zockt auf 720p. Bei den 1080p-4k Benches siehst du ja, das die Differenzen von sowas wie 4% auf 1% zusammenschrumpfen und das bei FPS-Werten, die teilweise deutlich über der max. Refreshrate der Bildschirme liegen.

Alles easy. Chillt Leute.
 
720p ist halt die korrekte Auflösung für CPU Benchmarks.
Man will ja sehen was die CPU kann und nicht was die GPU nicht kann.

4k ist die korrekte Auflösung für GPU Benchmarks.
Man will ja sehen was die GPU kann und nicht was die CPU nicht kann.
 
Ich bin da irgendwo geteilter Meinung.
Jeder sollte das Preset nehmen, wo er auch im Alltag mit zockt/seine Anwendungen betreibt.
Mich interessiert nicht, was man unter irgendwelchen gestellten Bedingungen irgendwo und irgendwie testen kann.
 
Ich bin da irgendwo geteilter Meinung.
Jeder sollte das Preset nehmen, wo er auch im Alltag mit zockt/seine Anwendungen betreibt.
Mich interessiert nicht, was man unter irgendwelchen gestellten Bedingungen irgendwo und irgendwie testen kann.

Ist ja auch ok, dass jeder die Einstellungen verwendet, die ihm am meisten zusagen. Das ist aber doch nicht der Punkt.

Es sind ja auch nicht 'irgendwelche irgendwo irgendwie gestellten Bedingungen', sonder solche die eine spezifische Vergleichbarkeit möglich machen.

Wenn man Vergleichbarkeit eruieren will, muss man halt innerhalb der Parameter testen, die eine für diesen Fall relvante Vergleichbarkeit auch gewährleisten können.
 
Für Vergleiche okay, aber für den realen Nutzen nicht.
 
Der reale Nutzen weicht doch gar nicht ab von dieser Vergleichbarkeit?
Wenn CPU A 100% mehr Leistung in 720p zeigt, dann wird sie auch 100% mehr Leistung in 4k und jeder anderen Auflösung haben.
Dass in 4k dann die GPU das Bottleneck ist, ist ja aus dem entsprechenden GPU Benchmark ersichtlich.

Man will in einem CPU Test ja erfahren, wie schnell die CPU ist, nicht wie schnell die 3090 ist, die nu in jedem Testsystem stecken wird.
Dass für 4K Gaming die CPU relativ egal ist, wissen wir seit Jahren. ;-)

Um 4k CPU tests relevant zu machen, müsste man andere Werte angeben.
Statt FPS zu zeigen, könnte man angeben wie viel Auslastung die CPU hat. Eine CPU, die nur 50% ausgelastet ist, hat dann wohl mehr Leistung als eine, die zu 90% ausgelastet ist.
Rein die FPS zu zeigen (für 4k), ist für einen CPU Test aber wohl so ziemlich die nutzloseste Information, direkt nach der Farbe der Verpackung.
 
Aber bestimmt war Intel schon am Anschlag und AMD noch längst nicht :fresse2: :rofl:
Ich bin jedenfalls auf die ersten Tests und die Verfügbarkeit gespannt.

Beitrag #72, #73 und #85 wahrscheinlich nicht gelesen.

edit: Das hier auf den GPU Bench fabuliert wird/wurde hat möglicherweise noch keiner kapiert.
 
Zuletzt bearbeitet:
Hach...erst vor wenigen Monaten einen 9700k günstig geschossen und aktuell eigentlich absolut zufrieden mit meinem Intel System,
aber so ein 5800er reizt mich schon extrem. Vorallem da eine 3080 bestellt ist (und hoffentlich noch 2020 ankommt) hätte ich schon
gerne ein PCI-E 4.0 System, auch für eine PCI-E 4.0 M.2. SSD allá Samsung 980pro.

Andererseits hält sich der nutzen da zurzeit noch in Grenzen und eigentlich wollte ich erst wieder zum DDR 5 Release komplett umrüsten *hmm*

Mal sehen ob es vielleicht sogar noch ein Bios-Update für mein B 450 m-ITX Board gibt und wie die kleineren 5000er CPUs performen
und vorallem wieviel Watt die schlucken werden, dann ersetze ich meinen 2700x vielleicht durch einen 5600er oder 5700er.
 
Ich bekomme da nicht mal ein jucken.
Warum soll ich nun meine uralte Basis aufrüsten?

gpu_limit35jx8.jpg
 
Der reale Nutzen weicht doch gar nicht ab von dieser Vergleichbarkeit?
Das einzige Problem, das bei 720p-Tests unter den Tisch gekehrt wird - der CPU- & GPU-Overhead, der in höheren Auflösungen entsteht. Dieser kann bspw. durch LowLevelAPIs á la DX12 oder Vulcan deutlich minimiert werden - wenn sie gescheit umgesetzt wurden.

Und eine RTX2080Ti oder RTX3090 wird man in 1080p nicht ins Limit schicken können, so lange man keine abartige Bildverbesserungen programmiert.

Die 720p-Tests stammen aus einer Zeit, als GPUs noch reihenweise bei 1080p ins Limit liefen. Aber mittlerweile gibt es 4K-Karten...
 
Wieso steigt der Overhead, wenn sich die Renderauflösung erhöht?
 
Seit der 3080 sind eben die derzeitigen CPUs am Limit. Ich wäre nicht verwundert, wenn mit Vermeer und RKL-S ivm einer 3080/3090 mehr FPS/niedrigere Frametimes in 1080p/1440p möglich sind als jetzt mit CML-S und Matisse.
 
Das sieht wirklich overhelming aus für zen3. 8-)
Da wird man wohl ne Weile die Führung auf ganzer Linie packen können, bin echt gespannt....
 
ja, ist relativ bis 11900K
 
Und dann kam Polly äh zen4 :d
 
Sind die maximal acht Kernchen halt wieder bissi schneller, wow!

Bleibt trotzdem ne reine Brechstangen-Gaming-CPU, die in allen anderen Belangen mit einer sehr hohen Wahrscheinlichkeit nicht viel mehr als die Rücklichter von Zen3 sehen wird.
 
Natürlich hast du damit recht :)
 
1usmus hat das den ryzen clock tuner übrigens auch schon für Zen 3 angekündigt. :bigok:

Der cpu-z screenshot müsste von einem der Boardpartner stammen, die die Prozessoren seit einiger Zeit auf den Motherboards testen.
Das Muster sollte somit nahezu final sein - was man somit auch im Handel in den Händen halten wird.
 
Vermeer muss sich mit RKL-S messen.

Erstens wäre die umgekehrte Formulierung angebracht. Das zukünftige Produkt darf sich am dann amtierenden Platzhirsch messen. Igors Prognose sieht diesbezüglich nicht sonderlich optimistisch aus.

Und zweitens werden wir demnächst sehen, ob es was wird mit Release zur CES bzw. Q1/2021. Je länger sich das nach hinten verschiebt, desto unsäglicher wird die Situation mit quasi zwei Sockeln parallel im Mainstream, wenn Alder Lake-S früh im zweiten Halbjahr 2021 (tomshardware) aufschlagen sollte, um den Markt vor Zen4 abzugrasen.
 
@Kalorean
Ich denke, dass vor April 2021 Rocket nicht kommen wird. Erst ab März 2022 wird eine neue Plattform mit DDR5 von Intel kommen und AMD wird auch zu dieser Zeit mit Zen 4 kommen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh