RX 5700 schneller als RTX 2070: AMD gibt Vorschau auf Navi

 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dazu hätte ich gern mal nen Link, wo ich sehen kann, das der I7 9900K durch die Fixes in Spielen auf das Niveau des AMD Prozessors eingebremst wird. Bitte nichts im GPU Limit.

Ist leider nix, was man schnell erklären kann - aber ich versuche es Mal:

Hier mal auf die Schnelle ein Windows-Benchmark von Spielen:
https://www.techspot.com/review/1659-intel-spectre-variant-4-performance-test/

Da sehen wir sowas wie ~3% Performance hit. In der Zusammenfassung siehst du auch, warum es "nur" 3% sind: Der Windows Scheduler ist ineffizienter, als der von Linux. Also gucken wir uns mal die Benchmarks auf Linux an:

https://www.phoronix.com/scan.php?page=article&item=linux50-spectre-meltdown&num=1

Hier sind, zusammenfassend über *alle* Fixes die relativen Unterschiede zwischen AMD und Intel aufgeführt und bei Intel haben wir ~13% Verlust im Durchschnitt, bei AMD nur 3%. Und warum erkläre ich das so durch die Brust ins Auge und zeige nicht einfach 2 gleiche Benches mit nem 9900k und nem 2700X?

Weil man dann bei Intel HT komplett deaktivieren müsste als effektiven Schutz (das ist da noch nicht vollständig mitigiert) siehe: https://www.techspot.com/article/1850-how-screwed-is-intel-no-hyper-threading/

(Sie behaupten den 9900k nicht messen zu brauchen, weil 8 Kerne ohne HT für Gaming trotzdem ausreichen - was ich an dieser Stelle mal stark anzweifle, da Spiele gerade in 2019 ordentlich angefangen haben weitere Threads zu nutzen. Aber das ist abseits vom Punkt...)

Wir sehen in dem oberen Benchmark den Einfluss von deaktiviertem HT - was auch den 9900k treffen würde.

Wir haben also:
- Intel verliert 10% "IPC" im Vergleich zu AMD
- Das wird etwas durch den ineffizienten Windows Scheduler aufgefangen, unter Linux wäre der Effekt gravierender (also nativ)
- HT müsste bei Intel deaktiviert werden
- Das relevante "Gaming System" für dieses Forum wäre übertaktet (so wie Gamers Nexus es misst)

Das müssten wir jetzt benchen. Native Vulkan-Spiele mit ner 2080Ti auf Linux, wo wir mit zwei übertakteten Systemen die beiden CPUs miteinander vergleichen.

So einen Benchmark gibt es nicht. Es gibt sie nur unter Windows und da auch nur mit aktiviertem HT bei Intel.

Gut, jetzt kann man sagen: "Hey, ist mir egal - ich zocke unter Windows also ist es das Einzige, was mich interessiert!"

Richtig, aber du vergleichst ja auch nicht zwei Sportwagen miteinander, die beide mit angezogener Handbremse fahren. Beide fahren unter den selben Bedingungen, macht aber trotzdem keinen Sinn.

Tut mir leid, wenn ich dir da keinen Benchmark zu geben kann - ich hab aber keinen gefunden, der analytisch korrekt vergleicht, also kann ich dir nur Relativpunkte vor die Füße werfen. :-/
 
Zuletzt bearbeitet:
Laut Igor ist es also auch keine komplett neue µArch, ich wurde für diese Behauptung im Forum zielmlich angegriffen/beschimpft.

zu dem Hype kann ich nichts beitragen, Fakt ist Intel beste CPU auf dem Markt. Nvidia beste GPU auf dem Markt.
Mehr als dumm herumtrollen kannst du nicht?

WAs Fakt ist wird sich zeigen, bei intel liegst du aber nachweislich falsch, weil sich gezeigt hat, daß es diese komische Schublade von der Leute wie du immer erzählt haben nicht gibt;I)
 
Wenn du nicht meiner Argumentation folgen kannst, ist das nicht mein Problem.

Keine Sorge, aber ich kann deiner Argumentation schon folgen. Zusätzlich kann ich aber auch erkennen, wenn jemand direkten Fragen ausweicht.


Jupp, die Vega 64 kannste nicht wirklich für 4k benutzen, außer du stellst die Details runter damit der Speicher entlastet wird. Die VII kannste für 4K benutzen, da die Karte beim Durchsatz nicht mehr limitiert. Und bei 4k reichen 8GB halt nimmer aus. Was ist daran so schwer zu verstehen?

Nur sehe ich nichts davon, dass die V64 bei 4k nicht mehr nutzbar ist, da ihr der Speicher ausgeht: AMD Radeon VII im Test (Seite 3) - ComputerBase
Bei 1440p und 4k trennen die V64 und VII gute 25%. Welche vermutlich durch die höhere Bandbreite zustande kommen, was du ja auch beschrieben hast. Laut deiner Behauptung müsste dieser Unterschied bei 4k aber größer ausfallen, da der V64 der Speicher ausgeht. Auch bei den 99th Percentile bleibt der Abstand gleich und es gibt keine Ausreißer bei der V64, was ja in dem Fall passieren müsste, wenn dieser der Speicher ausgeht.


Wenn die Vega 64 ebenfalls 4 HMB-Stacks mit jeweils 2GB anstatt 2 mit heweils 4GB hätte, könnte sie leistungstechnisch bei 4k mithalten. Leider würde ihr da aber dann der Speicher ausgehen. Und wenns du es jetzt noch nicht verstanden hast, tuts mir echt leid für dich.

Ich habe schon verstanden, was du mir sagen willst. Ich habe es auch weiter oben schon so einmal geschrieben, wie du es hier jetzt auch tust, nur halt anstatt beispielhaft anhand der V64 eben mit der VII. Nur würde dann ja die Speichermenge im eigentlichen Sinne egal sein und nur aufgrund der 4GB Stacks bestimmt werden. Dies hast du natürlich auch bemerkt und dann einfach noch folgenden Part hinzugefügt -> "Leider würde ihr da aber dann der Speicher ausgehen". Nur wie oben schon aufgezeigt, sehe ich nicht, dass der Speicher ausgeht..


Was Intel und "beste" CPU angeht kann ich da aber nur müde drüber lächeln. Mit allen Exploit-Fixes, sind Intel und AMD gleich auf. Man kann sich das natürlich schön träumen und behaupten "Gamer" benötigen keine Server-Sicherheitsfixes. Genauso wie RAM keinen Rowhammer-Schutz benötigt, gelle? Und wenn dann mal die erste effektive Malware durchs Netzt rauscht, ist das Geheule wie beim Sasser-Wurm wieder groß.

Dann zeig uns doch einfach die Benches, wo Intel mit AMD gleichzieht, und dies auch in für dem Heimanwender interessanten Szenarien. Also nicht die typischen Benches von Phoronix mit Software, welche von den Mitigations stärker betroffen ist und der typische Heimanwender nicht wirklich nutzt.


Hier mal auf die Schnelle ein Windows-Benchmark von Spielen:
https://www.techspot.com/review/1659-intel-spectre-variant-4-performance-test/

Da sehen wir sowas wie ~3% Performance hit.

Also fällt man nicht auf das Niveau einer AMD CPU zurück?


Hier sind, zusammenfassend über *alle* Fixes die relativen Unterschiede zwischen AMD und Intel aufgeführt und bei Intel haben wir ~13% Verlust im Durchschnitt, bei AMD nur 3%.

Siehe oben. Die wenigsten Heimanwender nutzen die Software nicht wirklich, daher haben diese auch kaum Relevanz für diese..


Weil man dann bei Intel HT komplett deaktivieren müsste als effektiven Schutz

Quark!
Wenn überhaupt müsste HTT nur bei sicherheitskritischen Tasks deaktiviert werden und kann bei allen anderen aktiviert bleiben. Solche Aussagen sind nichts weiter als unnötige Panik mache. :rolleyes:


Hier geht es um Navi und nicht CPUs, denn dafür gibt es entsprechende Threads, daher :btt2:
 
Mit allen Exploit-Fixes, sind Intel und AMD gleich auf. Man kann sich das natürlich schön träumen und behaupten "Gamer" benötigen keine Server-Sicherheitsfixes. Genauso wie RAM keinen Rowhammer-Schutz benötigt, gelle? Und wenn dann mal die erste effektive Malware durchs Netzt rauscht, ist das Geheule wie beim Sasser-Wurm wieder groß.

Das war doch deine Aussage in der du auch die "Gamer" explizit mit einbezogen hast? Jetzt kannst du aber nichts vorweisen, das deine Aussage untermauert und flüchtest dich zu Linux? Für Gamer? Ist wohl eher eine Minderheit......Du versuchst wohl eher, hier irgendwas krampfhaft zu konstruieren...
 
Zuletzt bearbeitet:
Keine Sorge, aber ich kann deiner Argumentation schon folgen. Zusätzlich kann ich aber auch erkennen, wenn jemand direkten Fragen ausweicht.
Das ist dein persönlicher Eindruck. Da kann ich dir nicht helfen. Aber mal der Reihe nach:





Bei 1440p und 4k trennen die V64 und VII gute 25%. Welche vermutlich durch die höhere Bandbreite zustande kommen, was du ja auch beschrieben hast.
Richtig. Und wenn du dir die 99% Perzentile anschaust, sind es sogar noch mehr - bis zu 42%. Das zeigt, dass die VII einen deutlich besser aufgeschraubten Flaschenhals hat als die V64. Was glaubst du, wo dieser Flaschenhals jetzt liegt? An den Shadern, an der Speichermenge, an der Stromversorgung, an der Bandbreite, an der Architektur, an der Kühllösung... Was davon wirds wohl sein?

Nun, dann gucken wir uns die Ergebnisse bei 1080p und und stellen fest: Boah, die V64 und die VII liegen da ja fast gleichauf. Komisch, woran das wohl liegen könnte. Beide sind bei 1080p nicht im Speicherlimit, sowohl was Bandbreite als auch Größe angeht. Wenn wir jetzt aber die Auiflösung erhöhen, zieht die VII davon...

Laut deiner Behauptung müsste dieser Unterschied bei 4k aber größer ausfallen, da der V64 der Speicher ausgeht. Auch bei den 99th Percentile bleibt der Abstand gleich und es gibt keine Ausreißer bei der V64, was ja in dem Fall passieren müsste, wenn dieser der Speicher ausgeht.
Ja, dann klick mal auf die 1080p Benches und vergleiche diese mit 2k und 4k. Steht doch alles da! Nimm Assassins Creed:
Bei 1440p ist die 99% Perzentile bei sowas wie 72% schneller bei der VII als bei der V64. 72%! Jetzt vergleich das mit 1080p. Das sagt dir nix über die Bandbreitenlimitierung der V64? Dieses Bild zieht sich durch alles Benches - mal mehr mal weniger, aber es ist konsistent! In beiden Fällen bist du locker unter 8GB VRAM-Bedarf.

Das ist praktisch der Beweis, dass es an der Bandbreite liegt.



Ich habe schon verstanden, was du mir sagen willst. Ich habe es auch weiter oben schon so einmal geschrieben, wie du es hier jetzt auch tust, nur halt anstatt beispielhaft anhand der V64 eben mit der VII. Nur würde dann ja die Speichermenge im eigentlichen Sinne egal sein und nur aufgrund der 4GB Stacks bestimmt werden.
Ja, endlich du hast es fast! Völlig richtig! Nur noch einen Schritt weiter:


Dies hast du natürlich auch bemerkt und dann einfach noch folgenden Part hinzugefügt -> "Leider würde ihr da aber dann der Speicher ausgehen". Nur wie oben schon aufgezeigt, sehe ich nicht, dass der Speicher ausgeht..
Wenn die Vega64 nicht mehr Bandbreitenlimitiert wäre, könnte sie auf einmal wunderbar mit auf 4k mitspielen - die Rohleistung hat sie ja. Sie hat sogar 4 Shader-Cluster mehr als die VII, nur mit etwas geringerem Takt. Das gleicht sich *fast* aus. Das heißt, der gesamte Performance-Sprung der VII kommt nur aus der Anzahl der Speicherstacks, die jetzt viel breiter angebunden sind und deswegen kein Flaschenhals mehr da ist.

Und was machst du mit so viel ungebremster Rohleistung? Du kannst 4k drauf zocken! Reichen 8GB bei 4k? Hier mal schnell ein Beispiel aus der Grabbelkiste von 2015:
https://imagescdn.tweaktown.com/tweakipedia/9/0/90_441_much-vram-need-1080p-1440p-4k-aa-enabled.png

Ein etwas neueres Beispiel:
https://tpucdn.com/reviews/Performance_Analysis/Final_Fantasy_15/images/vram.png
(Obs hier schon swappt oder kurz vor Brechgrenze ist, kann man an diesen beiden Bildern vergleichen:)

https://tpucdn.com/reviews/Performance_Analysis/Final_Fantasy_15/images/2160.png
https://tpucdn.com/reviews/Performance_Analysis/Final_Fantasy_15/images/2160_4ktex.png

Karten mit 8+ GB haben die gleiche FPS, mit 8 und drunter verlieren die schon 1-2 Frames - hier swappen wir also schon (auch wenn nur leicht)


Dann zeig uns doch einfach die Benches, wo Intel mit AMD gleichzieht, und dies auch in für dem Heimanwender interessanten Szenarien. Also nicht die typischen Benches von Phoronix mit Software, welche von den Mitigations stärker betroffen ist und der typische Heimanwender nicht wirklich nutzt.
Der typische Heimanwender hat nen I3. Es ging um den 9900k für Enthusiasten. Aber ich verstehe deine Kritik - du möchtest es auf "Alltagsrelevanten" Szenarien sehen, da wir es ja auch im "Alltag" nutzen. Der "Alltag" sieht aber nun mal so aus, dass dort die Handbremse dauernd mitzieht - weil es so komfortabler für die Masse ist. Ergo: Nö, es gibt keine vergleichbaren Benches.

Also fällt man nicht auf das Niveau einer AMD CPU zurück?
Wenn du den Rest ignorierst, nö. Dann bleibt alles wie gehabt.

Siehe oben. Die wenigsten Heimanwender nutzen die Software nicht wirklich, daher haben diese auch kaum Relevanz für diese..
Irrelevant. Die Fixes müssen für einen vergleichbaren Benchmark auf beiden CPUs angewendet werden unter minimalem Einfluss des Testsystems selbst. Ansonsten hab ich einen systematischen Fehler im Vergleich. Du argumentierst hier, dass wir den drin lassen, weil das ja "Alltag" ist. Das macht es aber nicht richtig. Es gibt viele Dinge, die wir im Alltag machen, die aber total schwachsinnig sind.

Wenn überhaupt müsste HTT nur bei sicherheitskritischen Tasks deaktiviert werden
Ich erinnere mich da an die Sasser-Wurm Zeiten. Oh wie die Leute geheult haben.

unnötige Panik mache.
Ich nenne es *in Kiste grabbel* spätrömische Dekadenz! :d

Hier geht es um Navi und nicht CPUs, denn dafür gibt es entsprechende Threads, daher :btt2:
Dem stimme ich mal zu. Machen wir mit Navi weiter...
 
Das war doch deine Aussage in der du auch die "Gamer" explizit mit einbezogen hast? Jetzt kannst du aber nichts vorweisen, das deine Aussage untermauert und flüchtest dich zu Linux? Für Gamer? Ist wohl eher eine Minderheit......Du versuchst wohl eher, hier irgendwas krampfhaft zu konstruieren...

Es gibt auch nichts zum vorweisen. Es wird auf irgendwelche Tests verwiesen, die kaum ein Mensch nutzt. Mal selber einen Beweis antreten.......da kommt nichts.
Das selbe mit der Vega64 auf GTX 1080Ti Niveau.
 
Wüsste ehrlich gesagt auch nicht wie man eine Vega 64 (hab ja selbst eine) auf konstantes "knapp vor 1080 TI" Niveau bewegen soll.
Da müsste man schon jehnseits der 1600 MHz GPU / 1100 HBM agieren wie ich schätze.
Unter Wasser durchaus möglich, teils sogar etwas mehr mit guten Chip, aber sicher nicht als Allround Aussage.

Hab ja das kleine Upgrade gemacht aus diversen Gründen von einer 1070 auf die Vega 64, rein auf die Spiele Leistung bezogen lohnt sich das in neueren Spielen auf jeden Fall.
Aber zur 1080 TI fehlt über den Daumen da doch noch ein gutes Stück. Ja gibt 2-3 Cherry Benches wo das fast gelingt aber eben nicht "Allround".

In aktuellen Titeln ist es doch eher so das sie - im durchschnitt, also ausreißer nach unten/oben mal außen vorgelassen - mit ~1500 MHz / 1050 HBM takt etwas über 1080 niveau hängt oder zwischen 2060 / 2070, wie man es halt drehen möchte.

Vll meint er das mit kurz vor 1080 TI Leistung weil da nichts mehr zwischen liegt? :fresse: keine Ahnung.

Hatte die letzten Tage auch mal überlegt auf die VII oder 1080 TI zu upgraden, aber da sind mir die Sprünge für den Preis den ich aktuell bezahlen müsste, abzüglich dem was ich für meine noch bekomme, schlicht zu gering. Für mich wirds also erst wieder interessant wenn es a) günstiger ist oder b) da mehr Leistung bei rum kommt als bei VII oder 1080 TI/2080.

Insgesamt bin ich mit meiner 64er sehr zufrieden.
Getweakt hätte ich sowieso, egal ob nV oder AMD, von daher...
Out of the Box - ohne getweake - ist nV aber nun mal das aktuell rundere und effizientere Paket, zahlt man halt auch mehr für.
Bei AMD muss man halt erst basteln. Oder dirket das Stromspar Profil im Wattman wählen was die Karte auf 180w Asic begrenzt (Was bei der Strix in ~1400 / 945 mündet)

Mit meinen Settings (~1500 GPU / 1000 HBM) liege ich beim Verbrauch im durchschnitt ohne FPS Cap, also volles Rohr zwischen 160-170w ASIC und in der Spitze bei 200w.
Das lässt sich auch noch leise weg kühlen. (Stock Strix Lüfter bei 1500rpm bei max 80°C. Jetzt mit Ghetto Mod nur 1000 RPM, bei jeweils max 75 °C auch jetzt an den warmen Tagen)

Edit:
Hier mal drüber gestolpert.
Eine knapp 1600 MHz 64er gegen eine rund 1900 MHz 2070 mit relativ ausgeglichenen Parcour mit einigen AMD Showcases wie aber auch nV Showcases und gesunden "allroundern".

RTX 2070 vs VEGA 64 Test in 8 Games - YouTube

Hier mal meine aktuellen 3DMark Scores:

FS:
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i7-8086K Processor,Micro-Star International Co., Ltd. Z370 GAMING PRO CARBON AC (MS-7B45)

FS Extreme:
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i7-8086K Processor,Micro-Star International Co., Ltd. Z370 GAMING PRO CARBON AC (MS-7B45)

FS Ultra:
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i7-8086K Processor,Micro-Star International Co., Ltd. Z370 GAMING PRO CARBON AC (MS-7B45)

Timespy:
AMD Radeon RX Vega 64 video card benchmark result - Intel Core i7-8086K Processor,Micro-Star International Co., Ltd. Z370 GAMING PRO CARBON AC (MS-7B45)
 
Zuletzt bearbeitet von einem Moderator:
@Robbe
So ist das halt mit Analytik. Ich halte ja auch nicht einfach mein Daumen in den Wind und schätze die Temperatur - ich nutze ein Thermometer dafür. So müsste es auch mit entsprechenden Benches zur realen Leistung der CPUs sein. Ich eliminiere alle äußeren Einflussfaktoren um einen neutralen Vergleich zu ermöglichen.

Das Betriebsystem ist so ein Einflussfaktor. Das Spiel ist ein Einflussfaktor. Die API ist ein Einflussfaktor. Alles ist ein Einflussfaktor. Und jetzt? Jetzt bleibt uns nur übrig, all die Sachen rauszupicken, die den geringsten Fehler vom "Optimalfall" aufweisen. Und das habe ich oben beschrieben.

@DaHell63 Ich zitiere mich mal selbst:

Meine Vega konnte ich auch kurz vor 1080Ti hintweaken
Zum Anfang - als die Vega rauskam - hab ich hier im Forum meine Scores gepostet:
Hier kannst du unter anderem meinen, aber auch den Score von anderen durchlesen. Ich hab seit der ersten Woche keinen Bench mehr hochgeladen, aber mit den neuen Treibern wäre es wohl mal wieder Zeit das zu aktualisieren.

Ist ja nicht so, dass ich es nicht schon vor anderhalb Jahren hochgeladen habe.

edit: Einer der user hat sogar 26k im Grafikscore überschritten. *3d mark anwerf*
 
Zuletzt bearbeitet:
Ähm... wir vergleichen hier schon Äpfel mit Äpfel, ja?

Wir gucken hier also auf den Graphic-Score und nicht combined. Meine altersschwache Intel CPU stänke da nämlich ziemlich gegen einen 9900k ab - aber wir wollen die Grafikkarten vergleichen.

Die Ergebnisse von dir schwanken von 5.900 bis 25.100 Punkte - irgendwas ist da kaputt. Ne 1080 sollte irgendwo im 20k+ Bereich landen. (keine Ahnung wo genau, ich hab keine)

Hier mal mein aktuelles Resultat mit heutigen Treibern:
https://www.3dmark.com/3dm/36696319

Das ne übertaktete 1080 die natürlich wieder einholen sollte ist zu erwarten. Mein Vergleich war auf stock bezogen. Und ja - ne übertaktete Vega gegen Stock zu vergleichen hinkt. Nur: Ungetweakt hat die Vega grad mal 21.000 Punkte geschafft. Getweakt sinds jetzt 25.500. (Das sind mal eben 20% mehr)

Ich habe keine 1080Ti hier - aber wenn ich die 20% mit den Stock-Werten vergleiche und mir die Balken bei Computerbase angucke, ist ne 1080Ti ~28% schneller als ne "Stock" Vega. Ich denke, da kommen meine Ergebnisse ran.

Wie jetzt jeder "kurz vor" definiert ist wieder was anderes. Wenn ich näher an der 1080Ti als an der 1080 bin, bezeichne ich das aber als "kurz vor". Gleichauf schafft die nicht, weil der Speicher nur bis 1070 geht. Würde der 1150 können und mein Chip mal höher als 1570 MHz takten würde (sagen wir 1700 wie andere es berichten), wäre ich wahrscheinlich in Schlagdistanz zur 1080Ti. Aber meine Vega ist halt nur Durchschnitt (sogar eher unterdurchschnittlich, weil sie ja noch nichtmal den Stock-Takt von 1630 erreicht)

Dafür ist der Score ziemlich gut. ;)

(PS: Zur Klärung: Ich stelle zwar 1630 MHz ein, es kommen aber nur ~1550 raus. Ich gucke mir da Superposition an, wie hoch die GPU dort taktet - und dort überschreitet sie die 1550 nicht.)
 
Zuletzt bearbeitet:
Zum Thema alterschwache CPU.
hätte ich auch noch interessante Vergleiche mit 1070 TI und 1080 wie auch diverses andere.... (ja bei mir gehen viele Karten durch, meist bevor sie in anderen Kisten im Bekanntenkreis verschwinden :d )

Übrigens mal ein kleiner vergleich:
Die 10XXer jeweils bis auf wenige MHz Taktgleich.

meine damalige 980 TI:

FireStrike:
NVIDIA GeForce GTX 980 Ti video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

FireStrik Extreme:
NVIDIA GeForce GTX 980 Ti video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

FireStrike Ultra:
NVIDIA GeForce GTX 980 Ti video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

Meine 1070:

FireStrike:
NVIDIA GeForce GTX 1070 video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

FireStrike Extreme:
NVIDIA GeForce GTX 1070 video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

FireStrike Ultra:
NVIDIA GeForce GTX 1070 video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

Und die jetzige 1070 TI:

FireStrike:
NVIDIA GeForce GTX 1070 Ti video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

FireStrike Extreme:
NVIDIA GeForce GTX 1070 Ti video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

FireStrike Ultra:
NVIDIA GeForce GTX 1070 Ti video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

Meine 1080:

FireStrike:
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

Firestrike Extreme:
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H

FireStrike Ultra:
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i7-2600K Processor,Gigabyte Technology Co., Ltd. Z77X-UD5H


Und als Gag nebenbei, aus Sys 2 der FX mit einer zwischenzeitlichen GTX 970:

FireStrike:
NVIDIA GeForce GTX 970 video card benchmark result - AMD FX-8350,ASUSTeK COMPUTER INC. SABERTOOTH 990FX R2.0

Sys 2 der FX mit der jetzigen GTX 780 TI:

FireStrike:
NVIDIA GeForce GTX 780 Ti video card benchmark result - AMD FX-8350,ASUSTeK COMPUTER INC. SABERTOOTH 990FX R2.0

FireStrike Extreme:
NVIDIA GeForce GTX 780 Ti video card benchmark result - AMD FX-8350,ASUSTeK COMPUTER INC. SABERTOOTH 990FX R2.0

FireStrike Ultra:
NVIDIA GeForce GTX 780 Ti video card benchmark result - AMD FX-8350,ASUSTeK COMPUTER INC. SABERTOOTH 990FX R2.0

[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ - Seite 495

RX 580 und diverse andere gebe es auch noch im Angebot :fresse:
 
Zuletzt bearbeitet von einem Moderator:
Nun, dann gucken wir uns die Ergebnisse bei 1080p und und stellen fest: Boah, die V64 und die VII liegen da ja fast gleichauf. Komisch, woran das wohl liegen könnte.

Die VII rennt ins CPU-Limit, steht so im Artikel..


Ja, dann klick mal auf die 1080p Benches und vergleiche diese mit 2k und 4k. Steht doch alles da! Nimm Assassins Creed:
Bei 1440p ist die 99% Perzentile bei sowas wie 72% schneller bei der VII als bei der V64. 72%! Jetzt vergleich das mit 1080p. Das sagt dir nix über die Bandbreitenlimitierung der V64? Dieses Bild zieht sich durch alles Benches - mal mehr mal weniger, aber es ist konsistent! In beiden Fällen bist du locker unter 8GB VRAM-Bedarf.

Das ist praktisch der Beweis, dass es an der Bandbreite liegt.

Eins muss man dir lassen, du bist ein echt guter Cherrypicker! :fresse:
Diese 72% scheinen wohl irgendwie ein Messfehler zu sein, da dies nur bei AC Origins in 1440p auftritt, aber weder bei 1080p noch bei 2160p..

Ich weiß ja nicht, warum du dich ständig mit der Bandbreite wiederholst, aber dagegen sage ich doch gar nichts?!
Ich weiß, dass die VII davon profitiert und es oft genug hieß, dass die V64 dadurch limitiert wird und Speicher OC etwas helfen soll.


Und was machst du mit so viel ungebremster Rohleistung? Du kannst 4k drauf zocken! Reichen 8GB bei 4k? Hier mal schnell ein Beispiel aus der Grabbelkiste von 2015:
https://imagescdn.tweaktown.com/tweakipedia/9/0/90_441_much-vram-need-1080p-1440p-4k-aa-enabled.png

Ich sehe da einen VRAM-Verbrauch von ~5,4GB @4k, also sollte sogar schon eine Karte mit 6GB an VRAM ausreichend sein, wenn diese die benötigte Rohleistung liefert.


Ein etwas neueres Beispiel:
https://tpucdn.com/reviews/Performance_Analysis/Final_Fantasy_15/images/vram.png
(Obs hier schon swappt oder kurz vor Brechgrenze ist, kann man an diesen beiden Bildern vergleichen:)

https://tpucdn.com/reviews/Performance_Analysis/Final_Fantasy_15/images/2160.png
https://tpucdn.com/reviews/Performance_Analysis/Final_Fantasy_15/images/2160_4ktex.png

Karten mit 8+ GB haben die gleiche FPS, mit 8 und drunter verlieren die schon 1-2 Frames - hier swappen wir also schon (auch wenn nur leicht)

Immer wenn Leute nur einzelne Bildchen aus einem Test verlinken, frage ich mich, warum verlinkt man denn nicht direkt alles? Was hat man zu verheimlichen?
Könnte es daran liegen, dass dir dieser Part nicht so ganz schmeckt und nicht zu deinem Geschwätz passt: "Our results show that FF XV will use a ton of VRAM in all tested scenarios, but this seems to be a performance optimization ("cram as much stuff into VRAM as possible") and not the game really requiring that much VRAM. If you look at the performance results below, cards with 4 GB or even 3 GB are doing reasonably well. Only at 4K with the texture pack enabled is there a clear penalty for cards with smaller VRAM amounts."


Der "Alltag" sieht aber nun mal so aus, dass dort die Handbremse dauernd mitzieht - weil es so komfortabler für die Masse ist. Ergo: Nö, es gibt keine vergleichbaren Benches.

Nur das diese Handbremse auf viele Anwendungen so gut wie keinen, bis keinen Einfluss hat, da diese kaum zwischen User und Kernel wechseln.


Ich erinnere mich da an die Sasser-Wurm Zeiten. Oh wie die Leute geheult haben.

Warum wirst du jetzt völlig sinnlos einen andere Begriff ein?
Kann es sein, dass du überhaupt keine Ahnung hast?


Langsam wird es echt nervig. Können wir mit dem Quatsch jetzt endlich aufhören?
Jeder sieht doch, dass du nur ein Schwätzer bist. Auf diesen Schwachsinn mit "V64 kurz vor 1080ti" geh ich gar nicht erst ein. Erzähl ruhig weiter deine Märchen. Glaubt dir eh keiner :rolleyes:
 
Wie jetzt jeder "kurz vor" definiert ist wieder was anderes. Wenn ich näher an der 1080Ti als an der 1080 bin, bezeichne ich das aber als "kurz vor". Gleichauf schafft die nicht, weil der Speicher nur bis 1070 geht. Würde der 1150 können und mein Chip mal höher als 1570 MHz takten würde (sagen wir 1700 wie andere es berichten), wäre ich wahrscheinlich in Schlagdistanz zur 1080Ti. Aber meine Vega ist halt nur Durchschnitt (sogar eher unterdurchschnittlich, weil sie ja noch nichtmal den Stock-Takt von 1630 erreicht)

Dafür ist der Score ziemlich gut. ;)

(PS: Zur Klärung: Ich stelle zwar 1630 MHz ein, es kommen aber nur ~1550 raus. Ich gucke mir da Superposition an, wie hoch die GPU dort taktet - und dort überschreitet sie die 1550 nicht.)

Das sagte ich doch auch, jehnseits der 1600 GPU / 1100 HBM könnte das dann auch passen.
Aber eben nicht darunter.

Deine Karte ist auch nicht unterdurchschnittlich.
Eine Stock Vega 64 die über 1600 macht wirst kaum finden, von der LC mal abgesehen.
Superposition ist quasi der Worstcase den du an Verbrauch fabrizieren kannst (Neben Witcher 3) mit der Karte. Da fällt der Takt also auch am niedrigsten aus.
Umso besser die Shader ausgelastet werden -> umso höher der Verbrauch -> umso niedriger der Takt.
Daher fluktuiert der Takt auch so stark je nach getesteten Game.

Wenn man es überspitzt und extrem ausdrücken möchte, dann ist Superposition 4k für Vega das was Prime für die CPU´s ist.
Da sieht man den absoluten Max Verbrauch / Hitze (nach mehreren Durchgängen) und sieht was die Karte im Worstcase zu leisten vermag und obs Stabil läuft.

In manch Uralt Spielen wie Resi 4 z.B. kann ich mir teils Traum takte von 1700 und mehr MHz anzeigen lassen inkl. Traum Spannungen und verbrauch, weil einfach keine Last auf den Shadern liegt. Da brauch man aber nicht glauben das man das bei wirklicher Last auch nur ansatzweise stabil kriegt.

Meine z.B. kann ich überhaupt nicht dazu überreden über 1600 zu takten bei anständiger Last. Entweder reicht die Spannung nicht oder aber sie rennt in die TDP wall von 280w Asic....... da brauch man gar nicht mehr weiter reden. Das ist alles mehr oder weniger Machbarkeitsstudie absolut jenseits vom Sweetspot. Und das ist das was ich meinte mit nicht "Allround" gültig.

Klar haben die AMD Karten mehr Tweak Potenzial als nV Karten - da die eben out of the box näher am Sweetspot gebaut sind.
Man darf hier ruhig annehmen das AMD ihr Sicherheitspuffer extra hoch gewählt hat bei der Spannung und den Mehrverbrauch in Kauf genommen hat um mehr Chips vom Wafer zu kratzen.

Aber irgendwann ist halt trotzdem feierabend oder man quetscht wirklich mit der Brechstange über 1600 -> Richtung 1700.
Dann mag die Leistung evt. vergleichbar sein aber das was dann an Abwärme mir die Beine weg schmilzt möchte ich nicht erwähnen ;)

Je nach Chip ist man mit einer 56er und 64er Vega schon gut bedient mit UV im Bereich 1450 - 1550 MHz.
Da schafft man es auch kühl und wesentlich effizienter als Stock und dann macht die Karte auch Sinn, und das ist auch der Bereich den die allermeisten wirklich schaffen und man eher als "Allround" bezeichnen könnte.

Darum ist es ja so schade das der von AMD gewählte Sicherheitspuffer nicht "knabber" gewählt wurde, dann hätten die Karten auch vom Fleck weg anders da gestanden, wenn auch immer noch von Haus aus zu ineffizient, aber eben nicht so extrem.

Bis ich eine nV GPU anständig getweaked habe, das kostet mich einen Abend, vll auch 2, weil so viel gibt es da nicht zu machen und der Spielraum ist - dadurch das sie schon näher am Sweetspot ist - nicht so groß.

Bei ner Vega verbringst damit, wenn du genauso das Optimum raus holen möchtest, Tage bis Wochen mit weil du zich Stellschrauben hast, bis jetzt hin zu den Ram Timings. (Damit meine ich nicht Profil 0-2 die man im Treiber wählen kann, sondern richtige Editoren - was gerade vermehrt in den Foren behandelt wird, insbesondere bei PCGH)

Hat aber eben auch nicht jeder bock drauf.
Mir ist es wurst wie gesagt, weil ich sowieso immer alles tweaken muss.
Der normale Käufer will das u.U. aber eben nicht. Der will einbauen, läuft, ist leise und Feierabend.

Edit:
Mich hat zurück zur Vega bewogen das ich a) FreeSync nutzen wollte (Da gab es GSync Compatible noch nicht) b) Probleme mit HDR in Verbindung mit meinem TV hatte mit der nV Karte (bekanntes Problem bis heute) und c) auch bock hatte zu basteln. :d d) das Upgrade sich sehr günstig anbot im Tausch + kleiner Zuzahlung die mir das + an Performance auch wert war.

Weils es ja Thema war, hier noch ein Superposition Test, 4k Optimized mit meinem besagten Setting von 1500 / 1000.
Ist schon etwas älter, war nur für mich persönlich nach dem ich Windows neu aufgesetzt habe, daher ohne weitere Anzeigen.
Möge man mir nicht glauben mach ich den gerne noch mal mit allen dazu gehörigen Anzeigen ;)



Edit 2:
Endlich fertig mit editieren....
Die Vega Karten sind so ein dermaßiges Thema für sich das man sich da echt den Wolf schreiben kann mit kleinen Details die es zu beachten gilt wenn man da wirklich alles raus holen will oder aufzeigen will was man alles beachten muss...
 
Zuletzt bearbeitet von einem Moderator:
Ähm... wir vergleichen hier schon Äpfel mit Äpfel, ja?

Wir gucken hier also auf den Graphic-Score und nicht combined. Meine altersschwache Intel CPU stänke da nämlich ziemlich gegen einen 9900k ab - aber wir wollen die Grafikkarten vergleichen.

Die Ergebnisse von dir schwanken von 5.900 bis 25.100 Punkte - irgendwas ist da kaputt. Ne 1080 sollte irgendwo im 20k+ Bereich landen. (keine Ahnung wo genau, ich hab keine)

Hier mal mein aktuelles Resultat mit heutigen Treibern:
https://www.3dmark.com/3dm/36696319

Das bei den Ergebnissen der Grafik Score schwankt ist doch normal und sollte Dir beim betrachten auch aufgefallen sein.
Da haben wir einmal Fire Strike, dann Fire Strike Extreme und Fire Strike Ultra. Und zum Schluß noch ein Time Spy Ergebnis.

Ich habe es oben jetzt gekennzeichnet :d
 
Das wird zum Antworten so langsam unübersichtlich - ich versuche es trotzdem:

@Paddy92 - ich hab mir auch die anderen Benchmarks angeguckt, um zu gucken, ob das ein Ausreißer ist oder nicht - und das verhalten ist *generell* so.
Auch: Wenn die Karte ins CPU Limit fährt, wäre sie ja noch "nach oben" offen - also noch besser. Zum allgemeinen Speicherbedarf: Yo, und wenn du dann so ein Fan von Final Fantasy bist und es unbedingt spielen willst, dann kratzen 8GB an die VRAM-Grenze. Andere Spiele sind da wesentlich sparsamer. Da kommste dann auch mit weniger aus. Aber gut, ich kaufe meine Grakas auch so, dass die ein paar Jährchen halten sollen. Meine Vega 64 ist jetzt 1,5 Jahre alt und soll das gleiche nochmal schaffen. Dann guck ich mal nach einem eventuellen Upgrade. Ob die Spiele in 1,5 Jahren dann immernoch so genügsam sind... who knows.

Wenn der Trend bei der Parallelisierung so weitergeht, laufen wir bald nicht mehr ins CPU Limit und können die Grakas mit Drawcalls geradezu überfluten. Mehr Objekte brauchen auch mehr Bandbreite und Maximalspeicher. Keine Ahnung wie du das so siehst, aber ich kauf mir nicht jedes Jahr ne neue Graka für 700+ €.

Zu deinem roten FF Zitat: Völlig richtig. Das Spiel ist absolut unoptimiert und saugt unglaublich viel Speicherplatz. Und bei welcher Auflösung passiert das? Genau: 4k. Bei allen anderen Sachen steht das gar nicht zur Debatte. Da kommste wohl auch mit ner 3GB Karte noch mit aus.

Zum Sasser-Beispiel: Intel hat ne ungepatchte Sicherheitslücke, mit der Leute über ein passendes Script deinen Rechner übernehmen können. Das findest du okay? Lass die Tore offen, damit die Balken besser aussehen? Heilige Sch... Wenns AMD getroffen hätte - ach was red ich. Glaub was du willst. Ich hab auf diesen Müll grad keinen Bock.

Der Schwätzer bist du, der hier Zahlen absichtlich falsch interpretiert. Die Leute, die des Lesens fähig sind können sich den Artikel in vollem Umfang selbst durchlesen und dann persönlich entscheiden, wer von uns nur blöd rumlabert. Oder die sind von uns schon so abgenervt, dass die schon längst abgesprungen sind. Bei dem ganzen Fanboygehabe kann ichs auch so langsam verstehen.

btw - ich brauch mich hier auch gar nicht großartig verteidigen. In knappen 4 Wochen haben wir die Benchmarks draußen und wird da die Antwort ablesbar sein. Da stirbt dann auch dein künstlich hochgehaltener CPU Balken. Oh - Intel hält sich natürlich vor, die Mitigation einen Tag *nach* Reviewer Release der Ryzen 3000'er Serie zu veröffentlichen. Allein deswegen würde ich die kategorisch boykottieren. Der Fix ist nämlich schon längst geschrieben.

@LDNV
Schön geschrieben, kann ich so zustimmen.

@DaHell63
Dann wäre im Umkehrschluss meine Vega 64 im Vergleich zu den Stock Werten der Reviewer 20% schlechter gewesen und ich hab sie mit viel rumgetweake dann grad mal auf Stock-Level gebracht? Das passt doch alles nicht zusammen. Meine Vega läuft mit den Werten recht nahe an denen, die auch die anderen Vega 64 Besitzer gepostet haben, plus minus 500 Punkte je nach Chipqualität. Wir haben also *alle* ne Kartoffel gezogen?
 
Zuletzt bearbeitet:
@DaHell63
Dann wäre im Umkehrschluss meine Vega 64 im Vergleich zu den Stock Werten der Reviewer 20% schlechter gewesen und ich hab sie mit viel rumgetweake dann grad mal auf Stock-Level gebracht? Das passt doch alles nicht zusammen. Meine Vega läuft mit den Werten recht nahe an denen, die auch die anderen Vega 64 Besitzer gepostet haben, plus minus 500 Punkte je nach Chipqualität. Wir haben also *alle* ne Kartoffel gezogen?

Ich habe nie behauptet, daß eine Vega schlecht ist. Aber der Gegenspieler einer getweakten/übertakteten Vega ist nun mal im Schnitt eine übertaktete GTX 1080 und nicht eine GTX 1080Ti.
Du kannst z.B. mit einer Vega im Fire Strike mehr Grafik Score erreichen (ich glaube schon mal ~27k gelesen zu haben), dafür tut sich die Vega im Time Spy ein wenig schwerer. Beim Superposition Benchmark ist eine aufgemotzte Vega in 1080p in der Regel auch schneller als ne GTX 1080.
In 4k optimized ist sie wiederum gegen eine getaktete GTX 1080 chancenlos. Die beiden nehmen sich nicht viel. Weder in solchen Tests noch im Schnitt bei den Spielen.
 
Ich habe nie behauptet, daß eine Vega schlecht ist. Aber der Gegenspieler einer getweakten/übertakteten Vega ist nun mal im Schnitt eine übertaktete GTX 1080 und nicht eine GTX 1080Ti.
Du kannst z.B. mit einer Vega im Fire Strike mehr Grafik Score erreichen (ich glaube schon mal ~27k gelesen zu haben), dafür tut sich die Vega im Time Spy ein wenig schwerer. Beim Superposition Benchmark ist eine aufgemotzte Vega in 1080p in der Regel auch schneller als ne GTX 1080.
In 4k optimized ist sie wiederum gegen eine getaktete GTX 1080 chancenlos. Die beiden nehmen sich nicht viel. Weder in solchen Tests noch im Schnitt bei den Spielen.

Jo, das ist klar. Wenn ich ne Vega übertakte und ne 1080 übertakte, kommen die am Ende so ziemlich ähnlich wieder raus - je nach Flaschenhalssituation mal besser für die 1080, mal für die Vega. Ich fürchte, hier ist stock vs getweakt etwas unter die Räder gekommen. Wenn ich ne 1080Ti tweake, hat die V64 natürlich keine Chance mehr. Der Bastlerspielraum ist bei der Vega aber etwas höher als im Vergleich zu Team grün. (Was für Otto-Normal kaum eine Rolle spielt, klar)
 
AMD Navi RX5700 full specs. leaked:
AMD Radeon RX 5700 XT picture and specs leaked | VideoCardz.com

http://ir.amd.com/static-files/9c985e84-bbb6-4e23-99bd-dcbb21f18592
Das AMD mit einer derart langfristigen Strategie geplant hat und diese auch aufgehen würde, hätte ich ehrlich nicht erwartet.
Was AMD an Partnerschaften/Verträgen mittlerweile "zufliegt" ist bemerkenswert.
Man hat bei AMD einige heiklen Durststrecken in Kauf genommen, zugunsten nachhaltiger Ziele.
Auf die Konkurrenz muss das wie der Phönix aus der Asche wirken.

Und das ist nur die 5700!! Da kommen noch 5800 und 5900/5950!!
 
Um mal wieder den Kurs Richtung RDNA zu lenken:

Wenn AMD es schafft jetzt Leistung von 1660 TI - RTX 2070 abzudecken , das auch endlich von Haus aus effizient, und zu guten Preisen.
Dann ist bei AMD erstmal viel gewonnen.

Dann man die die meisten RX und Vega Karten (Mit Ausnahme der VII ) mit einem Schlag ersetzt gegen wesentlich effizientere Designs und ist modern aufgestellt.
Ob die Karte dafür nen Jahr später als nV raus kommt interessiert neu Käufer die in 2 Monaten was kaufen wollen (Zahl nur mal so als Beispiel im Raum geworfen) nicht.
Die interessiert es wie es ausschaut zu dem Zeitpunkt WENN sie kaufen wollen.

Und selbst wenn es tatsächlich ein GCN / RDNA Mischling sein sollte, man also GCN noch nicht komplett verworfen hat, seis drum.
Darum das sie wirklich wieder ein "Gaming Design" und nicht "ein Brett für alles" gezaubert haben und somit viele Teile aus dem Design gestrichen haben die fürs Gaming egal sind, wird man schon einiges an Effizienz gewinnen können. Ob das nun immer noch auf GCN fußt oder wirklich neu ist ...

Interessanter finde ich AMD´s Entwicklung bei der Sache.
Will man das in Zukunft genauso handhaben wie nV ? Salopp gesagt, Profi Design / Gaming Design.
Mit dem Plus in der Kasse sicherlich durchaus vorstellbar und auch wichtig um wieder Konkurrenzfähig zu werden.

Würde nV es machen wie AMD bisher mit dem quasi "ein Design für alle", wären sie sicher auch nicht effizienter. Hat man ja in der Vergangenheit gesehen bis nV dann anfing zu trennen.

Denke ihr wisst was ich meine, bin gerade nur am Handy, man möge mir verzeihen :)

Edit:
Der Text war bevor ich Holzmanns Beitrag gesehen habe :d
 
Zuletzt bearbeitet von einem Moderator:
Es ist erstmal nur ein Mischling. RDNA V2 aka Navi 20 wird da (vielleicht) den kompletten Umschwung darstellen, jedoch ist die komplette Abtrennung von GCN dann auch mit einer neuen Software-Unterstützung möglich. Es gibt Pläne, den deutlich effizienteren Linux Treiber auch auf Windows einzusetzen. Dort würde AMD dann die Rohleistung ihrer Karten besser auf die Straße bringen, was Vulkan-Spiele angeht, müsste sich dann aber von nahezu allen Direct-X Optimierungen verabschieden.

Die Linux-Treiber laufen ungetweakt - das bedeutet: Keinerlei Optimierung für Spiele. Wenns da irgendwo hapert, muss der Spieleentwickler nachregeln. Bisher hatte AMD keine Chance den Hersteller dazu zu bringen, das auch zu tun und musste selbst im Treiber nachhelfen.

Aber: Wenn AMD so mit der Marktverbreiterung weitermacht, kann es durchaus sein, dass Spiele, die nicht ein paar Cent mehr in ihre Performance investieren schlichtweg von der "mobilen Masse" komplett ignoriert werden. Aka: "Deine Grabbelsoftware ruckelt bei mir, ich kauf diesen Mist nicht!" - und dazu gehören Konsolen, Smartphone-Anwendungen, die Cloud-Gaming Geschichten und natürlich auch noch ein paar PC-Reste.

Vielleicht geht der Plan auf. Und sobald das passiert, können die Hersteller es sich schlichtweg nicht mehr leisten Gammelsoftware rauszukloppen.
 
ich hab mir auch die anderen Benchmarks angeguckt, um zu gucken, ob das ein Ausreißer ist oder nicht - und das verhalten ist *generell* so.

Nein, AC ist der einzige so krasse Ausreißer.


Zum allgemeinen Speicherbedarf: Yo, und wenn du dann so ein Fan von Final Fantasy bist und es unbedingt spielen willst, dann kratzen 8GB an die VRAM-Grenze.

Das stimmt eben nicht. Siehe mein Zitat oben.
Der VRAM wird zwar gefüllt, aber scheinbar wird davon nicht alles benötigt. Auch hier gilt belegter VRAM != benötigter VRAM


Zum Sasser-Beispiel: Intel hat ne ungepatchte Sicherheitslücke, mit der Leute über ein passendes Script deinen Rechner übernehmen können. Das findest du okay? Lass die Tore offen, damit die Balken besser aussehen? Heilige Sch... Wenns AMD getroffen hätte - ach was red ich. Glaub was du willst. Ich hab auf diesen Müll grad keinen Bock.

Du vergleichst Äpfel mit Birnen oder besser gesagt Äpfel mit Elefanten :rolleyes:
Um diese Htt-Lücke wirklich ausnutzen zu können, musst du erst einmal dein passendes Script auf den PC deines Opfers bekommen. Über Javascript wäre dies zwar möglich, aber bei den vorherigen Mitigationen wurden die Timer der Browser so verändert, dass diese keine genauen Werte mehr liefern. Bei den Angriffen ist man aber auf genaue Zeiten angewiesen, sodass die eh schon schweren Angriffe noch einmal deutlich erschwert werden. Dazu kommt noch, dass dein Script nur die Daten aus anderen Programmen abgreifen kann, die auf dem gleichen Kern wie dein Script verarbeitet werden. Ach und wenn dies nicht schon genug Einschränkungen wären, kannst du als Angreifer nicht gezielt bestimmen (abseits von Laborbedeingungen), was du an Daten abgreifst, sodass der Angreifer aus den ganzen Datenfetzen erst einmal ableiten muss, wozu diese überhaupt gehören und diese auch validieren.
Diese Angriffe sind für Heimanwender so gut wie irrelevant und betreffen hauptsächlich Datenzentren..


Der Schwätzer bist du, der hier Zahlen absichtlich falsch interpretiert. Die Leute, die des Lesens fähig sind können sich den Artikel in vollem Umfang selbst durchlesen und dann persönlich entscheiden, wer von uns nur blöd rumlabert. Oder die sind von uns schon so abgenervt, dass die schon längst abgesprungen sind. Bei dem ganzen Fanboygehabe kann ichs auch so langsam verstehen.

Du bist doch hier der Oberschwätzer, der nur haltlose, falsche Behauptungen aufstellt.
Dein Fanboygehabe und auftreten AMD-Apologist nervt hart und dies wohl nicht nur mich..


Oh - Intel hält sich natürlich vor, die Mitigation einen Tag *nach* Reviewer Release der Ryzen 3000'er Serie zu veröffentlichen. Allein deswegen würde ich die kategorisch boykottieren. Der Fix ist nämlich schon längst geschrieben.

Ach und direkt die nächste haltlose Behauptung, welche mal wieder falsch ist.
Die MCU gibt es schon lange: https://www.intel.com/content/dam/www/public/us/en/documents/corporate-information/SA00233-microcode-update-guidance_05132019.pdf

Mach ruhig weiter. Ich bin raus. :wink:
 
Jo, ich hab auch keine Lust mehr. Deswegen nur ganz kurz:

1) Hellblade, Shadow of the Tomb Raider und Final Fantasy zeigen das gleiche Verhalten:
https://www.computerbase.de/2019-02/amd-radeon-vii-test/3/#diagramm-final-fantasy-xv-2560-1440
Andere Titel die wenig Bandbreitenansprüche haben nicht.
2) Der Anwender hat keine kontrolle darüber, wie viel VRAM das Spiel sich reserviert.
3) Die Mitigationen lösen die Probleme nicht komplett, sie erschweren sie nur. Der finale Fix ist die Deaktivierung von HT. Nicht ohne Grund wird damit schon gebencht:
https://www.youtube.com/watch?v=O9t7u5pM1cE
4) Die notwendigen BIOS-Updates für ältere Generationen von Intel-Chips sind bei den Herstellern längst EOL. Hier hängt der Anwender komplett in der Luft. Hier hilft es prakitsch nur noch sich ne neue CPU zu kaufen. Hier kann man sich aber auch bei den Mobo-Herstellern kräftig bedanken.

Aber nun ab zur Keynote.
 
So, also 449$ für die RX5700 XT, schade hätte auf 400$ gehofft. Aber immerhin ist sie ja 10 bis 15% flotter als die 2070.
 
Zuletzt bearbeitet:
Mal sehen wenn die ersten unabhängigen benches da sind was noch bleibt vom versprochenen.

Etwas lachhaft fand ich bei einer blower Karte von cool & quiet und super zu übertakten zu sprechen.

Bin echt gespannt wie sich die Preise nach ein par Wochen einpendeln werden.

Gesendet von meinem CLT-L29 mit Tapatalk
 
Bisher kein Word über die Effizienz :confused:
 
So, also 449$ für die RX5700 XT, schade hätte auf 400$ gehofft. Aber immerhin ist sie ja 10 bis 15% flotter als die 2070.

die normale 2070 gibt es aber kaum, die meisten haben Karten mit mindestens FE Taktraten.
Daher ist der Vergleich von AMD etwas verschönert

Die XT ist pi mal Daumen 5% schneller als eine 2070
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh