16 Threads für 550 Euro: AMD RYZEN 7 1800X im Test

Schon hart wie sich das Blatt gewendet hat. Früher waren die Treiber der Radeon grottig und nun ist es in DX12 anders herum, auch wenn es bereits bekannt war, dass Nvidia DX12 stiefmütterlich behandelt hat. Die meinten wohl ihr eigenes Süppchen kochen zu müssen. Aber AMD hat es doch auch hingekriegt mit DX11, 12, Mantle und Vulkan mittlerweile den Kunden nirgends im Stich zu lassen?

Obwohl ich in den letzten Jahren kein einzigen Test von AMD Produkten mir komplett vollständig durchgelesen hatte, Ryzen mal aussen vor gelassen, kann ich mich paradoxerweise immer mehr mit dem Gedanken anfreunden, ein komplettes Team-Red System aufzubauen: Ryzen+Vega+Freesync (2?).

Selbst was Unterschiede zwischen Freesync zu G-Sync angeht, bin ich nicht mehr auf dem aktuellen Stand der Dinge. Und Vega kommt ja auch erst noch, aber ich werde das Gefühl nicht los, dass Preis/Leistung bestimmt auch so gut ist wie bei Ryzen. Früher habe ich mir Physx als Alleinstellungsmerkmal eingeredet und Intel hatte auch die Bomben Quadcores. Aber das lustige ist, Quads sind keine Bomben mehr und Physx sehe ich nirgends mehr wo o_O. Die Treiberpolitik von Nvidia läßt auch zu Wünschen übrig... AMD hat seine gesamte Software umgekrempelt und endlich angefangen Arbeit hinein zu investieren seit Crimsons.

Tjo, up's and down's irgendwie. Zumindestens kann ich heute sagen, dass AMD richtig Fahrt aufnimmt dank den Leuten auf Youtube und Reddit. Da wo die "Presse" versagt hat, helfen die Communities sich gegenseitig. Wie ich es schon immer sagte, als ich die kleinen Teilerfolge von Ryzen beobachten konnte: Es bleibt spannend und wir sind noch nicht am Ziel: onto the TOP!

Edit: Ein bissl Hype muss mal sein, nach dem Ryzen sich gegen Kritiker immer stärker behaupten konnte :d


Genau so sehe ich das auch ich bin recht zuversichtlich das mein nächstes System auch komplett Von AMD Kommt.
Ryzen+Vega+freesync

TFT hab ich schon mit Freesync LG 34UC79G-B
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Bei Division das gleiche.

Das video beweißt es testet nicht eine nvidia GPU in DX12
AMd GPu profitiert enorm von DX12 da sieht man das MS DX12 extra für gcn entwickelt wurde.
ich glaube nichtd aran das amd irgendwas am treiber optimiert hat.
Optimierungen sind oft Bildverschelechterungen. Zugunsten der FPS
Aber zu Zeiten wo games die details nach Ressourcen automatisch herabsetzt sind fps penis vergleiche bald überflüssig.
 
Dx12 wurde nicht für GCN entwickelt. Nvidia hat nur viel Geld und Zeit in einen verbesserten dx11 Treiber gesteckt. Das dx11 eine Sackgasse ist, dass ist auch Nvidia klar, aber mit dem großen Marktanteil ist es leicht dx11 weiterhin zu forcieren. Es ist egal ob der Fortschritt aufgehalten wird. Das wichtigste ist, die Karten haben die längere Balken und werden gekauft.
 
Das video beweißt es testet nicht eine nvidia GPU in DX12
AMd GPu profitiert enorm von DX12 da sieht man das MS DX12 extra für gcn entwickelt wurde.
ich glaube nichtd aran das amd irgendwas am treiber optimiert hat.
Optimierungen sind oft Bildverschelechterungen. Zugunsten der FPS
Aber zu Zeiten wo games die details nach Ressourcen automatisch herabsetzt sind fps penis vergleiche bald überflüssig.

Ich erwarte hier zwar echt keine literarischen Meisterwerke aber ein bisschen Mühe kann man sich schon geben oder hattest du einen Schlaganfall während dem Schreiben ?

Auch der Inhalt ist ziemlicher Müll. DX12 wurde nicht für GCN entwickelt sondern es ging primär darum die größten Probleme wie Drawcalls und Multithreading von DX11 neben den neuen Features auszubessern. Das AMD davon stärker profitiert liegt ganz einfach daran das Nvidia Millionen in die Optimierung von ihren DX11 Treibern gesteckt hat.
Optimierungen haben nichts mit Bildverschlechterung zu tun. Keine Ahnung woher du diesen Quatsch hast.
 
Zuletzt bearbeitet:
Das mit Bildverschlechterung ist teils nicht falsch, gab ab und an mal "Optimierungen" in vergangenen Treibern, die fps durch reduzierte Qualität rausgeholt haben. Weniger AF, weniger Samples bei irgendnem Pass etc etc.

Kann man heut halt nicht mehr so leicht bringen, weils gleich jemand merkt.

Sent from my OnePlus 3T
 
AMd GPu profitiert enorm von DX12 da sieht man das MS DX12 extra für gcn entwickelt wurde.
Es wurde vor allem entwickelt, um aus dem CPU- Limit rauszukommen, was starke Karten plagt. Eine bestimmte Architektur hat damit nichts zu tun.

Hier sieht man, dass Nvidia im API- Overhead- Test mit DirectX 11 doppelt so viele Punkte wie AMD holt, das heißt, Nvidia kann die meisten Karten auch mit DirectX11 noch voll ausfahren. (Der Test ist kein Test, der die Leistung der Karten darstellt, sondern zeigt nur, wie optimal sie ihre Leistung ausspielen können.)

Schaut man auf Vulkan und DX12, zeigt sich, dass der Overhead extrem sinkt (also die Punktzahl steigt) und somit auch für sehr starke Karten Platz ist. Das heißt: die RX 470 wird in DX11 vom Overhead in Deinem Video erdrückt, kann deshalb erst mit DX12 ihr volles Potenzial entfalten und kommt deshalb deutlich vor die GTX 1060. Bei der GTX 1060 ist es umgekehrt - sie ist mit beiden APIs (meistens) gleich schnell, weil sie schon mit DX11 keine Probleme hatte. Und da schließt sich eben der Kreis, sodass man versteht, warum in DX11 AMD bessere Hardware(-> TFLOPS) braucht, um eine ähnliche Leistung wie NVidia- Karten zu bringen, und warum sie schneller ins Limit kommen.

Edit: Man sieht übrigens auch am Test, dass die Vulkan- und DX12- Treiber von Nvidia definitiv nicht schlechter als die von AMD sind... eher das Gegenteil ist der Fall. (Zumindest vom Overhead her) Nur kann eine Hardware eben nur so schnell rechnen, wie sie taktet und Shader hat(mal angenommen, die ROPs und TMUs sind angemessen skaliert), und wenn DX11 schon reicht, macht eben DX12 oder Vulkan daran keinen Unterschied mehr.
 
Zuletzt bearbeitet:
Problem bei der Argumentation: im AdoredTV video hat der 1800X im *CPU Limit* zugelegt, als AMD Karten verwendet wurden.

Das suggeriert, dass der Nvidia DX12 Treiber auch die CPU behindert.

Und zwar sowohl bei Intel als auch bei AMD, nur kann Intel das dank schnelleren Kernen einfacher abfedern.

Sent from my OnePlus 3T
 
Das mit Bildverschlechterung ist teils nicht falsch, gab ab und an mal "Optimierungen" in vergangenen Treibern, die fps durch reduzierte Qualität rausgeholt haben. Weniger AF, weniger Samples bei irgendnem Pass etc etc.

Kann man heut halt nicht mehr so leicht bringen, weils gleich jemand merkt.

Bist du dir da wirklich sicher? Da werden teilweise Ergebnisse veröffentlicht ohne zu prüfen ob diese Stimmen können. Die Tests fahren automatisiert durch und die Ergebnisse werden einfach hingenommen. Das hat doch der Ashes Test gezeigt, erst als der Shitstorm los ging, hat man geprüft woran es liegt und siehe da, da werden bei Quadcores Details weggelassen, so was hätte doch auffallen müssen, oder? Und zumindest vor der veröffentlichung gegengeprüft oder mit dem Entwickler Rücksprache gehalten werden müssen.

Gibt es eigentlich noch Tests mit Bildvergleichen der beiden Herstellern. Habe die vor gut 10 Jahren das letzte mal gesehen. Wäre eigentlich interessant, was sich da mittlerweile getan hat und wer da die Nase vorn hat, evtl sogar wer mit welchen Tricks arbeitet um die FPS hoch zu halten.
 
Jep, bei so krassen Unterschieden wird nachgeschaut, aber in der Regel nicht. Speziell nicht, wenn die Texturen eine etwas geringere Auflösung haben - das war nur mal einem Youtuber aufgefallen, der dann Nvidia dafür verantwortlich machte, aber die konnten dafür nicht direkt was; ihre Karte hatte einfach weniger VRAM, wodurch die Spiel- Engine da Reduktionen vorgenommen hat, um die FPS hochzuhalten.

Aber insgesamt fallen kleinere Unterschiede in der Bildqualität bei solchen Tests nicht auf - deshalb bin ich ein großer Befürworter von OpenSource- Treibern wie sie auf Linux existieren(RadeonSI, RADV), weil man da eben schwarz auf weiß im Quellcode die Optimierungen lesen kann, und wenn die Qualität darunter leidet, würde die Projektleitung das nicht zulassen, und wenn doch, einen Shitstorm ernten, weil eben die Änderung öffentlich einsehbar ist.
Was in einem nicht- quelloffenen Treiber alles für Tricks angewendet werden, weiß man ja nicht.

Aber das ist jetzt langsam etwas abschweifend. Dass auch auf die CPU bereits verschiedene Details Anwendung finden, ist jetzt eher neu - bisher war das eher bei verschiedenen Grafikkarten beobachtbar. Es macht aber natürlich schon Sinn, weil die CPU in den letzten Jahren immer mehr zum limitierenden Faktor wurde, und das Limit jetzt mit Six- und Oktacores wieder aufgehoben wird - man also der CPU wieder mehr zumuten kann, was auch Grafikdetails angeht.

Ich denke, dass in Zukunft mehr und mehr die Engines selbstständig auf die Hardware anpassen, und man kaum noch Vergleiche machen kann. Einfach deshalb, weil es zunehmend in den Publisherforen Wutausbrüche von Leuten gab, die der Ansicht waren, mit einer GTX 970 müsse man alles auf Ultra zocken können. Daraufhin wurde in einigen Spielen die Bildqualität heruntergepatcht und diese Leute waren zufriedengestellt.
Wenn man automatisch die Bildqualität anpasst, sodass es mit schwächerer Hardware auch viele FPS liefert, sind diese Leute direkt zufrieden, sie haben ihre FPS- Zahlen, können damit herumposen und machen keinen Ärger. Und die, die bessere Hardware haben, bekommen dann auch direkt das, was sie wollen, nämlich eine bessere Bildqualität, ohne dass dadurch irgendwelche Shitstorms ausgelöst werden. Auf der anderen Seite kann es leider dadurch auch passieren, dass man nicht mehr selbst verschiedene Details gegen andere tauschen kann. Sondern was mit der Hardwarekonfiguration nicht freigeschaltet wird, fällt dann komplett weg, und man müsste sich stärkere Hardware kaufen. Das ist die erschreckende Kehrseite.
 
Zuletzt bearbeitet:
Wieso soll ich dann auf dem PC spielen? Kann ich mir ja gleich eine Konsole kaufen. Man möchte doch noch selber entscheiden, was man einstellt.

Und Leuten, bei denen man sich fragt, wie die es überhaupt geschafft haben sich anzumelden, wird man es nie recht machen können. Die meckern auch, wenn ein Spiel gar nicht läuft, weil ihre Highendkarte aus dem Jahr 2005 ist. Oder weil ihnen das Spiel auf ihrem total übertaktete Rechner immer abschmiert.
 
1. Nvidia hat beschissene DX12 Treiber
2. Nvidia bremst AMD wo sie nur können, ist immerhin die Konkurrenz
3. AMD hat massiv zugelegt was Software betrifft über das letzte Jahr.
 
Intel =/= Nvidia
verstehe deshalb auch nicht, wie Nvidia über Intel AMD ausbremsen soll.
Das ist alles immer nur verschwörungstheoretisches bla bla

Zum kotzen wenn die Schlussvolgerungen auch noch total irrsinnig und unlogisch sind.
 
Ihr könnt ja glauben was ihr wollt, aber lustigerweise seid ihr auf Punk 1 und 2 nicht eingegangen.
Könnt mir ja gerne eure Vermutungen zu dem Leistungsboost bzgl. AMD GPUs + Ryzen nennen.

ps. Gameworks und 970GTX schon wieder vergessen?
 
Zuletzt bearbeitet:
(mal unter der Annahme - hypothetisch! - Nvidia würde AMD wirklich ausbremsen...wieso sollten sie das nicht bei den CPUs auch tun? AMD ist AMD. Wenn Nvidia AMD ausbremsen will, können sie sowohl bei den GPUs ansetzen mit Zeug wie Gameworks, als auch bei den CPUs mit ihrem Treiber.

Ich sage nicht dass Nvidia es tut, aber die Aussage, es könne gar nicht sein, weil Ryzen ja ne CPU sei und keine GPU, ist nicht schlüssig.)

Sent from my OnePlus 3T
 
Natürlich kann es auch daran liegen, dass Nvidia bisher nicht auf Ryzen optimiert hat, die GPU kommuniziert ja auch mit der CPU.
 
Natürlich kann es auch daran liegen, dass Nvidia bisher nicht auf Ryzen optimiert hat, die GPU kommuniziert ja auch mit der CPU.
Wenn die Optimierung aber an besserem Multithreading im Treiber liegt, dann würde ein besserer Nvidia DX12 Treiber aber auch die Performance auf Intel CPUs verbessern.

Was mir impliziert, dass Nvidia an sich den DX12 Treiber einfach nicht optimiert hat, egal auf welche CPU.

Macht aber auch Sinn. In DX12 verliert Nvidia stark an Vorsprung, also wollen sie das nicht fördern. Und da fast niemand auf AMD GPUs im High End Benchmarks macht, ists bisher quasi nicht wirklich aufgefallen.

Viele Reviewer verzichten ja absichtlich wieder und wieder auf Dx12 runs, weil sie meinen, dass die Performance damit bisher mies war.

Sent from my OnePlus 3T
 
Was hat das jetzt mit der GTX970 zu tun?????

Dir ist schon klar, dass man Gameworks Sachen einfach abschalten kann? Zudem sind teile von Gameworks einsehbar, dann zeig mir doch anhand des Codes bitte wo AMD aktiv ausgebremst wird.
Und ist es verwerflich, dass ein Unternehmen seine Goodies auf seine eigenen Produkte hin optimiert? Macht Amd doch auch, also wo ist das Problem an Gameworks??

Zu dem Punkt "Nvidia hat beschissene DX12 Treiber" woran machst du das aus? Definiere mir was "beschissene Treiber" sind.
Nvidia hat sehr gute Dx11 Treiber im Gegensatz zu Amd und kann daher nicht so stark von Dx12 profitieren wie Amd, aber sind daher die Dx12 Treiber von Nvidia beschissen oder sind einfach die Dx11 Treiber von Amd beschissen?
Außerdem wie viele native Dx12 Spiele gibt es bis jetzt? Die meisten sind nur Zwitter wo Dx12 hinzugepatcht wurde.

Und weil ich deinem dritten Punkt nicht widerspreche oder was dazu sage, kann es ja auch sein, dass ich dir zustimme :)
 
Zuletzt bearbeitet:
Am ehesten von allen hätte AMD einen Grund, dass AMD GPU's mit AMD CPU's besser aussehen als NVidia GPU's mit AMD CPU's. AMD will ja auch die eigenen GPU's verkaufen aber selbst das glaube ich erst, wenn es mir jemand beweist.
 
Am ehesten von allen hätte AMD einen Grund, dass AMD GPU's mit AMD CPU's besser aussehen als NVidia GPU's mit AMD CPU's. AMD will ja auch die eigenen GPU's verkaufen aber selbst das glaube ich erst, wenn es mir jemand beweist.

Hast du grade eine Andeutung gemacht dass es an AMD liegt das die Performance von NVidia unter DX12 in Kombination mit Ryzen bzw. allgemein nicht wirklich gut ist ?
 
Das ist doch Quark. Hier versucht keiner, die Leistung mit bestimmter Hardware schlecht zu machen. Nvidia ist auch nicht gerade mit Intel dicke. AMD ist zwar Konkurrent von Intel, aber ich könnte mir sogar vorstellen, dass sie lieber mit AMD zusammenarbeiten als mit Nvidia(Patente etc.). Aber alle profitieren sie, wenn ihr Produkt mit anderen gut läuft. Wenn Ryzen wegen irgendwas je schneller mit AMD- Karten laufen wird, dann höchstens, wenn der Prozessor und die Grafikkarte gegenseitig direkt auf ihre Speicher und Caches zugreifen könnten. Das könnte AMD aber noch gar nicht implementiert haben, sondern kann frühestens mit Vega kommen.

Nvidia hat wahrscheinlich irgendwelche Techniken im Treiber, die die Rechenkomplexe nicht berücksichtigen(meine Vermutung). Und möglicherweise ist der DX12- Treiber auch allgemein noch nicht so gut optimiert, wie ihr DX11- Treiber, der extrem gut ist - die Karten laufen ja selbst in der alten API fast immer am physischen Limit, während AMD- Karten mit DX11 meist brachliegende Ressourcen haben.
AMD hat selbst Ryzen gebaut, und weiß zu 100%, wie man das Maximum rausholen kann. Ich frage mich übrigens auch, warum ich in den Tests meist nur Nvidia- Grafikkarten gesehen habe, und nicht wenigstens eine Gegenüberstellung. Denn mir ist schon bei den wenigen Tests mit AMD- Karten aufgefallen, dass die deutlich positiver laufen und auch selbst habe ich eigentlich nirgends festgestellt, dass Ryzen schlechter laufen würde, als mein 5820K mit deutlich mehr Takt vorher. Mit dem Wissen haben sie ja deutlich mehr Zeit gehabt, ihre Treiber längst anzupassen, und ich bezweifle, dass es für Nvidia höchste Priorität hat, selbst die Anpassungen vorzunehmen. Die werden wahrscheinlich erst mal warten, bis viele Ryzen im Einsatz sind, und sich ein paar Leute beschwert haben.
 
Zuletzt bearbeitet:
Und gleich mal die erste Überraschung mit meinem neuen Gerät, Fallout 4 gilt nicht gerade als Multithread-Monster.
Läuft auch im unteren FPS-Bereich erstaunlich weich, der vermutete Worstcase ist nicht eingetreten.

edit sorry für die Graka;)
 
Zuletzt bearbeitet:
Nach einem Biosupdate gibt es in manchen Games noch mehr Performance.

 
Wie ich bereits mehrfach schrieb: Die reine Leistung ist in den Anwendungen ja sichtbar - mit entsprechendem Handling von den Eigenschaften der CPU und schnellem Speicher wird eine ähnliche Leistung auch in Spielen möglich sein. Und wenn man mit dem Bios teilweise über 10% - 20% mehr Performance bekommt, ist es relativ unwahrscheinlich, dass man nicht nochmal in einigen Spielen 2-5% rauspressen könnte, die sich irgendwo verstecken.
 
Es gibt aber auch momentan Fälle bei dem eine Betaversion vom Bios deutlich schlechtere Performance bringt, idealerweise vorher/nachher ingame Benchmarks laufen lassen. Und Performance von Stableversionen können sich, verglichen mit anderen Herstellern, zum Teil auch heftig unterscheiden.


Dann gibt es noch einen guten fr. Artikel über Ryzen mit unterschiedlichen Ramkonfigurationen (2133-3200; cl12-16; 2x bzw. 4x singlerank). Leider wird dort nur der 6900k im Dual- und Quadchannel gegengetestet. Kann man eigentlich annehmen, dass ein 7700k genauso wie der 6900k im dualchannel reagiern würde bezogen auf die prozentuale FPS-Steigerung? Ryzen erhält dort in % bis zu doppelt soviel an FPS-Steigerung von 2133 zu 3200Mhz im Vergleich zum 6900k. Neue Erkenntnisse gibts bezogen auf die Anzahl der Ranks und die Performance dazu.

Influence de la DDR4 sur Ryzen 7 1800X et Core i7-6900K - HardWare.fr

Man sieht überall Baustellen im System (SMT u. CoreParking on/off, Betabios, Ram, DX12-Treiber, OS-Updates, Clientpatches, etc) aber ich sehe das positiv. Denn die Leistung kann nur noch steigen, sobald die Bagger und LKW alle abgezogen sind :P
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh