16 Threads für 550 Euro: AMD RYZEN 7 1800X im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

bringt aber derzeit mit dem aktuellen batch nicht wirklich viel, (ausser für extrem oc er mit LN2) weil

a) der Fertingungsprozess nicht auf hohe Frequenzen sondern auf Effizienz ausgelegt ist.
ab 3.7/3.8 Ghz geht die voltage/ghz kurve vergleichsweise steil nach oben, da muss man dann
schon über 1.4v gehen um überhaupt eine chance zu haben.
effizient ist die cpu in diesen bereichen nicht mehr.

b)die derzeitigen modelle operieren alle ziemlich am limit, besonders der 1800x bietet fast kein spielraum.
siehe auch silicon lottery.

c) amd scheint doch ziemlich zu selektieren Ryzen: AMD könnte stärker selektieren als gedacht
von den 1700 ern schaffen lt tabelle nur 1/5 die 4 ghz
von den 1700x ern nur 1/3 die 4ghz

d) im OC modus aka p0 state (cpu erkennt das am multi) sind Turbo und XFR deaktiviert, hat man also nicht viel von.
tricksn lässt sich hier nur mit blck, da rutscht das pci-e aber schnell von gen 3 auf gen2/gen1 je nach frequenz
gen3 bis ca 104 mhz, bei mehr rutsch es auf gen 2 usw.
 
Zuletzt bearbeitet:
b)die derzeitigen modelle operieren alle ziemlich am limit, besonders der 1800x bietet fast kein spielraum.
siehe auch silicon lottery.

Generell richtig aber dennoch ist der 1800X der stabilste. Wenn ich lese, dass Leute ihren 1700 auf 4 GHz at 1,45V übertakten und sagen er sei der Beste, dann ist das einfach falsch. Vom P/L-Verhältniss ja aber mein 1800X läuft mit 1,35V @ 4 und 1,4 @ 4,05. Mehr ist auch drin aber mir aktuell etwas zu hoch und da warte ich lieber noch ein wenig auf weitere Erfahrungen.
 
Danke für den tollen Testbericht, freue mich schon auf Tests zu den kleineren Ryzen Modellen!
 
Könne sich die Intel-Fanboys sich endlich mal aus dem Thread verabschieden, wenn sie eh nichts anderes als Trollversuche bringen? Es nervt so extrem!

Ich seh nur amd fans, die keinerlei noch so berechtigte kritik an dem weitgehnd guten ryzen produkt zulassen und so tun als sei intel keinerlei alternative preislich wie leistungstechnisch.
 
Ich sehs anders,die erste Generation egal bei welcher Architektur ist immer "schrott".Die 2te ist besser,ab da sollte auch gekauft werden.Aber es gibt ja Enthusiasten,bzw Tester die das als Hobby betreiben (die wissen was se tun)und dann gibs die Opfer pardon eingefleischten Anhänger die mit Benchmark umsich werfen die ned mal von ihnen selber kommen und alles hochloben.
 
Während du nichts anderes tust als Ryzen als den heiligen Gral darzustellen, objektiv ist keins von beidem.
Da sieht man leider, wie verblendet einige mittlerweile Beiträge lesen. Ich habe Ryzen nirgendwo als den Heiligen Gral hingestellt. Es geht darum, dass einige meinen, Ryzen wäre schlecht in Spielen. Und das ist er keineswegs.


Und wo limitiert da jetzt was bei Ryzen? :rolleyes:



Zum Rest, siehe Metalfan.

Nur ziemlich bescheiden in gewissen Games. Siehe die Benches in 1440p. Da sind teilweise sogar 50% Unterschiede bei den Min-FPS und zwar genau im wichtigen Bereich 40-60 FPS.
Bei gewissen Games und einem Ryzen 1700/1800X wird es spassig ruckeln dank den tiefen Min-FPS.
Da sagen User-Erfahrungen bisher aber was ganz anderes. Und einen i5 darf man sich dann auch nicht mehr als Spieler kaufen. :rolleyes:


Diverse Quellen. Reddit, Golem usw. Habe ich in meinen Kommentaren vorher schon verlinkt. Noch eine weitere: AMD CCX Compromises | techPowerUp
Die beziehen sich auch nur auf AIDA. Wie gesagt, das unterstützt Ryzen noch gar nicht richtig. Da würde ich erst mal entsprechend aktualisierte Versionen abwarten. Generell sollte man diese Werte aber nicht überbewerten. Letztendlich ist alles ein Kompromiss aus Kapazität, Durchsatz und Latenz. Das Gesamtpaket muss stimmig sein, damit die Fütterung der Pipeline nicht in Stocken kommt. Und das scheint bei Ryzen der Fall zu sein.
 
Ja, das stimmt. Da gibt es auch eine offizielle Stellungnahme seitens AIDA64 zu:

"4) L2 cache and L3 cache scores indicate a lower performance than the peak performance of Ryzen. The scores AIDA64 measure are actually not incorrect, they just show the average performance of the L2 and L3 caches rather than the peak performance. It will of course be fixed soon."
AIDA64 compatibility with AMD Ryzen processors - General Discussion - AIDA64 Discussion Forum

Überbewerten sollte man die Werte natürlich nicht, ich denke da kann man eh noch viel über den Sheduler optimieren. Aber die kritischen Punkte, die in #1230 von angelsdecay leider etwas schwer leserlich zusammengefasst wurden, sind nicht ganz von der Hand zu weisen.
 
Zuletzt bearbeitet:
Wobei immer noch nicht geklärt ist, ob und wie sich die Punkte in #1230 negativ auswirken. Erst mal den scheduler patch abwarten. Davor ist das nur stochern im dunkeln.
 
Ja, wobei der Gedanke schon aufkommt, dass AMD den IMC nicht ganz auf die Reihe bekommen hat. Anders kann ich mir den niedrigen Takt nicht erklären. Die restlichen Punkte sind produktionstechnisch füre eine bessere Skalierbarkeit durch ein 2 x 4-Kern-Design vorgegeben. Möglicherweise wäre hier die Entwicklung eines reinen 8-Kerners ohne einen getrennten L3-Cache die bessere Lösung gewesen. Allerdings hätte man dann wohl kein passendes Layout für einen reinen 4-Kerner. Und das wäre wirtschaftlich wegen der jetzt schon recht guten Energieeffizienz im Sweet Spot und der großen Verbreitung mobiler Geräte die wohl schlechtere Entscheidung gewesen. Abwarten und :coffee:
 
Zuletzt bearbeitet:
Das quad design ccx hat amd gewählt um damit im server segment die chips Stapeln kann
napples ist ein dual ryzen chip mit 4 ccx
weil aber auch amd mit ryzen gleichzeitig ein soc hat, kann man angepasste chips anbieten.
ideal für Konsolen und unter anderen workstation Anbieter
In Fakt ist ryzen der perfekte Kompromiss zwischen Profi CPu und consumer CPU
 
Zuletzt bearbeitet:
Was hätte ein höher getackteter IMC gebracht? Man kommt dadurch Ja nicht deutlich schneller an die Daten. Das wären Latenzen unterhalb einer ns. Dafür ist der IMC deutlich sparsamer.

Ob eine höher getacktete Datafabrik viel bringt glaube ich auch nicht. Klar etwas weniger wartezeit bei einem thread, aber dafür gibt es ja SMT und der Scheduler kann da auch noch einiges verbessern.

Kann auch nur sagen, die CPU ist mMn. gut durchdacht und eine sehr solide Basis für die Zukunft von AMD. Wäre mal interessant zu wissen, ob der Sweetspot von ca. 3,5GHz dem Design oder dem Prozess geschuldet sind.
 
Das quad design ccx hat amd gewählt um damit im server segment die chips Stapeln kann
napples ist ein dual ryzen chip mit 4 ccx
weil aber auch amd mit ryzen gleichzeitig ein soc hat, kann man angepasste chips anbieten.
ideal für Konsolen und unter anderen workstation Anbieter
In Fakt ist ryzen der perfekte Kompromiss zwischen Profi CPu und consumer CPU

Absolut. Alles basiert auf einem Modul - somit minimalste Produktions- und Entwicklungskosten und fast unendliche Skalierbarkeit.
 
Was hätte ein höher getackteter IMC gebracht? Man kommt dadurch Ja nicht deutlich schneller an die Daten. Das wären Latenzen unterhalb einer ns. Dafür ist der IMC deutlich sparsamer.

Schneller im Sinne von Latenz sicher nicht, aber dafür mehr Daten pro Zeiteinheit, also eine größere Datenübertragungsrate. Aber wie genau sich ein schnellerer IMC bei Ryzen verhalten würde? Keine Ahnung. Schlechter aber wohl nicht. Der Energiebedarf wäre aber wohl signifikant höher.
 
Zuletzt bearbeitet:
Btw könntest du bitte aufhören, das IMC zu nennen? Was du meinst ist der Uncore Bereich. (IMC = Internal Memory Controller = Speichercontroller, der mit dem DDR Kommuniziert.)

Hier mal ein Bild:
IMG0053311_1.jpg
Der IMC ist der linke grüne Kasten oben Rechts. Und der Taktet so schnell wie der RAM. Bei DDR4-2400 -> 1200MHz. Mehr ist da auch nicht nötig, da man nichts dabei an Geschwindigkeit geinnt und die Latenz zu vernachlässigen ist.

Was du eigentlich anheben willst, ist der Takt des Data Fabrics. Das könnte etwas bringen, zumindest für die Kommunikation zwischen den CCX. Dürfte sich aber wie schonmal gesagt in grenzen halten. Sind immerhin 38,7GB/s bei 2400er RAM und ca.50GB/s bei 3200er RAM (Keine Ahnung, woher die 22GB immer her kommen).

Wenn ich das Bild richtig interprätiere, dann dürfte das Data Fabric eine Breite von 256 Bit haben, alles andere macht wenig Sinn, es sei denn das Data Fabric hat double data Rate, dann könnte er 128Bit breit sein. Hat da jemand genauere Infos zu?

Bei Intel ist die CPU ähnlich aufgebaut, hinter dem L2 Cache sprechen alle Kerne über den Ringbus miteinander. Auch 32Byte pro Kern R/W mit Ringtakt. Wie hoch Taktet der Ringtakt bei den Intels? Dürfte sich bei den Intel aber nicht allzu viel nehmen im vergleich zum Ryzen.
11-1080.1618458679.jpg
Bild sollte von einem Intel 6xxx sein.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
@why_me
Ryzen: Strictly technical - AnandTech Forums

While each of the cores and their full speed L1 & L2 caches can be clocked independently, the shared L3 cache frequency is linked to the currently highest clocked core speed within the CCX at all times.
L3 Cache = Core Takt

The DF frequency is always linked to the operating frequency of the memory controller with a ratio of 1:2 (e.g. DDR4-2667 MEMCLK = 1333MHz DFICLK).
IMC Takt = 1:2 vom Speicher höherer Speicher Takt höhere DF Takt.

Meinung von The Stilt:
850 points in Cinebench 15 at 30W is quite telling. Or not telling, but absolutely massive. Zeppelin can reach absolutely monstrous and unseen levels of efficiency, as long as it operates within its ideal frequency range.
 
Das ist schwachsinn, was golem da schreibt. Der L3 passt, wie er ist, der rennt mir Kerntakt. Der IMC muss aber nicht schneller sein, da er nur mit dem RAM spricht und dafür muss er nicht schneller als der RAM takten.

Das einzige, über das man, wie ich gerade schrieb, streiten kann, ob das Data fabric (in meinem Bild der türkisene Block). Das Rennt auch mit RAM-Takt (memclk) und da würde nichts dagegen sprechen ihn höher zu Takten um die Datenrate zwischen den CCX zu erhöhen. Aber da bleibt die Frage, ob das wirklich viel bringt. Dafür wird die Anbindung des IMC komplizierter, man müsste da mit Puffern arbeiten, um ihn nicht mit zu vielen Anfragen zu überlasten.

@Phantomias88: Hab ich was falsches geschrieben? Verstehe deinen Post nicht wirklich.
 
@Phantomias88: Hab ich was falsches geschrieben? Verstehe deinen Post nicht wirklich.

Wenn ich das Bild richtig interprätiere, dann dürfte das Data Fabric eine Breite von 256 Bit haben, alles andere macht wenig Sinn, es sei denn das Data Fabric hat double data Rate, dann könnte er 128Bit breit sein. Hat da jemand genauere Infos zu?
Dual Channel werden 128Bit ausgelesen, wenn das Unganged ist dann sind es 2x 128Bit ;)
 
ist doch egal wie man imc nennt
für mich ist dasselbe ob es northbridge oder data fabric nennt
Intels chips haben den takt haswel 3ghz, broadwel 3,2ghz, skylake 4ghz (gebunden an core clock)
amd taktet aber nur den imc und dieser verbindet die ccx miteinander
es gibt schon benches was ramtakt bringt in games
von ddr4 2133 zu ddr4 3000 liegen 15% Zugewinn
bis ddr4 3600 wären es 20%
und das ohne die cpu OC
bsp war das spiel deus ex md
Das spiel hat eine hervorragende Kernskallierung ist aber prinzipiell gpu limitiert ab eine gtx1080 gewinnt man mehr performance bei 1080p
deus-ex-gamingqtk3d.jpg
 
Kann man hier nicht eine technische Diskussion führen und die richtigen Namen verwenden? Am Ende meinen alle das gleiche aber reden komplett an einander vorbei, weil die Begrifflichkeiten nicht stimmen.

Der IMC ist der Memory controller punkt und nicht der komplette Rest des uncores. Und taktet mit dem Memclk.
Das Data Fabric ist die Verbindung (der Bus) zwischen den CCX, dem IMC und den I/O's. Und taktet auch mit dem Memclk.

Ich kann das Bild gerne noch einmal Posten. Ryzen hat 3 Taktdomänen. Memclk, Coreclk und Iclk (I/O clock).
IMG0053311_1.jpg

Das Verhalten in Deus Ex kann am Takt der Data Fabric liegen, muss es aber nicht. Es kann genauso gut am Windows Scheduler liegen oder an etwas komplett anderem. Wenn z.B. Windows meint, die Threads immer zwischen den CCX hin und her zu schieben, dann ist der Data Fabric nicht zwingend zu langsam. Ein höherer Takt bringt in diesem Fall etwas und es erweckt den Eindruck, dass es am memclk bzw. der Data Fabric liegt, dem ist aber nicht so.

Also erst einmal den Scheduler Patch abwarten, dann kann man sich ein genaueres Bild von der ganzen Sache machen. Davor ist alles nur reine Spekulation und führt zu nichts. Vieles wird durch den Scheduler noch verfälscht.
 
Zuletzt bearbeitet:
@Why_me
Genau, ich warte mal ab, was The Stilt heraus findet.
Er kann es immerhin ins UEFI implementieren, also noch lange vor dem Windows Logo. :d
 
Die restlichen Punkte sind produktionstechnisch füre eine bessere Skalierbarkeit durch ein 2 x 4-Kern-Design vorgegeben. Möglicherweise wäre hier die Entwicklung eines reinen 8-Kerners ohne einen getrennten L3-Cache die bessere Lösung gewesen. Allerdings hätte man dann wohl kein passendes Layout für einen reinen 4-Kerner. Und das wäre wirtschaftlich wegen der jetzt schon recht guten Energieeffizienz im Sweet Spot und der großen Verbreitung mobiler Geräte die wohl schlechtere Entscheidung gewesen.
Bulldozer hatte einen nicht getrennten L3. War der deswegen besser? ;) L3 und dessen Takt ist nur einer von vielen Bausteinen in einem CPU-Design. Ich warte erst mal ab, bis entsprechende Tools besseren Ryzen Support haben, und versuche dann nochmal die L3 Performance zu beurteilen. Meinen Infos zufolge soll dieser 5x so performant wie bei Bulldozer sein. Rechne ich das von Vishera hoch und vergleiche mit BDW-E, so komme ich zu dem Schluss, dass Ryzens L3 fast 50% schneller bei Lesezugriffen, gut 20% langsamer bei Schreibzugriffen und vergleichbar schnell beim Kopieren sein müsste. Sollte das so zutreffen, dann hätte AMD eine sehr gute L3 Implementierung. Völlig unabhängig vom Takt. Ganz im Gegenteil, wenn diese Performance mit niedrigem Takt schon möglich ist, hält man die Leistungsaufnahme in Grenzen und hat noch Spielraum für zukünftige Zen CPUs. Ob es eine Penalty zwischen den CCX gibt, und ob diese zumindest mit synthetischen Tools nachweisbar ist, sei mal dahingestellt. Für die Praxis scheint es jedenfalls keine nennenswerte Auswirkungen zu haben. Und wie du schon richtig sagst, so ein 4-Kern-Komplex war auch wichtig für AMD, um die Entwicklungskosten in Grenzen zu halten. So lassen sich relativ einfach zwei verschiedene Designs zusammenbasteln (Summit Ridge und Raven Ridge).
 
Ist doch völlig irrelevant. Ich spiele aktuelle Sachen trotzdem nicht in low Res. Punkt.;)

Den Prozessor interessierts nicht in welcher Auflösung gespielt wird.
Man sollte eigentlich aufhören zu widersprechen, wenn man selbst nur noch wie ein kleines trotziges Kind nein sagen kann.


Ebenso völlig irrelevant, sofern dadurch keine Lags entstehen.

Von Lags spricht auch niemand unbedingt, sondern von weniger FPS. Ein Spiel fühlt sich mit 40 FPS eben unrunder an als mit 60.
Laggen (stottern) tuts auch auf einem Phenom II 945 nicht unbedingt, trotzdem ist das Spielgefühl schlecht.

Bla bla bla. Beweise das "or it doesn't happen".

Mein Link hat das bereits gezeigt, das Thema wurde eben deswegen von CB explizit angesprochen wie auch von x Testern.
Dem wird fast eine ganze Seite gewidmet, kaum zu übersehen.
Ansonsten eben mal News und Tests außerhalb der AMD Fanblase verfolgen.

Kurzum, du hast keinen Plan von dem was du sagst und wiederholst nur den Stuss den sich ein zwei Seiten als Erklärungsversuche ausgedacht haben.

An irgendetwas muss es eben liegen, warum man da schwach abschneidet und der Speichercontroller bietet sich da an.

Kurzum, das CB Gesamtrating ist und war noch nie wirklich aussagekräftig. Da kannst du gut und gerne schon mal 5-10% Intel Bias wegrechnen.

Klar, die Testseiten machen AMD absichtlich schlecht. Mastermind hat zugeschlagen.:haha:
Also 5 bis 10% bei CB, wieviel bei Heise? 20% Anandtech? 40%:lol:

Es geht darum, dass einige meinen, Ryzen wäre schlecht in Spielen. Und das ist er keineswegs.

Ryzen ist nicht schlecht in Spielen, nur eben wie oben bei Watchdogs 2 klar langsamer. Auch in 1440p.
Da kann es ziemlich egal sein ob du nicht in Low Res spielst.
Ein FX8350 drückt da in WHQD auch nur noch 30 FPS raus, das ist unspielbar. Der Prozessor ist also auf für die hohe Auflösungen sehr wichtig.

Kein Mensch sagt hier Ryzen wäre schlecht in Spielen.
 
Zuletzt bearbeitet:
Den Prozessor interessierts nicht in welcher Auflösung gespielt wird.
Man sollte eigentlich aufhören zu widersprechen, wenn man selbst nur noch wie ein kleines trotziges Kind nein sagen kann.




Von Lags spricht auch niemand unbedingt, sondern von weniger FPS. Ein Spiel fühlt sich mit 40 FPS eben unrunder an als mit 60.
Laggen (stottern) tuts auch auf einem Phenom II 945 nicht unbedingt, trotzdem ist das Spielgefühl schlecht.



Mein Link hat das bereits gezeigt, das Thema wurde eben deswegen von CB explizit angesprochen wie auch von x Testern.
Dem wird fast eine ganze Seite gewidmet, kaum zu übersehen.
Ansonsten eben mal News und Tests außerhalb der AMD Fanblase verfolgen.



An irgendetwas muss es eben liegen, warum man da schwach abschneidet und der Speichercontroller bietet sich da an.



Klar, die Testseiten machen AMD absichtlich schlecht. Mastermind hat zugeschlagen.:haha:
Also 5 bis 10% bei CB, wieviel bei Heise? 20% Anandtech? 40%[emoji38]



Ryzen ist nicht schlecht in Spielen, nur eben wie oben bei Watchdogs 2 klar langsamer. Auch in 1440p.
Da kann es ziemlich egal sein ob du nicht in Low Res spielst.
Ein FX8350 drückt da in WHQD auch nur noch 30 FPS raus, das ist unspielbar. Der Prozessor ist also auf für die hohe Auflösungen sehr wichtig.
Hihi 30 und 40 FPS sind unspielbar?
Sorry das ist Quatsch... FPS Drops unter 25 könnten laggen aber dafür muss es das definitiv tun.
Ansonsten bleibt von deinen ganzen Aussagen stehen das du die Wirklichkeit nicht sehen willst.
Insofern fang an zu sparen damit Intel dir 500eur für einen 4c/8T aus dem Kreuz leiern kann.



Gesendet von meinem Pixel XL mit Tapatalk
 
Sorry das ist Quatsch... FPS Drops unter 25 könnten laggen aber dafür muss es das definitiv tun.
Ansonsten bleibt von deinen ganzen Aussagen stehen das du die Wirklichkeit nicht sehen willst.
Insofern fang an zu sparen damit Intel dir 500eur für einen 4c/8T aus dem Kreuz leiern kann.

Laggen mag es vielleicht erst unter 30 FPS, aber das Tearing unterhalb der Freesync Range ist für mich genauso nervig und macht den Spielfluss kaputt, insofern hat er da schon Recht.
Und deine Anfeindungen kannst du dir sparen, die sind hier völlig fehl am Platz.
 
Eigentlich verwunderlich, dass ein AAA Titel, der eigentlich dank der aktuellen Konsolengeneration schon gut multi-threadded ist, auf einem 8-Kerner schlechter läuft, als auf einem hochtaktenden 4-Kerner.
 
Ein FX8350 drückt da in WHQD auch nur noch 30 FPS raus, das ist unspielbar. Der Prozessor ist also auf für die hohe Auflösungen sehr wichtig.

Das mit den 30FPS würde ich so nicht sagen, ansonsten muss ja jeder Playstation / XBOX Besitzer seine Konsole wieder zurückgeben, weil sämtliche grafisch ansprechenden Titel unspielbar sind.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh