AMDs Ryzen 7 3700X und Ryzen 9 3900X im Test

Ein Taichi Board mit einem 700€ zu vergleichen. Null Ahnung 1+

Allerdings das extrem kostet für Intel 550€
Warum das für amd über 700 kosten soll ist mir ein Rätsel. Denn wenn pcie4 auf 470 laufen kann ist der Aufpreis für die 570 nicht fair.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@hollomen

Ja das mit Apple muss auch nicht sein. Früher gab es bei Apple auch mal Hardware für nur 20% mehr als bei den anderen. Jetzt wirkt das so wie ne statiere Firma. Könnte von „der Partei“ oder dem Postillion stammen. 512gb SSD? 1000 Euro. I9 cpu? 1000 Euro. USB-c Adapter? 1000 Euro. Ok sei, back to topic.

Hatte den 3930k auch auf 4,5 laufen für ne Weile, war mir aber zu laut bzw, zu heiss, bzw. Zog mir zu viel Saft. 4,2 war der Sweet Sport für mich ohne mehr Spannung. Aber da gab es dann im cinebench r15 140 Punkte Single Core. Da erwarte ich vom raten 3900x dann über 200 und damit deutlich mehr Single Core Leistung.

Was die Board angeht riecht doch alles im Bereich 250-300 Euro an x570 locker aus oder? Wozu brauche ich eigentlich 12 Phasen wenn die cpu eh nicht sinnvoll übertaktbar ist (verliere ja den Single Core Boots)? Vielleicht hab ich da ja was verpasst.
 
Der 3900x hat im CB r15 162 Punkte wenn er auf 3.5GHz gedeckel ist. Das kann @Default dann schon hinkommen mit deinen 200Pt. Entscheidender ist aber die MC Leistung. In Spielen wird der Unterschied zu unserer alten CPU aber vermutlich deutlich geringer ausfallen. Bleibt mindestens die monderner Platform, mit 100Watt weniger Verbrauch zu meinem OC 3930k und die brachiale Mehrkernleistung - bei Anwendungen liegt der 3900x mindestens um den Faktor 2 vorn.
 
Selbst in Spielen muss der Sandy-E schon reichlich Federn lassen. Er ist immer noch fix aber gibt wesentlich fixere Prozessoren. Manchmal stiehlt im sogar der 1600 die Show.
 
Hab von dem User im verlinkten Reddit Thread gelesen, dass es an Samsungs NVMe express Treiber liegt. Wenn man den Service stoppt oder deinstalliert scheint das Problem weg zu sein. Nvidia Geforce Experience scheint auch betroffen zu sein. Da müssen wohl nochmal einige ihre Treiber überarbeiten.
 
Zuletzt bearbeitet:
Hab von dem User im verlinkten Reddit Thread gelesen, dass es an Samsungs NVMe express Treiber liegt. Wenn man den Service stoppt oder deinstalliert scheint das Problem weg zu sein. Nvidia Geforce Experience scheint auch betroffen zu sein. Da müssen wohl nochmal einige ihre Treiber überarbeiten.

Aber an was liegt es?
An der Abwärtskompatibilität pci-e 4.0 oder was anderen?
Wieder muss der Kunde Betatester spielen.
 
Das hier ist die offizielle Antwort von Robert:

"We are looking into the WHEA errors, but I want to be crystal clear to everyone about what we already conclusively know: it doesn't cause data loss. While I'm unable to explain the source of OP's file issues, it is evident to us that this has nothing to do with the WHEA warnings.

I would also ask OP to update the BIOS and stick with the in-box Windows NVMe driver.

//edit: To expand on my commentary. Data loss is a very serious allegation, and we take it with the highest levels of concern. But it's also very easy for nuisance issues to take on mythic proportions as the *true cause* is theorized, picked at, conjectured. As people pin correlations onto the story as causation.

A data corruption allegation requires a *lot* more proof than "I ran sfc and it found some bad files." Due to the way NVMe writes, and the lack of power loss protection, it is absolutely possible to bork a few files in day-to-day operation. That's why enterprise-grade SSDs are built differently from consumer disks. Or: Updated and/or modified files may not match the signature Windows is expecting, which would also show up in SFC. Or those files may no longer be the appropriate version if the hardware changed on the same install. There are *many* reasons why a system would show changes with an SFC, and all of them are a lot more probable than the accusation being made.

Let's get the remaining facts, first, before assuming the worst. We're working to get to the bottom of the WHEA errors. We understand the level of concern. We'll get there."
 
Umso mehr ich darueber lese umso mehr glaube ich an "just windows10 things"... weils auch non AMD Systeme betrifft.

Scheiss WIP OS.
 
Mich würde mal interessieren wie viel schneller der 3700X im Vergleich zum 2700X beim 4K Gaming ist. Im Internet finde ich immer nur 1080P und 1440p Vergleiche.
 
Mich würde mal interessieren wie viel schneller der 3700X im Vergleich zum 2700X beim 4K Gaming ist. Im Internet finde ich immer nur 1080P und 1440p Vergleiche.

nicht wirklich viel so um die 4-5% fps und um die 8-10% bei den frametimes - ist ja aber auch logisch da du in 4k in 90% sowieso im Gpu Limit bist - das ganze mit ner 2080TI (mit ner schwächeren Graka wird der Unterschied immer kleiner da du wesentlich früher im GPU Limit bist)
 
Mich würde mal interessieren wie viel schneller der 3700X im Vergleich zum 2700X beim 4K Gaming ist. Im Internet finde ich immer nur 1080P und 1440p Vergleiche.

Wer CPU-Leistung in 4K bencht ist sich selbst der nächste ;)

Denkst du eine neue CPU macht deine GPU auf einmal leistungsfähiger? ^^
 
nicht wirklich viel so um die 4-5% fps und um die 8-10% bei den frametimes - ist ja aber auch logisch da du in 4k in 90% sowieso im Gpu Limit bist - das ganze mit ner 2080TI (mit ner schwächeren Graka wird der Unterschied immer kleiner da du wesentlich früher im GPU Limit bist)

Ich habe derzeit noch einen Ryzen 5 1600 und ne 2080 TI. Damit würde sich ein CPU Upgrade wohl nicht lohnen oder? Bei kleineren Aufösungen wie 1440P wäre es wohl spürbar schneller...
Auch sei gesagt das ich den Rechner für EBV brauche. Damit wäre mein Raw Konverter wohl etwas schneller...
 
Zuletzt bearbeitet:
naja von nem 1600 zahlt sich ein Update dann meiner Meinung nach doch aus - da bist du zb schon beim 3600 im Anwendungsbereich schon gute 30-35% besser sowohl Single als auch Multithread und auch bei den Fps hast du selbst in 4K noch so um die 10-15% mehr und die Frametimes werden gute 20% besser ausfallen. Mit einem 3700X hast du dann vor allem beim Multithreading gute 70% mehr Leistung und die Frametimes beim Gaming sind so um die 30% besser.
 
Ich habe derzeit noch einen Ryzen 5 1600 und ne 2080 TI. Damit würde sich ein CPU Upgrade wohl nicht lohnen oder? Bei kleineren Aufösungen wie 1440P wäre es wohl spürbar schneller...
Auch sei gesagt das ich den Rechner für EBV brauche. Damit wäre mein Raw Konverter wohl etwas schneller...

Das kommt alles auf deine Spiele und deine Qualitätssettings an - pauschale Aussagen sind hier nicht möglich - schau einfach selbst nach, beschrieben bspw. hier:
fps & PC-Auslastung anzeigen - On-Screen Display in Spielen einrichten
 
wenn er die Multithread Leistung nicht braucht - warum sollte er auf mehr Kerne wechseln die Mehrleistung im Single Thread und bei Fps bleibt die selbe....
 
wenn er die Multithread Leistung nicht braucht - warum sollte er auf mehr Kerne wechseln die Mehrleistung im Single Thread und bei Fps bleibt die selbe....
Damit er sich nicht in einem Jahr wieder eine CPU kaufen muss, wenn die Spiele 8+ Kerne effizient auslasten können. Klar kannst du dir ne CPU für "jetzt" kaufen - bei der nächsten AAA Welle ist die dann aber schon wieder "alt". Vor 2 Jahren konntest du noch gechillt mit nem 4-Kerner zocken. Heute gehts entsprechend mit nem 6-Kerner und in einem Jahr willst du nen 8-Kerner haben.

Ist halt die Frage nach dem persönlichen Updatezyklus und ob du so viel Geld auf der Kante hast, dir jedes Jahr ne 250€ CPU zu kaufen - oder dir einmal alle 3 Jahre eine 500€ CPU kaufst oder dir gleich nen 16-Kerner für 750€ kaufst und für 7 Jahre Ruhe hast. Wobei der IPC Gewinn in 7 Jahren schon so deutlich angestiegen sein sollte, dass ein solcher Zeitraum schon echt lange ist. Ich würde nach derzeitigem Technikstand die CPU alle 4 Jahre aufrüsten und entsprechend planen. Das wäre für mich der 3900X bzw wenn ich nicht so sehr auf den Cent gucke auch der 3950X.

Muss aber jeder für sich selbst kalkulieren.
 
nur weiß heute keiner ob es in nem Jahr einen 8Kerner oder mehr braucht um Spiele auszulasten (ich wage zu bezweifeln das in 2-3 Jahren ein 6Kerner nicht mehr reicht vor allem in 4K) - aber mehr ist natürlich besser aber kostet dann halt auch gleich gute 150 Euro mehr für aktuell im Moment 10% bessere Frametimes und von der Mutlithreading Mehrleistung hat man ja nur was wenn es die verwendeten Programme auch nutzen - keine Ahnung ob das bei dod84 zutrifft.

ich persönlich wechsle von 2700X auf einen 3800X (oder wenn der nach hoffentlich endlich mal verfügbaren Benches und Reviews nicht wirklich viel mehr taugt als er 3700X gleich auf den 3900X) fürs Gaming in 4K ziemlich sinnbefreit - aber ich mache es weil es Spass macht und weils ich kann wie man so schön sagt :d

trotzdem habe ich den 8ender nur weil ich auch einige Programme verwende die mit den zusätzlichen Kernen umgehen können - bei Haupeinsatzgebiet Gaming hätte ich nen 2600 und würde auf nen 3600 wechseln.
 
Zuletzt bearbeitet:
Von 6 Kerne auf 6 Kerne ist totaler Blödsinn!

wer noch einen 6-core phenom 2 am start hat sieht das vielleicht anders...

aber innerhalb der AM4 plattform wuerde ich bei einem upgrade auch gleich mehr kerne mitnehmen.
muss sich ja lohnen, auch wenn mans nicht braucht. :d
 
Dann nochmal was anderes. Ich habe derzeit nur DDR4 PC3000 Speicher verbaut. Wenn ich mir nen neuen Ryzen hole und den RAM nicht tausche sollte ich doch keine spürbare Performanceeinbuße haben oder?
 
Wirklich viel spüren wirst du nicht, aber probiert halt ob der RAM 3200 oder sogar 3600 verträgt.

Aber nicht mit einem Benchmark auf Stabilität testen sondern mit einem RAM-Diagnoseprogram, zb, das von Windows 10.
 
Damit er sich nicht in einem Jahr wieder eine CPU kaufen muss, wenn die Spiele 8+ Kerne effizient auslasten können. Klar kannst du dir ne CPU für "jetzt" kaufen - bei der nächsten AAA Welle ist die dann aber schon wieder "alt". Vor 2 Jahren konntest du noch gechillt mit nem 4-Kerner zocken. Heute gehts entsprechend mit nem 6-Kerner und in einem Jahr willst du nen 8-Kerner haben.

Da bist Du etwas zu optimistisch.
Auch heute ist ein 4 Kerner mehr als ausreichend. Und nur weil ein paar andere Kerne benutzt werden, bedeutet das nicht, dass sie benötigt werden.
Zusätzlich kann man nicht einfach jeden Algorithmus einfach auf X Kerne aufteilen. Viele Dinge müssen in Games hintereinander ablaufen und können einfach nicht parallelisiert werden.

Stellaris nutzt jetzt auch alle 16 Threads von mir. Aber es läuft trotzdem bescheidener als mit ner alten 4 Kern CPU. Gleiche Ergebnisse habe ich mit jedem Spiel, außer Shadow of the Tomb Raider.
Mehr Kerne und "irgendein Support" dafür, bedeutet absolut gar nichts. Mit 6 Kernen kommt man sicher noch einige Jahre aus, wenn nicht sogar ein Jahrzehnt und mehr. Da muss etwas ganz anderes passieren, damit Spielroutinen auf einmal parallelisiert werden können. Und da sind Quanten und Zeitreisen in der Gleichung. Das dauert noch.
 
Nun ja, ich bin halt durch Star Citizen verwöhnt, wo halt bis zu 64 Threads ausgelastet werden *ohne* dass du davon einen Nachteil hast. Es trifft durchaus zu, dass einige Spiele bei Mehrkernverhalten langsamer werden als ohne. Das sieht man bei einigen Benchmarks, wo im Modus "SMT=off" höhere Frames erreicht werden. In anderen hingegen skaliert das Spiel schon besser. Dazu zwei Sachen:

Das hängt sowohl vom Windows Scheduler ab als auch in wie weit das Spiel dem Scheduler sagt, was er machen soll (anstatt "auto") und wie weit die Threads im Spiel tatsächlich miteinander verwoben sind. Es gibt Faustformeln für eine optimale Thread bzw. Kernanzahl abhängig von den möglich nutzbaren für Programmierer und es gibt Thread-Clustering (in 2'er Schritten) - wo dann absichtlich Abhängigkeiten in Paaren gebaut werden, um den besten Kompromiss aus Auslastung und Verteilung zu finden.

Das können bei weitem noch nicht alle Spiele gut und erst recht nicht frei skalierbar - bei den meisten geht das bis zu einer bestimmten Anzahl an Kernen gut und dann triffst du ne Mauer, wo du keinen Vorteil oder schlimmer noch, einen Nachteil von hast. Es geht durchaus - wie man an SC sieht - aber das braucht halt noch etwas. Da die Spiele aber jetzt schon damit anfangen - aka die Grundlogik ist schon drin, fehlt nicht mehr viel um den letzten Schritt auch noch zu gehen - deswegen mein Optimismus.

Ob wir tatsächlich 16 Kerne brauchen ist ne andere Frage. Ich denke auch in Zukunft wird die primäre Spiellgik auf nicht mehr als 4 Kernen ausgeführt werden, aber zusätzliche Spielchen - vor allem Grafikkeffekte, mehr NPCs, bessere Physikberechnungen oder schlichtweg größere Sichtweite - sind durchaus Sachen, die mir gefallen können.
 
Servus hab heute den 3700X auf nem Asrock X470 in betrieben genommen .. Windows 10 Frisch drauf und im Coretemp taktet er nicht runter hängt immer so mit allen Kernen bei 4350MHz rum !!

Energie Einstellunen ist das Ryzen aktiv ?

er wird im Idle somit auch recht Warm (bis morgen noch Boxed)

Jemand nen Tipp
 
Ob wir tatsächlich 16 Kerne brauchen ist ne andere Frage

wenin der pc mehr macht als nur gamen, sind Kerne mMn immer von Vorteil. Ich merke es beim Streamen, dass mein 5820k dass nicht mehr schafft zu streamen und gleichzeitig FPS zu generieren die 180+ sind, die 2080 schafft das. Jedoch will ich ende des Jahres nen 3950x im PC haben. Denn auch beim Rendern sind Mehrkerne von Vorteil = schneller fertig, wenn man schnell was rendern will
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh