AMDs Ryzen 7 3700X und Ryzen 9 3900X im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hier mal ein video mit Side by Side Inhalt

Schöner Test nur testet er nun Memory OC und MCE bei Intel gegen Stock DDR und PBO bei AMD
Sobald ich bei AMD dann Meory OC mache, sind wir wieder bei Stock Werte.. Es sind und bleiben Overall 7-9% egal wie sehr die Intel Fans sich auf die Hinterbeine und: Ja, aber! Sagen.
Solange hier nicht verstanden wird, dass Intel eben DDR 2666 nur sicherstellt, ist diese Diskussion müßig.
Dennoch nen guter Test, und er zeigt ja auch sehr gut, wie Papierdünn der Vorsprung ist.. Das mit dem deaktivierten HT im 9700K und weniger Threadhopping ist spannend..


@Holt:
Ganz ehrlich, du weisst genau was ich meine..Also Spaß dir solche Kommentare!
Intel Core i9-9900K, i7-9700K und i5-9600K im Test igor´sLAB

Und wenn wir mal ne Runde Produktiv werden, dann stehen da 80W Unterschied.. Bei einem 5,2GHz Intel (wenn es denn Rockstable ist) sind da schnell mal 250W zu sehen..
Also Spar dir deinen Kommentar einfach, du weisst ganz genau was ich meine -.-

IgorsLab schrieb:
Stabilitätstests mit Prime95, Cinebench oder gar irgendwelchen Spielen sind reiner Selbstbetrug und nichts wert. Das Gleiche gilt für den 3DMark, da die Zyklen alle viel zu kurz sind. Erst wenn ein System über Stunden in wechselnden Workloads wirklich fehlerfrei alle Tests absolvieren kann, dürfte man eine Übertaktung als wirklich gelungen und stabil betrachten. Was in der Praxis aber niemand macht, weil es viel zu zeitintensiv ist.

Allein schon deshalb fehlt mir der Glaube an all die kolportierten 5.x-GHz-Sensationsmeldungen mit Spannungsvorgaben von unter 1.4x Volt, bei denen kurzfristig irgendetwas so grandios wie nur möglich lief. Wenn es nachweisbar nicht gelingt, dies alles unter Volllast auch vernünftig zu kühlen und mit für den Alltagsbetrieb und für die Hardware ungefährlichen Spannungen zu betreiben, dann sind solche Zahlen einfach nichts wert. In die Tasche lügen kann ich mir selbst auch.

+1
 
Zuletzt bearbeitet:
Noch besser wäre, wenn man das Problem erst garnicht hätte: sprich Bios Default = exakt nach Vorgabe des Cpu Herstellers.
...
Aber das wäre woh zu einfach... Da übertaktet man lieber ohne Wissen des Nutzers einfach ab Werk... /facepalm
Der Grund warum die Mainboardhersteller dies machen, nämlich um in den Reviews mit der besseren CPU Performance zu glänzen, wird doch im Video auch genannt.

Von ner normalen SSD zu NVME ist mein System volle 1.3 Sekunden schneller gestartet. Also statt 12Sekunden, sind es nun im Schnitt 10,7.
Würde das also als vernachlässigbar ansehen.
Die Bootzeit hängt ja auch vor allem von der Zeit für die Initialisierung der HW ab und weniger von der Performance der SSD.

Da sich keine Redaktion die Mühe macht, denken die Leute ihre krasse AData sei genau so gut, weil SSD.....
Anandtech führt einige Benchmarks mit leerer und mit voller SSD durch und ist daher Pflichtlektüre vor dem Kauf einer SSD oder einer seriösen Empfehlung einer solchen.

OT: Und wie oft knallt man eine SSD randvoll, sodass man es merkt?!
So randvoll muss sie nicht sein um massive Performanceeinschränkungen zu erleben. Die meisten SSDs haben ja heute neben dem festen Pseudo-SLC Cachebereich auch noch dynamische Pseudo-SLC Caches. Bei der Intel 660p (und anderen) macht bei leerer SSD der dynamische Bereich über 90% des gesamten Pseudo-SLC aus, aber ab nur 75% Füllstand, ist nur noch der keine statische Bereich vorhanden! Bei anderen SSDs erfährt man diese Werte nicht, aber es dürfte dort ähnlich aussehen.
Für Heimanwender ist Optane halt (leider) nur eine Randerscheinung.
Das ist richtig, schon des Preises wegen.

Die QVC 860 wird sogar teilweise langsamer als eine HDD!
Eine normale Sicherung wird schon mit der QVC860 zum Erlebnis!
Die ist beim Schreiben langsamer, nachdem die paar GB Pseudo-SLC Cache voll sind, aber mal eherlich: Wer sich eine SSD mit QLC NAND gekauft hat um darauf Backups zu spiechern, was ja im Prinzip (je nach Häufigkeit und Art der Backups) eine schreibintensive Anwendung ist, der hat der Sinn und die vorgesehene Nutzung solcher SSDs nicht verstanden. Das fällt dann klar unter Fehlkauf und dafür kann die Hardware nichts.

Schöner Test nur testet er nun Memory OC und MCE bei Intel gegen Stock DDR und PBO bei AMD
Was ist nun PBO anderes als MCE, nur dass es eben offiziell von AMD kommt und MCE von den Boardherstellern? Wo sagt er eigentlich welche Einstellungen verwendet werden?

Außerdem steht da im Overlay ja bei allen für RAM 7200MHz (wieso auch immer, real sind 3600 schon nicht, denn wegen DDR sind es bei 3600er RAM auch nur 1800MHz, keine Ahnung wie man nun sogar auf eine 7200 Anzeige kommt), demnach ist das RAM bei Intel und bei AMD also OC, denn auch AMD gibt maximal 3200 frei.
Ganz ehrlich, du weisst genau was ich meine..Also Spaß dir solche Kommentare!
Intel Core i9-9900K, i7-9700K und i5-9600K im Test igor´sLAB
Bevor ich den Link öffene, verrate was er aussagen soll!
Und wenn wir mal ne Runde Produktiv werden, dann stehen da 80W Unterschied.. Bei einem 5,2GHz Intel (wenn es denn Rockstable ist) sind da schnell mal 250W zu sehen..
Produktiv und dann 5,2GHz übertakten und zugleich noch auf die Effizienz schauen? Wie unsinnig ist das denn!
 
Zuletzt bearbeitet:
Für alte anspruchslosere Spiele vielleicht die nicht mehr als 4 Kerne unterstützen.

Es gibt auch sehr aktuelle und noch nicht mal veröffentlichte Spiele, die auch keine 4 Kerne unterstützen (werden).
Und da handelt es sich definitiv nicht um anspruchslose Spiele, sondern gerade die CPU lastigen Games sind oft im Grunde SingleCore. Die anderen Cores mögen nicht idle sein, aber der komplexe Part wird und muss von einem einzelnen Core übernommen werden.
Nicht alles kann parallelisiert werden. Da kann man nicht mal den schwarzen Peter zu den Entwicklern schieben.

- - - Updated - - -

Ich kompilier damit meine Code Projekte, lasse Engines baken (UE/Unity, lightmaps, occlusion etc), ab und an etwas 3D Modellierung.

0815 User der nur etwas Office und Games macht, braucht natürlich keine dicke CPU. Ich behaupte frech, für 80%+ aller Gamer würd sogar ein 4c oder 6c unter 200€ jahrelang reichen. Aber wer mit seiner Maschine auch arbeitet (über Office hinaus) und moderne Software nutzt, wird durchaus mit Kernen etwas anzufangen wissen.

Kannst Du ins Detail gehen bei dem kompilieren?
Ich arbeite auch im Softwarebereich und kompiliere sicher dutzende Male am Tag. Mir wäre weder aufgefallen, dass das nun spürbar schneller geht (4790K -> 2700X), noch sind die Kerne irgendwie großartig ausgelastet oder überhaupt in Benutzung dabei.
Die Projekte gehen von sehr kleinen Bibliotheken, bis hin zu mehrere Gigabyte großen Codemonstern.
Auch die Engines, von denen Du sprichst, scheinen nur die GPU auszulasten bei mir (zugegeben aber nur Hobby nebenbei, nicht meine Arbeit).

Es kann schon sein, dass es (messbare) Unterschiede gibt, aber bemerkt man die im normalen Workflow? Was genau Kompilierst Du, dass Du einen Unterschied spürst?
 
@Holt:
Willkommen, in eurer Welt ;)

Ich sagte Desaströser Verbrauch, liefere Zahlen und du sagst: Nee ist so nicht.. Merkst du nicht mal, wie du dich selbst Widerlegst? Gleichzeitig reden die Leute hier bei Gaming von 5,2 Ghz (was laut Silicon Lottery nicht viele 9900K schaffen) um die letzen Prozent Leistung raus zu kitzen, aber dann wieder von Effizienz beim Produktiven.


Ich sage da wurde DDR4 3200 (OC) mit MCE (OC) gegen DDR 3200 (Stock bei AMD) mit PBO (OC) gestestet und du sagst es ist nicht richtig?
Dein Leseverständnis in allen Ehren, aber wenn dich AMD so aufregt, dann Meide doch uns Fans, anstatt mir Unwahrheiten in den Mund zu legen.

Sorry, ich lese lange genug mit, aber Sowas kann ich nicht für Voll nehmen. Das Netz ist Voll mit Gegenbeweisen, aber klar, Die Intel jünger wissen es besser..
Gratulation, die RAM Auswertung war vermutlich die GPU ;)

Und halte dich bitte auch mal dran :)
"Früher benutzte man im Diskurs sogenannte Argumente, heute wird man im Internet mit Scheiße beworfen, beschimpft, bedroht" Dieter Nuhr
 
Zuletzt bearbeitet:
Außerdem steht da im Overlay ja bei allen für RAM 7200MHz (wieso auch immer, real sind 3600 schon nicht, denn wegen DDR sind es bei 3600er RAM auch nur 1800MHz, keine Ahnung wie man nun sogar auf eine 7200 Anzeige kommt), demnach ist das RAM bei Intel und bei AMD also OC, denn auch AMD gibt maximal 3200 frei.

Die 7200MHz sind der Speichertakt von der verwendeten 2080.

Da stellt sich mir direkt die erste Frage zu dem Review von dem bekannten Clickbaiter and Faker Joker Productions. Wieso bencht der die CPUs mit einer 2080, obwohl ihm einen 2080ti zur Verfügung steht?

Dann fällt in dem Video auf, dass der VRAM-Verbrauch bei jedem Spiel bei den Intel CPUs so ~500MB höher ist. Warum ist das so? Wurden die überhaupt mit den gleichen Einstellungen getestet?
 
jetzt pack seinen offenen aufbau mal in nen relativ schlecht belüftetes case... tada, haben wir ganz schnell 100°c. auf dem chipsatz.

Und wegen ein paar "Deppen" müssen nun alle Käufer darunter leiden?
Naja das kennen wir ja schon aus anderen Bereichen...

- - - Updated - - -

Was macht Ihr mit den ganzen Kernen? Also ernst gemeinte Frage. Kann ja nicht jeder Videoschnitt machen hauptberuflich, oder?
(Und nein, die Frage ist nicht als "keiner braucht Zen2!" Seitenhieb gedacht. Ich wüsste auch nicht, wofür ich die 8 Kerne vom i9 nutzen könnte, der ja Kerngleich mit dem 3700X ist.)

Naja jeder User hat andere Anwendungsgebiete.
Ich geh jetzt mal nur auf Gaming ein.

In Jokers Video war ein Side to Side Vergleich, da hatte der 9700k (8 Kerner!) bei AC Odyssey teilweise 100% auf allen Kernen.
Mal als Denkanstoß ;)
Solange die Hardwareressourcen nicht so gut wie bei Konsolen genutzt werden, wird man auch deutlich stärkere Hardware brauchen.
 
In Jokers Video war ein Side to Side Vergleich, da hatte der 9700k (8 Kerner!) bei AC Odyssey teilweise 100% auf allen Kernen.
Mal als Denkanstoß ;)
Solange die Hardwareressourcen nicht so gut wie bei Konsolen genutzt werden, wird man auch deutlich stärkere Hardware brauchen.
Das ist auch ein Grund warum ich nen AMD 12+ kerner haben möchte weil da genug platz ist und die PS5 bekommt ja auch nen Ryzen 3000 8 kerner mit 16threads

Dennoch muss man aktuell sagen das ein 9700k der beste Gaming CPU ist.
Grade mit OC denke ich wird man mit nem 9700k verdammt gut unterwegs sein.
 
Zuletzt bearbeitet:
Ich sagte Desaströser Verbrauch, liefere Zahlen und du sagst: Nee ist so nicht..
Unterstelle mir nicht etwas gesagt zu haben, was ich nicht gesagt habe, denn natürlich kann man den Verbrauch eines 9900K auf 250W oder noch mehr bringen, aber man muss dies nicht und kann die Einstellungen im BIOS auch so wählen, dass der Verbrauch im Rahmen der TDP bleibt und verliert laut dem Review bei CB bei Games nur 1% Leistung.

Merkst du nicht mal, wie du dich selbst Widerlegst?
Nein, da du mir Aussagen unterstellst die ich nicht gemacht habe, kann ich mich nicht selbst widerlegen. Dies ist typsiches Trollverhalten, die Trolle unterstellen den Leute auch etwas um den Blödsinn dann gleich zu widerlegen und die Leute so lächerlich zu machen. Lächerlich sind aber nur die Trolle wie du und die landen bei mir auf der Ignoreliste, so wie du jetzt auch gleich nach diesem Post.

Gleichzeitig reden die Leute hier bei Gaming von 5,2 Ghz
Was habe ich mit dem zu tun, was die Leute reden? Ich rede hier ja nicht von 5,2GHz.

Ich sage da wurde DDR4 3200 (OC) mit MCE (OC) gegen DDR 3200 (Stock bei AMD) mit PBO (OC) gestestet und du sagst es ist nicht richtig?
Nein, ich habe geschrieben "steht da im Overlay ja bei allen für RAM 7200MHz", dies ist was anderes als zu sagen es wäre nicht richtig! Solche sprachlichen Feinheite sollte man schon kennen, aber offenbar kann man dies nicht von jedem erwarten und sei es nur aus Boshaftigkeit.
Gratulation, die RAM Auswertung war vermutlich die GPU ;)
Kann sein, da ich kein Games bin, kenne ich mich mit diesen Tools nicht aus.
Dein Leseverständnis in allen Ehren, aber wenn dich AMD so aufregt, dann Meide doch uns Fans, anstatt mir Unwahrheiten in den Mund zu legen.
Beim "Unwahrheiten in den Mund zu legen" brauchst du von mir nun wirklich keine Konkurrenz zu befürchten, sowas mache ich nämlich nicht.

Ab lese ich nichts mehr, antworten ist also sinnfrei und setzt mich besser auch gleich deine Ignoreliste und selbst wenn nicht, zitiere mich bitte nie, nie wieder!
 
Ich wusste es, Holt und seine Ignoreliste <3
Diskussionen mit ihm sind leider sinnfrei, wenn man gegen ihn argumentiert wird man halt einfach zensiert und Mundtot (für ihn) gemacht.

@Powerplay, ich habe damals den Fehler gemacht und mir einen i5 gekauft, weil reicht ja im Moment...
 
In Jokers Video war ein Side to Side Vergleich, da hatte der 9700k (8 Kerner!) bei AC Odyssey teilweise 100% auf allen Kernen.
Mal als Denkanstoß ;)

Dem seine Videos sind doch immer für einen Lacher gut.

SOTTR/RTX 2080/3700X in 1080p high 97FPS

Mein i7 3930K/GTX 1080 Setup 97FPS.............aber nicht in High oder Ultrahigh, sondern mit TAA/maxed. Schon bei seinen früheren Videos hatte er immer wieder unglaubliche Ergebnisse.
 
Kannst Du ins Detail gehen bei dem kompilieren?
Ich arbeite auch im Softwarebereich und kompiliere sicher dutzende Male am Tag. Mir wäre weder aufgefallen, dass das nun spürbar schneller geht (4790K -> 2700X), noch sind die Kerne irgendwie großartig ausgelastet oder überhaupt in Benutzung dabei.
Die Projekte gehen von sehr kleinen Bibliotheken, bis hin zu mehrere Gigabyte großen Codemonstern.
Auch die Engines, von denen Du sprichst, scheinen nur die GPU auszulasten bei mir (zugegeben aber nur Hobby nebenbei, nicht meine Arbeit).

Es kann schon sein, dass es (messbare) Unterschiede gibt, aber bemerkt man die im normalen Workflow? Was genau Kompilierst Du, dass Du einen Unterschied spürst?

Kompilieren tu ich verschiedenste Größen, hauptsächlich für die Arbeit. Nutze VS2015 und 2017, Multithread Compiler enabled. Ich seh da durchaus mehrere Kerne in Gebrauch beim Kompilieren. Mein Rechner in der Arbeit hat noch nen i7 6700 drin, mein 1700 ist da schon merkbar schneller fertig.

Unity/UE nutzen die CPU, wenn man Baking machen lässt ;) Aka statische Lightmaps berechnen lassen, Occlusion culling volumes, navmesh berechnen, build/deploy packaging etc. Das läuft eigentlich alles auf der CPU, höchstens lightmaps kann man im experimental branch von der GPU machen lassen. Lightmapping hab ich früher über Nacht auf meinem X5650 laufen lassen, weils den damaligen i5 4670 komplett in die Knie gezwungen hat. Der 1700 macht das recht angenehm nebenbei, kann mir dabei ja nen Thread für den Rest freihalten.
 
Schöner Test nur testet er nun Memory OC und MCE bei Intel gegen Stock DDR und PBO bei AMD
Sobald ich bei AMD dann Meory OC mache, sind wir wieder bei Stock Werte.. Es sind und bleiben Overall 7-9% egal wie sehr die Intel Fans sich auf die Hinterbeine und: Ja, aber! Sagen.

Siehe zum Vorsprung auch hier:
UPDATE: Average Percent Difference | Data from 12 Reviews (29 Games) (sources and 1% low graph in comment) : Amd

Ist ganz gut zusammengestellt. Es läuft auf grob 4% Rückstand in den avg. fps und ~5,5% in den 99th min fps hinaus. Wohlgemerkt zwischen 3900X und 9900K.

avg: https://i.redd.it/elopkqubdj931.png
99th: Imgur: The magic of the Internet

Dafür das Intel den 9900K noch immer als unangefochtenen König des Gaming bezeichnet, ist das schon seeeehr knapp. Und dann wäre da ja noch der fette Vorsprung in Anwendungen für den AMD :d
 
Zuletzt bearbeitet:
jetzt pack seinen offenen aufbau mal in nen relativ schlecht belüftetes case... tada, haben wir ganz schnell 100°c. auf dem chipsatz.

und dann packst du (bzw eigentlich sollten es die Hersteller tun) anstatt eines 2 Euro billig Passivkühlkörpers von Ebay einen ordentlich Kupferkühlkörper mit richtigen Kühlfinnen und damit entsprechend großer Oberfläche um die Wärme an die Umgebungsluft abzugeben auf den Chipsatz... tada, haben wir selbst in einem nur vom cpu Kühler belüfteten Gehäuse auch keine ungesunden Temperaturen mehr am Chipsatz.

aber ein solcher brauchbarer Kupferkühlkörper kostet eben wesentlich mehr Geld als der Pfusch mit Aluplatte und billig Lüfter und aus genau aus diesem einem Grund haben wir den Mist auf 99,9% der Boards - und das lässt sich nur ändern indem die HErsteller an den Verkaufszahlen merken Hoppla alles lassen sich die Endkundendödel auch nicht vorsetzen, und da hab ich halt leider meine Zweifel das dieses Zeichen kommt.

Also machen die Hersteller weiter mit dem Mist - diesmal kann man es ja dank Amd noch umgehen da X470 (wenn denn die Biose mal vernüftig laufen) keinerlei Nachteil (kein pcie 4.0 ist für 99,9% der User aktuell und wahrscheinlich selbst in 3-4 Jahren noch kein Nachteil) - aber was ist wenn mal für die nächste Cpu zwingend ein neuer Chipsatz und/oder Sockel nötig ist - dann dürfen wir den Mist kaufen und dann selber basteln und die Garantie verlieren :stupid: - also bei X570 in der derzeitigen Verkaufsform geht mir wirklich jedes mal wenn ich darüber nachdenke der Blutdruck in ungesunde Bereiche :grrr::motz:

hat eigentlich irgendwer schon ein paar Testwerte oder gar ein komplettes Review mit nem 3800X gefunden ?
 
Zuletzt bearbeitet:
Ich wusste es, Holt und seine Ignoreliste <3
Diskussionen mit ihm sind leider sinnfrei, wenn man gegen ihn argumentiert wird man halt einfach zensiert und Mundtot (für ihn) gemacht.

@Powerplay, ich habe damals den Fehler gemacht und mir einen i5 gekauft, weil reicht ja im Moment...

Welche Argumente hat @Unrockstar denn da gebracht ? Er redet von desaströsem Verbrauch des 9900K, ja bei welchem Workload ? Bei AVX-Last ja, im Idle und beim Gaming kann man
wohl kaum von desaströs sprechen. Der 9900K verliert ja etwa 1 % Leistung wenn man ihn exakt auf die vorgegebenen 95W TDP eingrenzt, spricht man da jetzt immer noch von einem desaströsen Verbrauch ?
Und überhaupt sind manche Argumente von Unrockstar einfach lächerlich, siehe:

Sobald ich neben dem Spiel noch bissl Inet, twitch und discord laufen habe, brauchen wir bei Intel nicht mehr drüber reden.
:stupid:
 
Gibt es vergleichbare Tests zwischen Zen+ und Zen 2 betreffend DDR4 Verhalten zwischen 3200 und 3600 CL 14 bei Spielen?
Im speziellen zwischen dem 2600x und dem 3600x / 3700X.

Ich finde einiges betreffend 3200 und 3600 aber dann immer mit Speicher von CL 16 bis 18 und meist auch nur für den 3700x / 3900x.

Was mich interessiert ist der Mehrwert zwischen 2600x mit 3600 CL14 im Vergleich zum 3600x mit 3600 CL14 Speicher bei Spielen im allgemeinen, da ich die CPU auf einer 470 Plattform preislich fast 1:1 austauschen könnte, ich mir die Frage stelle, ob sich aber der Aufwand alles umzubauen lohnt.
 
Da mich der 3900er immer mehr reizt (der 3950 ist ja noch nicht draußen), mal eine Frage:

Für mich kommen beim nächsten Rechner nur 128GB Ram in Frage.
Allerdings scheinen alle passenden Boards für die neuen CPUs maximal vier Slots zu haben - 32GB Riegel mit 3200 oder 3600 Mhz find ich über die gänigen Vergleichsportale aber gar nicht erst... gibt's da schlichtweg noch nichts?

Edit: Und wie sehr machen sich CL19, 18, 17, etc bemerkbar?
 
Zuletzt bearbeitet:
ist ne Workstation?
 
Welche Argumente hat @Unrockstar denn da gebracht ?
Keine, sondern er trollt nur, eben weil er keine Argumente hat, also unterstellt er mir Aussagen die ich nicht getätigt habe um diese auch gleich zu widerlegen, was typsiches Trollverhalten ist. Deshalb ist er auf meine Ignorieliste gelandet, wie jeder andere der dort ist, aber nicht wegen irgendwelcher Argumente. Hätten diese Leute wirklich Argumente gehabt, hätten sie nicht trollen müssen und wären wohl nicht dort gelandet, aber die Aussage z.B. bzgl. der desaströsen Leistungsaufnahme ist nun einmal falsch, da jeder die Leistungsaufnahme über die BIOS Einstellungen selbst in der Hand hat und die Tatsache das selbst bei festem Power Limit von 95W die Leistung in Spielen nur um 1% gefallen ist, zeigt doch das die Leistungsaufnahme bei der Default Einstellung des Boards dann im Schnitt beim Spielen auch kaum höher als diese 95W gewesen sein dürfte, da Spiele eben selten alle Kerne voll auslasten. Sicher kann man aber auch Einstellungen finden bei denen schon im Idle mehr verbraten wird, aber dann sollte jedem klar sein wo die Ursache dafür ist.

@Stock ist auch so ein Thema wo man drüber streiten kann, ob z.B. mit PBO noch darunter fällt. Dies ist offiziell von AMD und erhöht den Takt und die Leistungsaufnahme auf Wert weit über der TDP. Wenn bei einem Intel Board der Boardhersteller dies von sich aus macht, ist es nicht @Stock, aber weil AMD selbst das PBO gebaut hat, ist es fair dies zu nutzen und trotzdem gegen eine Intel CPU mit 95W LT und 120W ST (8s) Limit zu vergleichen? Diese Frage muss jeder für sich beantworten, aber die Definition was nun @Stock ist, wird durch die ganzen Boosttechnologien nicht einfacher und wurde durch PBO nochmal schwerer.
 
ist ne Workstation?

Bezieht sich die Frage auf meinen Post oder den darüber? ;)

In meinem Fall: Ja, es soll eine neue Workstation her. Für Cinema 4D Modelling (zukünftig auch mit Particles u.ä.) - GPU Rendering soll über eine zweite 2070 ablaufen.
Mein jetziger i5820K ist leider ne Krücke im CPU-Rendern und bei vielen Objekten; übertakten will ich mangels KnowHow nicht.
 
Ich wusste es, Holt und seine Ignoreliste <3
Diskussionen mit ihm sind leider sinnfrei, wenn man gegen ihn argumentiert wird man halt einfach zensiert und Mundtot (für ihn) gemacht.
Ist doch perfekt so ;)
In 1-2 Monaten postet er nix mehr weil alle auf seiner Liste sind ^^
Win für alle ;)
 
3600 ist da. Ich bin dann mal benchen.
 
250 Watt hast du vielleicht mit AVX oder FMA3, 5,2Ghz 9900k liegt bei guter CPU unter 200Watt NonAVX.
InGame erreicht du eigtl. keine 100W.

@OiOlli
Falls du die Forza Demo runterladen könntest und im Forza Benchmark posten würdest wäre cool, mit oder ohne OC ist erstmal egal aber mit angeben wäre gut Ram Einstellung und CPU Takt.
 
Zuletzt bearbeitet:
Naja 8 kerne bringen schon jetzt bei einigen spieln recht viel - gibt sogar einige die auch schon von 12 profitieren. Konsolen haben ja auch 8 kerne. 12 Kerne is halt future proof für die nexten jahre. Ich zb brauchs für AUDIO-Tools wie FL Studio und Steinberg CUBASE - die profitieren sehr davon bzw die latenzen kannst halt extrem niedrig halten. CAD/CAM wird sicher auch von profitieren.

Aber sind wir ehrlich vor 2 jahren sagten noch alle 4 Kerne zum gamen sind genug und die kacken dann halt jetzt ab in spielen wie zb DIVISION2 usw.

Lag doch einfach nur an INTEL das nicht für mehr optimiert worden ist und dank AMD in den konsolen schauts da nun besser aus.
 
Und wegen ein paar "Deppen" müssen nun alle Käufer darunter leiden?
Naja das kennen wir ja schon aus anderen Bereichen...

- - - Updated - - -



Naja jeder User hat andere Anwendungsgebiete.
Ich geh jetzt mal nur auf Gaming ein.

In Jokers Video war ein Side to Side Vergleich, da hatte der 9700k (8 Kerner!) bei AC Odyssey teilweise 100% auf allen Kernen.
Mal als Denkanstoß ;)
Solange die Hardwareressourcen nicht so gut wie bei Konsolen genutzt werden, wird man auch deutlich stärkere Hardware brauchen.

wenn diese deppen in den USA sitzen, und klagen, kanns schnell, ganz teuer werden... ergo wird auf nummer sicher gegangen, und ja, wegen ein paar weniger, müssen alle "leiden"
 
@realmad
CAD profitiert in erster Linie vom hohen Takt.
Kerne sind total untergeordnet!


24 Jahre Genocid in Srebrenica (11.7.1995)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh