[Kaufberatung] Kaufempfehlung MB+CPU+RAM (intel)

stormwind81

Experte
Thread Starter
Mitglied seit
16.07.2015
Beiträge
122
Hallo,

nach langem hin und her glaube ich mich auf diese 3 Komponenten festgelegt zu haben um meinen i9-7900x aufzurüsten.
Würde gerne eure Meinungen oder Erfahrungen lesen ob diese drei Komponenten gut zusammenpassen und ob ich eventuell etwas beachten sollte!?

CPU - i5-13600K
CPU-Kühler - EKWB Velocity² - Waku - wird sowieso gekauft
GPU - 3080TI (bereits vorhanden)
Mainboard - Gigabyte Z790 Aero G
RAM - 32GB - 2x16 - 7200Mhz - G.Skill Trident Z5 schwarz CL34-45-45-115 (steht in der Kompatibilitätsliste des MB)


Vielen Dank im Voraus für eure Vorschläge!

Anbei noch der Fragebogen:

1. Möchtest du mit dem PC spielen? Wenn ja, was?


Cyberpunk 2077, Witcher 3, Call of Duty, Black Desert Online, Elden Ring, ect.

3. Hast du besondere Anforderungen oder Wünsche (bestimmte Marken und Hersteller, Overclocking, ein besonders leiser PC, RGB-Beleuchtung, …)?

Eigentlich wollte ich auf 13900K aber der sweetspot von Preis/Leistung liegt wohl beim 13600K. Ich möchte vor allem langlebiege und qualitativ hochwertige Komponenten die nicht überteuert sind. Mein PC rennt 24/7! Tag und Nacht.
Beim Speicher habe ich gesehen dass es doch einen Unterschied macht. Wenn ich günstigen 6000er kaufe und in 1-2 Jahren vielleicht auf 64GB aufrüste, dann möchte ich die alten Riegel nicht wegschmeißen müssen weil ich dann auf 7200 Mhz aufrüste.

4. Wieviele und welche Monitore möchtest du nutzen? Modell, Auflösung, Bildwiederholfrequenz (Hertz)? Gsync/FreeSync? Wieviele FPS willst du sehen?

3 Monitor Setup. 3 x 27"

6. Wie viel Geld möchtest du ausgeben?

max. 1000€ für MB+CPU+RAM. Es fallen dann noch ~200€ für den CPU Kühler an und eventuell muss ich mir noch eine 2TB SSD zulegen.

7. Wann soll die Anschaffung des PC erfolgen?

egal

8. Möchtest du den PC selbst zusammenbauen oder zusammenbauen lassen (vom Shop oder von Helfern (Liste als Sticky))?

als PC-Enthusiast mache ich das natürlich selber!
Irgendwann später möchte ich die CPU auch noch deliden um die CPU noch besser zu kühlen mit meiner custom waku. (einfach nur so aus Spaß). Hab ich mit meiner derzeitigen CPU auch gemacht.
Mir ist es wichtig zumindest an den FPS so viel Potential rauszuholen aus der Kombi wie möglich. Also €/fps ist mir einerseits sehr wichtig. Aber ich will auch nicht einfach nur das günstigste kaufen.
Wichtig: Strom-Verbrauch ist mir absolut egal. Die CPU kann so viel Strom fressen wie sie will! Einzig allein die Hitze-Entwicklung spielt bei mir eine Rolle.
Ein 13900K wäre zwar nice, aber nur dafür um statt 120fps dann 132fps zu haben für fast 300€ mehr....naja!

Wie gesagt, danke mal für euren Input! Bin schon gespannt!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
RAM - 32GB - 2x16 - 7200Mhz - G.Skill Trident Z5 schwarz CL34-45-45-115 (steht in der Kompatibilitätsliste des MB)
Schau Mal bei gskill, die haben soweit ich weiß andersherum auch eine Kompatibilitätsliste.
Das sollte die Sicherheit erhöhen das auch 7200 cl34 XMP läuft.
 
Höhere Speeds bedeuten nicht gleichzeitig auch mehr fps, wird dir vermutlich bekannt sein, da du direkt zu 7200er greifen möchtest.
 
Also spricht soweit nichts gegen mein Setup? Preis/Leistung werde ich es kaum besser hinkriegen , oder?
Weil wenn ich auf 7600 oder 8000Mhz will muss ich ein anderes Board nehmen und der Speicher kostet dann auch fast 50% mehr.
Bei DDR5 wird sich vielleicht in 1-2 Jahren ja noch einiges tun und wenn ich dann auf 64GB umsteige oder mir nen stärker CPU kaufe dann hätt ich nur ungern in die falschen Speicher investiert.
Das Board scheint auch ganz ok zu sein.
Mein Kriterium dafür war Z790 mit PCie 5.0 und dem ALC1220 Soundchip. Das war mir wichtig. Und halt viele M.2 slots.
 
Habe gerade eine Seite gefunden die Benchmarks in Spielen für die verschiedensten Hardware-Konstelationen zeigt. (https://www.gpucheck.com/)

Darin hab ich dann meinen intel i9-7900x mit dem neuen Setup i5-13600 verglichen und festgestellt dass ich kaum Performance gewinne haben werde.
Also in Cyberpunk 2077 werden ich dann einfach statt ~90fps ~98fps haben, und in anderen Spielen hält sich der Unterchied ähnlich in Grenzen.
Naja für 1000€ invest frag ich mich jetzt wirklich ob ich nicht lieber einfach derzeit etwas in eine bessere Kühlung investieren, die CPU etwas übertakte und dann erst in 1. Jahr aufrüsten soll wenn die Performance-Gewinne höher sind.
Ich denke zwar dass mein i9-7900x meine 3080TI nach wie vor hinterherrennt aber dennoch für 4.6Ghz takt derzeit, ziemlich gute Performance hinterlegt. Is halt auch eine 1000€ CPU!
Alles natürlich sehr Subjektiv.
 
die werte erscheinen mir irgendwie nicht schlüssig.
habe aus dem stehgreif noch keine andere seite zum vergleich, aber rein von architektur und höherer frequenz sollte der 13600 merklich schneller sein.

in welcher auflösung spielst du denn? das geht aus deiner angabe der monitore nicht hervor.

edit:

das habe ich nun gefunden was mir erstmal grundsätzlich realistischer erscheint:

 
Zuletzt bearbeitet:
die werte erscheinen mir irgendwie nicht schlüssig.
habe aus dem stehgreif noch keine andere seite zum vergleich, aber rein von architektur und höherer frequenz sollte der 13600 merklich schneller sein.

in welcher auflösung spielst du denn? das geht aus deiner angabe der monitore nicht hervor.

edit:

das habe ich nun gefunden was mir erstmal grundsätzlich realistischer erscheint:

Ich spiele zu 99% auf 2K, also 2560 x 1440 auf meinem main Monitor mit 240Hz bzw 170Hz haben die anderen!
 
Zuletzt bearbeitet:
danke! und vieviel hz hat der monitor?
 
die werte erscheinen mir irgendwie nicht schlüssig.
habe aus dem stehgreif noch keine andere seite zum vergleich, aber rein von architektur und höherer frequenz sollte der 13600 merklich schneller sein.

in welcher auflösung spielst du denn? das geht aus deiner angabe der monitore nicht hervor.

edit:

das habe ich nun gefunden was mir erstmal grundsätzlich realistischer erscheint:

Den Test auf technical.city finde ich dagegen unbrauchbar. Oder ich bin zu doof die Seite zu bedienen.
Die einzige Werte die ich ablesen kann sind die Benchmark-Werte in Benchmark-Programmen selbst.
Wenn man runterscrollt zu den Spielen sagt er zwar etwas von 84% aber es stehen keine FPS dabei. Man hat keine Ahnung ob diese Tests auch gelaufen sind oder er nur eine Nummer rausspuckt die eigentlich nichts sagt!
Benchmark-Messungen sind toll aber mich interessieren weniger wie viele Punkte meine CPU und GPU in 3DMark haben, weil das Spiele ich nicht, ich lege vorwiegend nur wert auf ingame Benchmarks!
Wenn du verstehst was ich meine. Deshalb suche ich meistens nur nach echten Spiele-Messungen! Klar 3DMark Cinebench und co sind gut für eine generelle Übersicht wie stark die CPU sein kann. Keine Frage.

danke! und vieviel hz hat der monitor?

Sorry, mein Fehler! Hätt ich gleich posten sollen, 240 Hz. bzw 170Hz die anderen
 
Zuletzt bearbeitet:
Ich spiele zu 99% auf 2K, also 2560 x 1440 auf meinem main Monitor.
Schau dir Mal diesen Thread an.

Dann mach Mal den Test bei dir aus Abschnitt 4.
Also Zocken mit minimaler Auflösung, herausfinden wo das aktuelle Limit der CPU ist.

Und dann suche einen Benchmark zum 13600/13700/13900 in niedriger Auflösung, um ein Gefühl zu bekommen wo deren CPU Limit etwa liegt.

Dann bekommst du ein Gefühl was du auf der CPU Seite durch das Upgrade erwarten kannst.

Probiere es einfach aus.
Als Referenz könntest du CS:GO nehmen für hartes Single core limit und rohe Rechenpower wo Architekturänderungen im Chip eher nicht relevant sind.

Und für was komplexes/modernes kannst du ja schauen was du hast und spielst und was du finden kannst.
Zu Cyberpunk und Eldenring sollten sich CPU benchmarks (720p!) finden lassen, die kannst du ja nachstellen für einen direkten 1:1 Vergleich.
 
Zuletzt bearbeitet:
Den Test auf technical.city finde ich dagegen unbrauchbar. Oder ich bin zu doof die Seite zu bedienen.
Die einzige Werte die ich ablesen kann sind die Benchmark-Werte in Benchmark-Programmen selbst.
Wenn man runterscrollt zu den Spielen sagt er zwar etwas von 84% aber es stehen keine FPS dabei. Man hat keine Ahnung ob diese Tests auch gelaufen sind oder er nur eine Nummer rausspuckt die eigentlich nichts sagt!
Benchmark-Messungen sind toll aber mich interessieren weniger wie viele Punkte meine CPU und GPU in 3DMark haben, weil das Spiele ich nicht, ich lege vorwiegend nur wert auf ingame Benchmarks!
Wenn du verstehst was ich meine. Deshalb suche ich meistens nur nach echten Spiele-Messungen! Klar 3DMark Cinebench und co sind gut für eine generelle Übersicht wie stark die CPU sein kann. Keine Frage.



Sorry, mein Fehler! Hätt ich gleich posten sollen, 240 Hz. bzw 170Hz die anderen
sie ist nicht optimal, das ist richtig... aber bei deiner verlinkten seite können die werte (die auf den ersten blick natürlich besser lesbar erscheinen) niemals hinkommen.
der 13600k ist deutlich schneller als der 7900x.

wenn die cyberpunk als referenz annimmst und im idealfall auch hast, dann bitte wie lexi bereits sagt, teste es in 720p auf dem 7900x und dann vergleiche es in diversen tests mit den werten des 13600k.
real kommt dann natürlich von oben noch deine grafikkarte als "bremse" dazu, aber auch zu einer 3080ti sollte es genug werte im netz bei dem spiel geben.

das ist die beste möglichkeit zu sehen wie groß oder auch klein ein upgrade wäre.
 
720p Vergleiche bringen halt nix, außer zu schauen wann er in CPU Limit ist.

Wenn er beim Zocken ständig im GPU Limit ist, bringt ihn das rein gar nix. Oder sehe ich das falsch? :unsure:
 
es gilt zu klären wo er beim prozessor steht und dann wo er bei der grafikkarte steht.

bei 240hz wird es aber bei beiden durchaus eng werden.
 
720p Vergleiche bringen halt nix, außer zu schauen wann er in CPU Limit ist.

Wenn er beim Zocken ständig im GPU Limit ist, bringt ihn das rein gar nix. Oder sehe ich das falsch? :unsure:
Ist korrekt.
Wenn die Erkenntnis ist, dass die CPU nicht dass Problem ist, sondern die 3080ti zu schwach für die Anforderungen ist, dann ist das auch OK.
Die Tests um zur Erkenntnis zu kommen sind dennoch die gleichen.
 
Zuletzt bearbeitet:
Was versprichst du dir denn zB von PCIe 5.0 auf dem Mainboard? Nur mal so als Gedankenspiel: Du besitzt momentan eine 3080 Ti. Die aktuellere 4090 ist in etwa doppelt so schnell wie deine Karte und setzt prinzipiell auf den PCIe 4.0 Standard. Tests zeigen aber deutlich, dass selbst die 4090 von der letzten (!) Generation, also PCIe 3.0, nur absolut im Minimalbereich (oft sogar innerhalb der Messtoleranz) ausgebremst wird. Wir reden hier im Schnitt von weniger als 2% Verlust, in FPS gerechnet je nach Settings oftmals Null (!) bis 2.

D.h. du müsstest dir sehr wahrscheinlich den Nach-Nachfolger der 4090 für dann irgenwann (übertrieben) geschätzte 4.000,-€ holen und selbst die würde von PCIe 4.0 sehr wahrscheinlich ebenfalls nur um genau diese max. 2% eingebremst. Bei den M.2 NVMes sieht es noch schlechter aus. Zum einen kannst du die von "außen" (also über zB USB-Geräte) gar nicht wirklich mit ausreichend vielen bzw. großen Daten versorgen, dass die Geschwindigkeit jemals für dich relevant wird, zum anderen merkst du im Normalbetrieb den Unterschied sowieso nicht. Und auch hier gibt es bereits Tests, die deutlich machen, dass bei zukünftigen Features wie Direct Storage ab PCIe 3.0 kein enormer Unterschied mehr besteht. Ganz zu schweigen davon, dass ja bereits einige PCIe 4.0 NVMes heute schon unter Vollast Temperaturprobleme haben und man sich ggf. mit einer neuen PCIe 5.0 NVMe sogar noch einen nervigen kleinen Lüfter ins Case holt...
 
Danke, ihr habt mich auf eine gute Idee gebracht. Werde in Cyberpunk 2077 mal meine settings notieren. Ich glaube ich spiele mit RT enabled und Ultra Quality aber ich bin mir gerade nicht sicher. Deshalb werde ich es später nochmal checken.
Dann kann ich schauen was meine max. FPS sind und vergleiche es dann mit anderen 3080TI Tests auf Youtube. Sollte ich ähnliche Werte haben als Leute mit neueren besseren CPU's, dann weiß ich ja das meine CPU kein Bottleneck ist. Derzeit habe ich sie ja auch nur von 4.5 auf 4.6 getaktet. Meine GPU ist schon am limit mit 150+ auf GPU und +400 auf Memory. Alles darüber und Cyberpunk stürtzt ab. Egal welche Spannung ich einstelle. Meine 3080TI kann einfach nicht mehr! leider!
Beitrag automatisch zusammengeführt:

Was versprichst du dir denn zB von PCIe 5.0 auf dem Mainboard?
Nix. Ist nur vorausschauend und zukunftsorientiert gedacht. Ich kaufe immer so, dass ich schaue das die neuesten Architektur-Versionen drauf sind. Ich könnte ruhig ein 4.0 nehmen aber irgendwo muss jeder für sich persönlich entscheiden warum er das XYZ-F board nimmt und nicht das XYZ-G. Die Auswahl an Mainboards ist momentan so gewaltig groß es ist fast zum grausen! Schön wars noch als man höchsten entscheiden musste, Gigabyte, Asus oder MSI? ;)
Wenn du aber einen konstruktiven besseren Vorschlag hast welches Board ich nehmen soll, und begründen kannst warum, dann bin ich ganz Ohr!
 
Zuletzt bearbeitet:
Danke, ihr habt mich auf eine gute Idee gebracht. Werde in Cyberpunk 2077 mal meine settings notieren. Ich glaube ich spiele mit RT enabled und Ultra Quality aber ich bin mir gerade nicht sicher. Deshalb werde ich es später nochmal checken.
Was mir dazu noch einfällt:
Lass Mal deine Einstellungen alle gleich, aber mach in cyberpunk DLSS balanced an.

Gehen die FPS hoch?

Gehen sie mit DLSS performance noch weiter hoch?

Dafür musst du nix vergleichen, sondern nur 3 Klicks machen.
FPS ohne DLSS?
FPS DLSS balanced?
FPS DLSS performance?

Da solltest du am schnellsten zum Ergebnis kommen
 
Zuletzt bearbeitet:
Was mir dazu noch einfällt:
Lass Mal deine Einstellungen alle gleich, aber mach in cyberpunk DLSS balanced an.

Gehen die FPS hoch?

Gehen sie mit DLSS performance noch weiter hoch?

Dafür musst du nix vergleichen, sondern nur 3 Klicks machen.
FPS ohne DLSS?
FPS DLSS balanced?
FPS DLSS performance?

Da solltest du am schnellsten zum Ergebnis kommen
DLSS 3.0 können nur 4080er Karten aktivieren.

DLSS ultra performance - 106 fps
DLSS performance - 101 fps
DLSS balanced - 91 fps
DLSS quality - 82 fps
DLSS off - 51 fps


*hab eine willkürliche Szene genommen für die Messung, kein Benchmark, sondern einfach rumgelaufen wo bissl was los is im Spiel.
 
DLSS ultra performance - 106 fps
DLSS performance - 101 fps
DLSS balanced - 91 fps
DLSS quality - 82 fps
DLSS off - 51 fps
offensichtliches GPU Limit.
Deine CPU macht mindestens 106 FPS.
Wenn du mehr willst - schmeiß die 3080ti raus und nimm ne 4090.
 
Zuletzt bearbeitet:
offensichtliches GPU Limit.
Deine CPU macht mindestens 106 FPS.
Wenn du mehr willst - schmeiß die 3080ti raus und nimm ne 4090.
Also gut, bedeutet also meine Ursprüngliche Entdeckung, ich werde mit nem 13600K nicht viel mehr fps haben, war korrekt.

Habe jetzt noch 3080TI vs 4090 und bei gleicher CPU ( i9-7900x ) verglichen.

Und ja, der fps Gewinn dort is massiv.
Muss wohl irgendwie ganz rasch meine wassergekühlte 3080TI loswerden. hehe
Ist schon gelistet und bereits zum verkauf!
Also Danke für die Hilfe soweit.

*man so gewohnt alles auf english zu schreiben, musste glat alles übersetzen.
 
Zuletzt bearbeitet:
Not sure what that website should be or should tell, if you are aware of the concept of CPU limited vs GPU Limited you can simply check the limits for a 4090 and a 7900x individually - you will get the lower one as display output, with either the CPU doing some idling or GPU doing some idling.
 
Not sure what that website should be or should tell, if you are aware of the concept of CPU limited vs GPU Limited you can simply check the limits for a 4090 and a 7900x individually - you will get the lower one as display output, with either the CPU doing some idling or GPU doing some idling.
Naja du musst dir die Seite schon anschauen wenn wir darüber reden wollen! Einfach runterscollen bis zu den Spielen, dann siehst du die Werte und den Unterschied.
Es zeigt wie viel meine CPU schafft mit einer 3080TI und mit einer 4090. Der Boost ist größer als wenn ich nur die CPU tausche.

6KZykwG.png
 
Zuletzt bearbeitet:
Einfach runterscollen bis zu den Spielen, dann siehst du den Unterschied. Es is größer als wenn ich die selbe GPU nehme aber die CPU tausche.
Das sag ich doch die ganze Zeit seit deinem DLSS Test.
Du bist im GPU Limit, also tausch die GPU!

Wenn du den Link in Beitrag #10 gelesen hättest, bräuchtest du diese seltsamen Vergleichswebseiten nicht.
Dann hättest du das Wissen um zu sehen was du in Beitrag #18 gemessen hast. (Okay vieleicht fehlt das Verständnis was DLSS ist und was es tut)
 
Das sag ich doch die ganze Zeit seit deinem DLSS Test.
Du bist im GPU Limit, also tausch die GPU!

Wenn du den Link in Beitrag #10 gelesen hättest, bräuchtest du diese seltsamen Vergleichswebseiten nicht.
Dann hättest du das Wissen um zu sehen was du in Beitrag #18 gemessen hast. (Okay vieleicht fehlt das Verständnis was DLSS ist und was es tut)
Ich glaub wir reden hier total aneinander vorbei!
Ich weiß ja schon seit Post +18 das du absolut recht hast und ich im GPU Limit bin.
Mir geht es darum das die Seite zeigt, ganz schön und einfach was sache is, braucht man nichtmal einen DLSS Test machen. Bin nicht immer zu Hause um zu testen, deswegen ist für mich so eine Seite gold-wert.
 
Zuletzt bearbeitet:
Nix. Ist nur vorausschauend und zukunftsorientiert gedacht. Ich kaufe immer so, dass ich schaue das die neuesten Architektur-Versionen drauf sind. ;)
Wenn du aber einen konstruktiven besseren Vorschlag hast welches Board ich nehmen soll, und begründen kannst warum, dann bin ich ganz Ohr!
Eine mögliche Begründung wäre zB, dass sich PCIe 5.0 x16 für die GPU und PCIe 5.0 x4 für die NVMe super anhört, man aber dabei schnell vergisst, dass keine mögliche Intel-CPU auf dem Sockel überhaupt ausreichend PCIe 5.0 Lanes mitbringt, um beide Schnittstellen zu versorgen. 20x PCIe 5.0 müsste dafür ein 13600K oder eben der maximal mögliche 13900K mitbringen. Tun sie aber beide nicht, sondern eben nur derer 16 und dazu noch 4x PCIe 4.0.

D.h. sobald du tatsächlich eine PCIe 5.0 NVMe anbinden möchtest, beschneidest du deinen GPU-Slot direkt auf nur noch PCIe 5.0 x8 Lanes. Diese wiederum sind bzgl. Bandbreite dann auch nur noch identisch zu den aktuell üblichen PCIe 4.0 x16 Lanes.

Sofern es um zukünftige Technik wie Direct Storage ginge, wäre dein Flaschenhals damit letztlich immernoch gleich breit.

Und warum PCIe 4.0 keine relevanten Einschränkungen für die kommenden GPUs hat, wird aus dem Beispiel mit der 4090 auf PCIe 3.0 klar denke ich.

Und zu der verlinkten Seite:

Ist halt immer schwierig wenn man die eigentlichen Quellen für deren Berechnungen nicht kennt. Daher aus meiner Sicht lieber zwei Mal suchen, d.h. einen seriösen Test deiner CPU und einen seriösen Test deiner GPU, dann erkennst du auch selbst sehr gut die Limitierung. Noch besser ist es natürlich mit ein wenig Drittsoftware das Ganze direkt auf dem eigenen System zu testen und sich die Auslastung von GPU und CPU während des Spielens anzusehen
 
4090 gerade bestellt.
Leider oder gut, keine Ahnung, ist es eine Inno3D X3 OC geworden. Irgendwie schaffen es Verkäufer nicht "sicheres bezahlen" einzurichten in 2023!
Und naja 1700€ überweise ich ungern einfach so!

Ich bin jetzt wirklich nur am bangen, dass meine PSU das bestimmt nicht mehr packen wird. Aber mal schauen was passiert wenn ich boote.
750W Platin sind viel viel viel zu wenig für ne 4090 und ner i9 CPU! Aber ich hab gemessen, meine PSU zieht jetzt unter voller Last, also komplett mit 2 Spielen auf 2 Monitoren offen, max. 550W.
 
Zuletzt bearbeitet:
So meine 4090 is da und ich bin begeistert.
Die is unter Volllast Luftgekühlt kühler als meine 3080Ti Wassergekühlt!
Und mein Netzteil von EVGA mit nur 750W packt das alles ohne murren ganz locker! Geiles Teil! ;)
Jetzt gleich 2 Tage Urlaub genommen und dann wird gezockt ohne Ende!

WhatsApp Image 2023-03-06 at 10.38.07.jpeg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh