von 4770k auf 7700k, wieviel % mehr leistung? / Lohnt es sich?

franky0815

Neuling
Thread Starter
Mitglied seit
07.04.2017
Beiträge
6
bin derzeit am überlegen mein System aufzurüsten
von 4770k auf 7700k also auch von DDR3 auf DDR4

lohnt sich das Upgrade? wieviel mehr Leistung würde ich auf einem 7700K im Gegensatz zu dem 4770k haben? alles im Standard Takt
aktuell bin ich auf 1440p Gaming aus, GTX1080 läuft bereits längere zeit mit dem 4770K und 1440p

Danke für die Einschätzungen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich würde mir das Geld sparen, und die CPU übertakten. Eventuell in die Kühlung investieren.
 
habe einen 144hz Monitor
wollte nach mittlerweilen etlichen jahren mal wieder aufrüsten, die Frage ist halt wieviel leistungsunterschied die zwei CPUs haben, ob es sich sogesehen überhaupt lohnt, egal ob nur 60fps oder 144
 
Lohnt nicht.
 
hast du da konkrete %uale unterschiede? die würden mich interessieren
 
Also bei 144Hz lohnt sich jede Aufrüstung wenn man 144FPS erreichen möchte. Allerdings müsstest du dann auch von 1080 auf 1080Ti upgraden weil WQHD eher ins GPU als CPU Limit läuft.

selten so ein bullshit gelesen, außerdem kommts sowieso drauf an was man spielt!
 
Was soll daran falsch sein, teile deine Allwissenheit mit uns, denn wir kommen bei deiner Logik leider nicht weiter.
 
Wenn der 4770k bereits auf 4400MHz oder höher läuft und du schnellen DDR3 (2400MHz) verbaut hast, lohnt sichs nicht wirklich.
Von einem 4 Kern I7 auf den Nächsten zu wechseln würde ich aktuell nicht mehr machen, es sei denn, du möchtest aus Freude an neuer Hardware einfach etwas Neues.
 
144Hz auf WQHD lohnt erst bei SLI - ansonsten musst du zu viele Einstellungen runterschrauben oder kommst nicht auf 144FPS. (Also entweder du hast schlechte Grafik oder der Monitor ist unnötig)

Die 1080 packt fast keinen AAA Titel @ Max auf WQHD 60Hz. Wie soll die dann mehr als das doppelte packen... Auch die 1080ti wird mit WQHD 144Hz sehr bald (wenn sie sie nicht schon hat) Probleme bekommen.


Lieber etwas weniger Flüssig (eh ein Punkt an dem sich die Geister scheiden - ich bin ja der Meinung man braucht keine 144Hz und wird auch nie nen Unterschied feststellen) dafür kannste wenigstens nicht Pixel zählen ^^


Bzgl. 4770k auf 7770k -> Lass es. Du wirst A) eine viel heißere CPU haben, B) einen komplett neuen Unterbau brauchen und C) Keinen spürbaren Unterschied feststellen können - nur ein paar Punkte mehr in Benchmarks und evtl. 1-5FPS je nach Game und Einstellung.
 
Zuletzt bearbeitet:
.. steht ja nirgens als gesetz, dass man in JEDEM Game auf 144 fps kommen MUSS....^^
Dann hat man halt in Wildlands "nur" 80-90 fps.
Dafür hast du in Zig anderen games 140+ fps.

Du lässt es fast so klingen, als ob nur 60 Hz sinn machen beim Monitor, nur weil mein keine perfekten 144 fps in jedem Game erreicht.
Selbst wenn ich nichtmal 100 fps erreiche in aktuellen games, würde ICH nicht auf 144 Hz verzichten. Beim Browser merkst du 144 Hz zu 100% der Zeit.
In älteren Games ebenso. In schwächeren Games auch.

Aber nein.. ein 144 Hz Monitor ist nicht unötig, nur weil du 120 fps statt 144 erreichst, oder 143 statt 144.

Sobald man über die 70-80er marke kommt, merkt man es schon gegenüber 60 Hz. Und bei 90-100+ fps schon sehr deutlich.

Nicht alles auf die aktuellsten grafik-killer beschränken. Das sind nicht die einzigen Games auf der Welt. ^^


Warum sollte ein 7700k viel heißer sein als 4770k?


Würde aber auch nicht wechseln.. Dafür merkt man zu wenig unterschied. Im besten fall kriegt man vll 10-20% fps raus, wenn überhaupt (und das NUR bei games die in nem harten CPU limit sind).

Ich finde, man hätte mehr von, wenn man in G_Sync investiert, als in ne neue Intel CPU die gerade mal 2 generationen weiter ist.
 
Zuletzt bearbeitet:
Als Gesetz natürlich nicht, aber wieso sollte ich mir etwas Kaufen was ich nie so benutzen kann?
Ich kauf mir ja auch keinen Supersportwagen um damit dann nur in Zone 30 zu Aldi und wieder zurückzufahren.

Kommt hier wohl sehr auf die Person an...

Mal zum Wildlands-Beispiel, ich hab da nur 50-60FPS auf meinem aktuellen System mit 60Hz Monitor.
So, jetzt stell ich mir da nen 144Hz Monitor hin. Plötzlich hab ich bis zu 80FPS. "Hmm, ich will aber mal 144Hz sehen/erleben" - schwupps ein paar anscheinend unwichtige Settings runtergedreht -> FPS gehen rauf.
Ergebnis = Flüssigeres Spiel. Ziel erreicht.

Ja, aber warum denn? Weil mir der Monitor jetzt mehr Bilder anzeigt? Nein, weil ich Settings runtergeschraubt habe. Mit einem 60Hz Monitor hätte man den gleichen Effekt. Spiel mal z.b. Cs:Go oder Minecraft mit realen 60FPS mit nem 60Hz Panel. Kotzreiz vorprogrammiert.

Deswegen ist es mMn sinnlos 144Hz zu haben ohne wirklich 144Hz fahren zu können.

Beim Browser und anderen Dingen wie Videobearbeitung ist das wieder ein ganz anderes Thema. Aber wir reden hier ja nicht über die Sinnhaftigkeit von 144Hz am Arbeitsplatz, sondern für Gaming.
 
Zuletzt bearbeitet:
Man benutzt es doch? ^^
Ich nutze meine 165 Hz z.B. jeden Tag. Ständig, wenn ich in Chrome irgendow surfe und scrolle.
Ständig, wenn ich die Maus bewege.^^

In zig games schafft man auch die hohen fps.
Wenn man natürlich nur das neuste spielen darf, und nur in ultra, klar, da hast du vll recht. Aber ist das wirklich 100% der Monitor Nutzungszeit? ^^

CS:GO ist kein so gutes beispiel, da schafft jede billige graka 150+ fps easy peasy.

Na, und 144 fps bringen nur was gegenüber 60 Hz, wenn du exakt 144 fps haben kannst?
Was ist mit 90-100 fps? Bringt das garnix?
ist zwar nicht das volle Potenzial, aber es ist immernoch wesentlich besser als 60 Hz ;)

Wie gesagt.. Lassen wir Desktop außen vor, und beschränken uns nur auf games (Was eig unsinn ist als Argument.. Du benuzt den Monitor ja nicht nur zum gamen, sondern für alles). Es gibt zig games, wo man easy 144+ fps erreichen kann. Das hardware-hungrigste game ist doch nicht der gemeinsame Nenner.


Ich seh es einfach so: Wenn ich in einem Game mal keine 140 fps erreichen kann sondern nur 70, dann ist es halt so. Es gibt genug games, wo man die 140+ schafft.
Und wenn nicht, dann mit der nächsten Graka. Und selbst 80+ ist schon ein vorteil gegenüber 60.
 
Kein wirklich sinnvolles Upgrade. Wenn du signifikant mehr CPU-Leistung haben willst sollten es schon mindestens 6 besser 8 Kerne sein. Egal ob die nun von Intel oder AMD kommen. Alles andere ist doch eher ein Sidegrade.
 
würde aufgrund des geringen leistungsunterschiedes nicht wechseln, eher auf die nächste gerneration warten.
 
Ich würde auf den Intel CoffeeLake mit 6 Kernen warten, wenn es denn unbedingt ein Upgrade sein muss. Ist ja nicht nur CPU und RAM, auch ein gescheites Board muss her. Ob der Intel 6 Kerner dann auf einem 1151 Board läuft, weiß ich nicht genau. Kann dir auch nicht sagen, ob die Frame Rate dadurch steigt, da ich nur auf 60 Hz spiele (vert-Synch). Mein 6700K befeuert die 1080 Ti genug, um alles auf Ultra bei 60 Hz zocken zu können. Ein 144 Hz mit G-Sync ist in Planung (wenn meine Frau mich lässt). 1440 mit ner 1080 sollte locker mit nem 4770k laufen. Müsste mit vert-Synch sogar bedeutend mehr drin sein.
 
er betreibt den 4770K im Standard Takt....also erstmal OC:d
 
Klar Frametimes sind viel ruhiger mit mehr Kernen und weniger Takt, wurde doch etliche male diskutiert. Gönn dir mal den Ryzen 5 Test von der aktuellen PCGH-Heftausgabe oder Computerbase Benchmarks.
 
Man merkt, dass hier viele User keinen 144Hz Monitor haben und nicht das Gefühl kennen wenn die FPS Anzeige "nur" 100 oder 120 ausspuckt und man gerne 144 sehen möchte.
Das geht nur mit mehr Speicher Takt, mehr Prozessor Takt (CPU Limit) oder mit einer stärkeren Grafikkarte (GPU Limit). Mehr Kerne mit weniger Takt bringen leider (noch) nichts.

Hohe FPS zahlen sind nicht alles, selbst mit 144fps kann es ruckelig wirken (hab einen 144hz Monitor!)
 
du kommst nicht an die 144 fps ran und willst dann noch einen framelimiter einschalten?

Ja, weil man sonst Tearing hat.

Der Input lag von G-Sync / Freesync ist bestenfalls messbar, die wenigsten dürften da was "spüren" dass es da was ändert.
Das Tearing aber kann jenach game das ganze spielgefühl zerstören.
 
Ja genau, G-Sync verursacht 0,2ms Input Lag die bei natürlichen 200ms Reaktionsverzögerung über Leben und Tod entscheiden. :haha:

Die Verzögerung liegt leider weitaus höher. Jedenfalls wenn man es, wie du beschrieben hast, über den jeweiligen Treiber limitiert. Wenn man die Frames limitieren möchte, dann sollte man das intern über die Engine regeln lassen.
In der Source-Engine sollte man die Frames am besten gar nicht limitieren. Möchte man G-Sync bei einem 144Hz Monitor z.B. in Overwatch nutzen, dann empfiehlt es sich, die Frames auf 142 zu limitieren.
Bei Adaptiv-Sync verhält es sich nochmals anders.

Was allerdings stimmt, ist, dass nicht jedes Spiel und vor allem nicht jeder Spieler, diese Anforderungen hat, möglichst verzögerungsfrei in jeder Situation zu spielen.
Ich wollte hier auch keine neue Diskussion oder Streit lostreten, da die Frage ja eigentlich eine andere war.
Wenn die Frames limitiert werden müssen, dann sollte man es über die Spiel-Engine machen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh