witcher 3, 4k performance 1080 GTX mit 4770k cpu

chrisknight89

Neuling
Thread Starter
Mitglied seit
09.03.2016
Beiträge
3
Hallo zusammen,
Habe mir neulich einen 4k Monitor und eine gainward gtx 1080 gekauft, um nach knapp 2 Jahren meine R9 290X zu ersetzen. Ich bin im großen ganzen begeistert von der 4k Performance bei den meisten spielen, wie wie z.b. Doom, Bf4, Farcry.. Nur bei Rainbow six siege und Witcher 3 bin ich ein wenig überrascht, über die doch recht niedrige fps Zahl bei 4K mit alle Details auf Maximum.. Meine FPS schwanken zwischen 22 -28, abhängig davon ob Nvidias hair Works einstellungen eingeschaltet ist. In den meisten Benchmarks habe ich bei Witcher 3 in 4k, mit max Details (ohne hair works), bei einer gtx 1080 in Verbindung mit einer 6700 k cpu, Resultate von +- 45 fps gesehen..
Ich selber besitze noch die haswell 4770k, auf 4.1ghz getakter cpu mit 16gb RAM.. Kann es eventuell sein, das der unterschied alleine an der cpu liegt ? Falls ja, würde es sich lohnen aufzurüsten?
Mfg Chris
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
TW3 braucht unter UHD knapp 5GB VRAM, die 4 GB sind hier leider etwas wenig. In diesem Fall spielen auch Ram Performance und PCIe Performance eine Rolle.
 
Ich glaube du hast dich verlesen, er hat ne GTX1080 und keine GTX980 -> 8GB Vram.
 
Ein 6700k ist auch nicht viel schneller als dein 4770k.
 
Hallo zusammen,
Habe mir neulich einen 4k Monitor und eine gainward gtx 1080 gekauft, um nach knapp 2 Jahren meine R9 290X zu ersetzen. Ich bin im großen ganzen begeistert von der 4k Performance bei den meisten spielen, wie wie z.b. Doom, Bf4, Farcry.. Nur bei Rainbow six siege und Witcher 3 bin ich ein wenig überrascht, über die doch recht niedrige fps Zahl bei 4K mit alle Details auf Maximum.. Meine FPS schwanken zwischen 22 -28, abhängig davon ob Nvidias hair Works einstellungen eingeschaltet ist. In den meisten Benchmarks habe ich bei Witcher 3 in 4k, mit max Details (ohne hair works), bei einer gtx 1080 in Verbindung mit einer 6700 k cpu, Resultate von +- 45 fps gesehen..
Ich selber besitze noch die haswell 4770k, auf 4.1ghz getakter cpu mit 16gb RAM.. Kann es eventuell sein, das der unterschied alleine an der cpu liegt ? Falls ja, würde es sich lohnen aufzurüsten?
Mfg Chris

gibt die karte denn vollgas? überprüf das doch erstmal

der 4770k schafft mehr als 25 fps, denn mein 3570k tut es auch. die auflösung übernimmt die gpu. das heist, deine cpu ist zu 99% nciht der übeltäter sofern die kiste richtig läuft
 
Zuletzt bearbeitet:
ich tippe mal darauf das die benches malwieder mit übertakteter CPU gemacht wurden und dann ist der unterschied klar.
wenn dann noch aufm benchtable getestet wurde, dürfte sich im meist innen wärmeren gehäuse auch ein unterschied ergeben.

mfg
robert
 
Zuletzt bearbeitet:
wurscht. wie gesagt. mein 3570k macht über 66 FPS anfangs vom spiel mit hohen settings. wenn man jetzt nur die auflösung erhöht, wird ausschließlich die gpu belastet. das CPU limit bleibt an der gleichen stelle.
 
ich glaube da irrst du,
die cpu muss der gpu ja sagen was sie rendern soll und so muss die CPU bei höherer auflösung auch mehr rüberschicken was die garfikkarte berechnen und ausgeben soll.

mfg
robert
 
Übertakte ihn noch etwas höher. An sich ist die CPU aber perfekt. Für 4K reicht ein normaler i7, und selbst der wird nie ausgelastet.

Hast du alle Einstellungen und MSAA drin? Das werden minimal 2 1080Ti unter Wasser mit heftigem OC schaffen. Eine 1080 sollte es ohne MSAA mit hohen Einstellungen schaffen, teilweise auf Ultra.

Warum Gainward? Ich hoffe du bist dir bewusst was für Probleme du mit dieser Firma haben kannst.
 
erstmal soll er schauen ob er im gpu limit hängt. tut er das nicht, dann nach den taktraten von cpu/gpu schauen.

wenn mein oller ivy i5 60 fps + schafft dann schafft es der i7 ebenfalls
 
Meine Gainward GTX260 von 2009 läuft heute noch ;)
Probleme kann man mit jeder Karte von jedem (!) Distributor bekommen.
Der Ausfall von jeder Art von hardware ist jederzeit zu erwarten. Wenn sie ewig stabil läuft, ist das reine Glückssache. Die eine Karte hält ne Woche, ne andere 10 Jahre oder sogar länger.
Da ist es wurscht, ob Gainward, EVGA, etc...
 
1080 ist in etwa so schnell wie meine 980ti OC. Da kommen beim Witcher auf Ultra@4k (mit Hairworks) die <30 fps locker hin. Ohne Hairworks spiele ich auch mit 30 fps Lock - und das wird in vielen Situationen so gerade gehalten.
 
Erstmal danke für die ganzen Antworten. Um mal ein Bild meines System zu machen habe ich einige pics von gpu Z und cpu z gemacht.. Allerdings bin ich leider unerfahren und falls mir jemand erklären kann, wie genau ich während dem Spiel sehen kann ob die graka ausgelastet ist oder nicht, wäre super ;) hab die founders Edition, bisher sind mir Probleme bezüglich der Firma gainward nicht bekannt.
 
msi afterburner



http://www.computerbase.de/forum/showthread.php?t=1367247

gpu load, takt von chip und speicher sowie framerate anzeigen lassen.

wenn die taktraten stimmen und die GPU bei über 95% liegt, besser bei 99%, dann liegst du im GPU limit und deine CPU ist erstmal unschuldig..

cpu load ist erstmal unwichtig. den takt kannst du nur mit hwinfo anzeigen lassen.
 
Zuletzt bearbeitet:
ich tippe mal darauf das die benches malwieder mit übertakteter CPU gemacht wurden und dann ist der unterschied klar.
wenn dann noch aufm benchtable getestet wurde, dürfte sich im meist innen wärmeren gehäuse auch ein unterschied ergeben.

mfg
robert

Absoluter Quatsch - wurde schon mehrfach getestet, dass GPUs im Gehäuse entweder genau so heiß werden wie auf einem Benchtable oder sogar kühler sind wegen Luftstrom also hört auf so nen Käse zu verbreiten!
 
ich glaube da irrst du,
die cpu muss der gpu ja sagen was sie rendern soll und so muss die CPU bei höherer auflösung auch mehr rüberschicken was die garfikkarte berechnen und ausgeben soll.

mfg
robert

Bei 3D-Objekten?
Nö. Da ändert sich nur die Transformation im Raum. Das findet auf der Graka statt.


CPU: Zeichne einen Kreis mit dem Radius 300, lege eine Textur drauf.

Die Graka macht das, egal ob 640x400 oder 3280x2160 anliegen. Für die CPU ändert sich das gar nix, solange sich nicht der Bildauschnitt ändert.
Die KI ändert sich nicht, die Physik ändert sich nicht, die Textur-Größe ändert sich nicht. Die Objekt-Anzahl ändert sich nicht, die Sichtweite ändert sich nicht, der Polygon-Count ändert sich nicht. Das einzige was sich ändert ist dass der Kreis mit dem Radius 300 anders transformiert wird, damit er die gleiche Größe behält, wenn die Auflösung sich ändert.


Hier sind übrigens meine Settings (ganz hinten im Video) mit einer 1080GTX. Kannste vergleichen. Solltest Dich halt an der gleichen Stelle bewegen wie ich^^ und ein Beispiel wie das mit dem Afterburner-OSD aussieht ist auch gleich noch dabei.


Wobei ich es schon relativ lustig finde ... 4K, alles Maxed Out .. und dann über die FPS beschwehren :-)
Die Regler sind zum bewegen da.

BTW .. 25FPS halte ich für durchaus angemessen in Szenen wo Du nah in den Haare von Gerald bist. Wenn Du da 8xAA angeknallt hast, dann gehen die FPS in den Keller. Einfach das Hair-AA abschalten.

Hier noch fix wie es bei mir in UHD mit allem was geht aussieht, darauf achten wie meine Kartet taktet:
In Bewegung (z.b. beim Reiten) gehen die FPS noch weiter runter, weil dann das unsägliche Motion Blurr angewendet wird... wers braucht^^ Ist immer das erste was ich abschalte.

 
Zuletzt bearbeitet:
Moin moin,

ich klinke mich hier einfach einmal ein, da meine Frage in die selbe Richtung geht und ich dafür nicht unbedingt etwas neues aufmachen möchte (Hoffe das stört nicht) :)
Habe einen I5 4670K auf 4,4 Ghz getaktet, 16GB DDR3 und überlege jetzt seit erscheinen der 1080 hin und her ob ich mir eine 1080 oder 1070 zulegen soll.
Aktuell habe ich keine Kohle für nen 4K Display würde erst so in 1 - 1 1/2 Jahren was werden, so lange muss das 4K-Downsampling von NVIDIA her halten.

Spiele wie Witcher 3 und Doom sind ja aktuell die Krassen Beispiele was Grafik angeht und die 1070 soll bei Witcher3 mit 4K auf Max. ca 25Fps raus schmeißen und die 1080 ca. 36Fps.
MSI bringt die 1080 (869€) + 1070 (Noch unbekannt aber vermutlich ca. 550€) bald Wassergekühlt (SEA HAWK X) raus, ich überlege nun hin und her ob sich die Mehrleistung der 1080 wirklich lohnt, wenn ich die 1070 (Ohne was am Bios zu machen) mit Afterburner oder Ähnlichen übertakten kann und damit auf Spielbare FPS komme.
Kennt sich da jemand ein wenig aus und gibt es Punkte bis auf Hairworks die viel GPU Power fressen und optisch nur sehr wenig bringen um diese dann ggf. einfach runter zu drehen und dadurch auf 40-50 Fps zu kommen?

Für die Auslösung 1920x1080 sollte die 1070 wohl egal bei welchem Spiel und Sonderfunktionen vollkommen ausreichen oder?!
 
Hmmm... also alles auf max kommst Du in ARK, Space-Engineers, Rise of the Tomb Raider und GTA5 gerne auf 30 FPS in FHD mit der 1070. Jedenfalls lande ich dort mit einer Titan X, die ja gleich schnell sein soll. Nur das meine Titan X nicht mit 1.1Ghz läuft^^
Es ist sinnlos alles über einen Kamm zu scheren, denn
a) Alles wird sowieso nicht gehen
b) interessiert Dich alles doch gar nicht, Du zockst nicht alles^^




Und dann haben wir noch gar nicht über die Sonderfälle gesprochen, die gar nicht an der Graka hängen wie z.b. Stellaris im Lategame, die Total War-Reihe, Arma wenn man die Sichtweite mal auf über 3KM zieht, DayZ um mal einige zu nennen.
 
Zuletzt bearbeitet:
Kennt sich da jemand ein wenig aus und gibt es Punkte bis auf Hairworks die viel GPU Power fressen und optisch nur sehr wenig bringen um diese dann ggf. einfach runter zu drehen und dadurch auf 40-50 Fps zu kommen?

1. Antialiasing nicht als grafikeinstellung wie jede betrachten. das kann je nach spiel ordentlich nach hinten losgehen. es gibt da durchaus spiele die klatschen die einstellung einfach mitten rein in die liste und die leute drehen das vermutlich dann einfach komplett auf wie alles andere. dass das spiel dann nicht mehr so läuft wie in benchmarks oder wie gewünscht ist dann auch kein wunder mehr.
2. niemals die regler komplett aufdrehen sondern die settings vergleichen und schauen was sinn macht und was nicht.
Spiele wie Witcher 3 und Doom sind ja aktuell die Krassen Beispiele was Grafik angeht und die 1070 soll bei Witcher3 mit 4K auf Max. ca 25Fps raus schmeißen und die 1080 ca. 36Fps.

nichit auf max spielen. 25 oder 36 fps wären für mich z.b. unspielbar. 50-60 fps sind hart an der grenze und für mich auch eher gar nicht wirklich spielbar. erst bei 60fps/60hz wirds flüssig.
 
Zuletzt bearbeitet:
TE... Troll Alarm... bestimmt nur ein Fehlalarm. :rolleyes
 
Zuletzt bearbeitet:
Macht antialiasing bei 4k noch sehr viel sind ? Bzw sind die Treppchen müssten doch durch die höhere Auflösung, quasi fast nicht mehr sichtbar sein oder ?
 
Du hast doch einen 4K-Moni. Du müsstest es doch sehen^^
Es gibt Software die braucht dringend ein bisschen AA, es gibt Software da kann man es abstellen, ohne das es stört, weil die Körperkanten durch die hohe Auflösung keine Treppen mehr bilden.

Witcher z.b. Scharfzeichnen aus, Anti-Aliasing aus. Sieht in 4K wundervoll aus, auch ohne diese Features.
pCars z.b.. geht ohne Anti-Aliasing gar nicht, da flimmert die Vegetation am Streckenrand .... meine Fresse :-)
 
oder gta 5. da flimmert echt alles... ^^

- - - Updated - - -

Macht antialiasing bei 4k noch sehr viel sind ? Bzw sind die Treppchen müssten doch durch die höhere Auflösung, quasi fast nicht mehr sichtbar sein oder ?

theoretisch brauchst du je höher die auflösung auf gleicher diagonale ist, weniger AA. das hängt dann aber noch vom spiel ab. zur not klatscht man ein pfusch AA wie FXAA oder MLAA drüber. das kostet kaum leistung, matscht aber das gesamte bild (leicht)
 
In manchen Games ist SMAA sogar schneller als FXAA (wenn ich wüsste wo ich das letztens getestet habe) und sieht dabei (mMn) auch noch besser aus. Aber ist ja an sich das gleiche wie MLAA.
 
Zuletzt bearbeitet:
ich glaube da irrst du,
die cpu muss der gpu ja sagen was sie rendern soll und so muss die CPU bei höherer auflösung auch mehr rüberschicken was die garfikkarte berechnen und ausgeben soll.

mfg
robert

ne. Ob du nun in 4K oder in 1080p renderst, die Daten von der CPU sind effektiv die gleichen. Die CPU schickt die Rohdaten der Objekte, welche Transformationen durchzuführen sind, etc etc, und eben welche Auflösung es sein soll. Und der Aufwand dieser Daten sind fast alle unabhängig von der CPU.

Mehr Arbeit hätte die CPU nur bei zB höherer Draw Distance. Das hat aber - bezogen auf die CPU Performance - nichts mit der GPU zu tun.
 
Hallo zusammen,
Habe mir neulich einen 4k Monitor und eine gainward gtx 1080 gekauft, um nach knapp 2 Jahren meine R9 290X zu ersetzen. Ich bin im großen ganzen begeistert von der 4k Performance bei den meisten spielen, wie wie z.b. Doom, Bf4, Farcry.. Nur bei Rainbow six siege und Witcher 3 bin ich ein wenig überrascht, über die doch recht niedrige fps Zahl bei 4K mit alle Details auf Maximum.. Meine FPS schwanken zwischen 22 -28, abhängig davon ob Nvidias hair Works einstellungen eingeschaltet ist. In den meisten Benchmarks habe ich bei Witcher 3 in 4k, mit max Details (ohne hair works), bei einer gtx 1080 in Verbindung mit einer 6700 k cpu, Resultate von +- 45 fps gesehen..
Ich selber besitze noch die haswell 4770k, auf 4.1ghz getakter cpu mit 16gb RAM.. Kann es eventuell sein, das der unterschied alleine an der cpu liegt ? Falls ja, würde es sich lohnen aufzurüsten?
Mfg Chris

Lass mal Afterburner mit Riva Tuner Statistics Server bei Siege laufen.
Auf Ultra Texturen mit 4K DSR war der Vram meiner 980Ti komplett voll, sowas vermute ich bei dir auch..

- - - Updated - - -

1. Antialiasing nicht als grafikeinstellung wie jede betrachten. das kann je nach spiel ordentlich nach hinten losgehen. es gibt da durchaus spiele die klatschen die einstellung einfach mitten rein in die liste und die leute drehen das vermutlich dann einfach komplett auf wie alles andere. dass das spiel dann nicht mehr so läuft wie in benchmarks oder wie gewünscht ist dann auch kein wunder mehr.
2. niemals die regler komplett aufdrehen sondern die settings vergleichen und schauen was sinn macht und was nicht.


nichit auf max spielen. 25 oder 36 fps wären für mich z.b. unspielbar. 50-60 fps sind hart an der grenze und für mich auch eher gar nicht wirklich spielbar. erst bei 60fps/60hz wirds flüssig.

Naja man sollte nicht pauschalisieren, zb bei langsamen Rätselgames ala Ethan Carter (das trotzdem ein HW Fresser ist) reichen auch 40 fps
 
naja ich versuche jedes game mit 60frames zu spielen. einfach deshalb weil der großteil damit läuft. cs, rocket league, d3 etc... man ist einfach 60fps gewohnt und diese sind auf 60hz auch erst wirklich flüssig.

kommt dann ein game und grätscht dir mit 40fps rein, kotz^^
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh