nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

Status
Für weitere Antworten geschlossen.
nVidia GK110/Geforce 7xx/Geforce Titan [Speku-, News- & Diskussion] (1. Seite lesen!)

nVidia GK110/Geforce 7xx [Speku-, News- & Diskussionsthread]

nvidia-kepler-gk110-dmvid9.jpg

Dieshot eines GK110


Nachdem GK104 nun erschienen ist, wird das Themengebiet in den Sammler von Edge verschoben: http://www.hardwareluxx.de/communit...ches-bei-fragen-erste-seite-lesen-880765.html danke, an dieser Stelle für den Thread.

Hier soll es nun um GK110 gehen.


Short Facts:

Release: Tesla im Q4/2012, Geforce im Q1/2013
Zu erwartene Chips: sollte 7xx zutreffen dann 780, 770. Eine Dualversion kann man offiziel wohl ausschließen.

Daten zum Chip gibt es weiter unten.



1.1 Die Architektur

Nvidia hat auf der GTC viele neue Details zum GK110 verraten.

So soll der 7,1 Milliarden (!) Transistoren schwere Chip zuerst auf der Tesla K20 arbeiten, die gegen Ende des Jahres erscheinen soll. Mit dieser Masse an Transistoren stellt er den bis dato größten Chip der Geschichte dar. Desktoplösungen werden erst 2013 folgen, was zum einen niedrigen Yields als auch der bisher guten Position Nvidias in diesem Markt geschuldet sein kann.


Anders als beim GK104 bestizt GK110 pro SMX zusätzlich 64 DP-Einheiten um dort die Leistungsfähigkeit zu steigern (SP : DP = 3:1). Nicht ganz klar ist allerdings wie diese Einheiten aussehen. Bei Fermi arbeiteten einfach zwei Unified-Shader an einer DP-Berechnung, das hat den Vorteil keinen zusätzlichen Platz für DP-Einheiten aufbringen zu müssen. Würde NV bei GK110 nun wieder einen anderen Weg gehen dürfte die Chipfläche ohne massige erhöhung der Transistordichte nicht unter 600mm² bleiben. Immerhin müssten so 960 wietere Einheiten auf dem Chip untergebracht werden.
Auch der restliche Aufbau ist stark HPC orientiert, so kann ein Thread jetzt mehr Register nutzen als bei GK104 und mit Hyper Q sowie Dynamic Parallelism (Cuda 5.0) finden noch zwei weitere Features Einzug die GK104 nicht bot, aber für Desktopanwender keine Rolle spielen dürften. Allgemein ist GK110 stark Richtung HPC entwickelt worden, da in diesem Bereich der GK104 aufgrund mangenlder Fähigkeiten für DP nicht positioniert ist.

die-vergleich60uby.jpg

Die-Vergleich von GK110 und GK104. Achtung, die Größe ist nicht Maßstabsgetreu! (siehe weiter unten)

Für Spieler interessant könnte sein das NV angibt die TMUs nicht nur verdoppelt zu haben, sodern sie auch effizienter arbeiten. Ob man als Vergleich "nur" GF110 heranzieht oder wirklich GK104 ist zwar ungewiss, allerdings sprächen auch in letztem Fall die 240 TMUs für ausreichend Texturierleistung.

tesla_gk110_k20_3qtr_b38n0.jpg

Bild einer Tesla K20 Karte mit GK110





1.2 kleiner Chart

gk110v2nuaxd.jpg

1.3 Aussichten

Leistungsfähigkeit

Da Nvidia vor hat bei der Tesla K20 nur 13 oder 14 SMX zu aktivieren dürfte der Geforce wohl ein ähnliches Schicksal ereilen. Das steigert zum einen die Yields für NV und lässt natürlich auch Spekulationen über eine spätere Version mit allen Einheiten zu.

Ginge man von 13 SMX für die erste Version aus kämen wir bei einem halbwegs realistischen Chiptakt von 900 MHz auf 4,493 TFlops. Das wären immerhin ca. 45% mehr als bei GK104 (ohne Turbo). Dazu kommen noch die 208 verbleiben TMUs, was auch etwas 46% höhere Texturleistung bei 900 MHz entspricht und die um 50% höhere Bandbreite.

Summa Summarum scheinen 50% mehr Leistung also drin zu sein zum GK104, wieviel davon real bleibt muss man natürlich abwarten. Nvidia selbst gibt nur recht schwammige Aussagen über die Leistungsfähigkeit. So soll die DP-Leistung bei >1 TFlops liegen, was bei dem Ratio von 3:1 immerhin 3 TFlops SP bedeiten würde. Für die oben errechneten 4,5 TFlops sollten es dann aber schon 1,5 TFlops DP sein ;)


110104vergleich2w4uf7.jpg

Größenvergleich eines GK110 mit ca. 550mm² und einem GK104 mit ca. 295mm² (real sind es 294mm²)


Möglicher Refresh?

Interessant ist natürlich auch was bei einem Refresh zum GK110 drin wäre.

Ein Chip mit vollen SMX und einem höheren Takt von 950 MHz käme auf 5,472 TFlops, also ca. 21% mehr Leistung gegenüber der Version mit 13 SMX. Gleiche 21% gelten auch bei den Texturleistung.

Beim Speicher wird sich dagegen wohl kaum was ändern, denn GDDR5 scheint so langsam an seine bezahlbaren Grenzen zu kommen. Insgesamt wären also 15%+/- Mehrleistung drin um die Zeit bis Maxwell zu überbrücken.

Ob es so kommt weiß natürlich nur Nvidia selbst.


1.4 Linkliste

Größter Chip der Welt mit 7 Mrd. Transistoren und Hyper-Q (Golem, de)
GTC 2012: GK110-Grafikchip hat bis zu 2880 Shader-Kerne (heise, de)
GTC 2012: Die GK110-Schöpfer über Performance und zukünftige Herausforderungen (heise, de)
Nvidia gibt erste Infos zum großen Kepler GK110 bekannt (computerbase, de)
GK110: Weitere Details zur größten GPU der Welt [Update: Inside Kepler] (pcgh, de)
nVidias GK110-Chip mit 2880 Shader-Einheiten - im Gamer-Bereich aber erst im Jahr 2013 (3DCenter, de)






Thread im Aufbau!

Ich bitte alle User die an diesem Thread teilnehmen sich an eine gewisse Netiquette zu halten. Bitte lasst den Thread auch nicht zu einem Flamewar Rot gegen Grün verkommen sondern spekuliert aufgrund bekannter Fakten über den GK110. Versucht eigene Meinungen so wenig wie möglich in euren Post einfließen zu lassen, ebenso sind eure Wünsche und Kaufpläne evtl für andere User uninteressant.


Über ein Danke würde ich mich natürlich sehr freuen :wink:
 
Zuletzt bearbeitet:
Bei der schlechten Effizienz von Sli gerade mit mehr als 2 Karten sollten zwei GK110 wohl reichen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
...das Quad SLI zu verputzen ? ...
 
Bei der schlechten Effizienz von Sli gerade mit mehr als 2 Karten sollten zwei GK110 wohl reichen.

Mit den richtigen Spielen und Profilen sind alle 4 GPUs zu 99% belastet und wenn sie nicht ausgelastet werden, liegt das meistens an schlechten Profilen oder CPU-Limit.
 
Was dir nichts bringt wenn die Frametimes usw ganz einfach nicht berauschend sind.

Zwei GK110 werden dein Quadsli überflügeln, sei es nun durch bessere FPS, Frametimes oder Inputlag.
 
Also der Inputlag durch VSync ist deutlich größer als der durch SLI. Dass zwei GK110 schneller als 4xGTX680 sind, glaube ich auch nie im Leben. Wenn der VRAM den letzteren ausgeht, ja. Ansonsten 100pro nicht. Und bzgl. der Frametimes frag mal Blaire, der hat ja 4x680 und ist sehr zufrieden damit. Es gibt bis heute keine verlässliche Messung ob mehr GPUs im Mittel auch wirklich mehr MR bewirken (bei gleichen fps natürlich). Kann sein...kann aber auch nicht sein.
 
Das liegt nicht am VSync sondern am Triple-Buffer.

Du wirst mir aber zustimmen das die Effizienz bei 4 GPUs deutlich geringer ist als bei 2. Das sieht man auch im Quadsli Test der 690er von HWL. Wenn man davon ausgeht das GK110 40-50% schneller ist wirds in normalen Auflösungen dann schon ziemlich eng für zwei 690er. Bei sehr hohen Auflösungen und in GPGPU könnte es wieder anders aussehen, es sei denn GK110 schwingt hier die Featurekeule.

Über die Frametimes finde ich leider nichts aktuelles, damals war es zumindest ein Problem. Der Inputlag ist bei AFR aber nunmal vorhanden.
 
Wer zwei GK110 oder vier GK104 verbaut der scheißt auf Effizienz. Sorry für den Ausdruck aber das kann man nur so deutlich sagen ;) Wie du auf die Mondspekulation kommst - zwei GK110 stechen vier GK104 aus - ist mir schleierhaft, angesichts der bereits "bekannten" Eingebungen. Input-Lag hin oder her, du musst erst mal mit den frames soweit herunter kommen um daraus ein Hehl zu machen. nVidia arbeitet aktiv an der Problematik.

Wenn ein Spiel bzw. eine Engine mal gar nicht mit SLi kann ist deine Aussage sicher korrekt, aber wir reden doch hier mal von "overall measured performance" oder? Sonst suchen wir wieder den speziellen Spezialfall heraus um dich nicht zu entblößen :d
 
ich denke das wird verdammt knapp, wenns wirklich so 50% mehr power sind. Die 560 ti zb war im sli 32% schneller je nach game wie eine gtx 580. Die 580 ist aber nur 32% schneller als eine 560. Den rest könnt ihr euch selbst ausrechnen wie es bei der 680 vs 780 aussehen wird ;).
 
Das liegt nicht am VSync sondern am Triple-Buffer.

Du wirst mir aber zustimmen das die Effizienz bei 4 GPUs deutlich geringer ist als bei 2. Das sieht man auch im Quadsli Test der 690er von HWL. Wenn man davon ausgeht das GK110 40-50% schneller ist wirds in normalen Auflösungen dann schon ziemlich eng für zwei 690er. Bei sehr hohen Auflösungen und in GPGPU könnte es wieder anders aussehen, es sei denn GK110 schwingt hier die Featurekeule.

Über die Frametimes finde ich leider nichts aktuelles, damals war es zumindest ein Problem. Der Inputlag ist bei AFR aber nunmal vorhanden.

Bei VSync gehe ich immer davon aus, dass man TB dazu nutzt. So oder so, der Inputlag dadurch ist wesentlich mehr spürbar als durch AFR allein.
Man kann mit 4 GPUs bestenfalls 370% Leistung erreichen. Lass uns mal mit 150% für GK110 rechnen und zwei Stück, da kommst du auf knapp 300%, vielleicht 290%. Wird nicht reichen :)
 
Wer zwei GK110 oder vier GK104 verbaut der scheißt auf Effizienz. Sorry für den Ausdruck aber das kann man nur so deutlich sagen ;)

Wer sagt denn das ich vom Energieverbrauch rede. Niemand scheißt bei MGPU auf Effizienz!

Wie du auf die Mondspekulation kommst - zwei GK110 stechen vier GK104 aus - ist mir schleierhaft, angesichts der bereits "bekannten" Eingebungen. Input-Lag hin oder her, du musst erst mal mit den frames soweit herunter kommen um daraus ein Hehl zu machen. nVidia arbeitet aktiv an der Problematik.

Bei 50% Mehrperformance pro Chip (wenn es denn so ist) ist das eine logische Schlussfolgerung.

Wenn ein Spiel bzw. eine Engine mal gar nicht mit SLi kann ist deine Aussage sicher korrekt, aber wir reden doch hier mal von "overall measured performance" oder? Sonst suchen wir wieder den speziellen Spezialfall heraus um dich nicht zu entblößen :d

BS! Schau dir den Test an :Test: 2x GeForce GTX 690 im Quad-SLI. Bis auf realitätsferne Auflösungen kann sich Quadsli nur selten wirklich absetzen. Außerdem renne ich oft genug ins CPU-Limit, wodurch sich der reale Vorteil weiter eingrenzt.
 
Bei VSync gehe ich immer davon aus, dass man TB dazu nutzt. So oder so, der Inputlag dadurch ist wesentlich mehr spürbar als durch AFR allein.
Man kann mit 4 GPUs bestenfalls 370% Leistung erreichen. Lass uns mal mit 150% für GK110 rechnen und zwei Stück, da kommst du auf knapp 300%, vielleicht 290%. Wird nicht reichen :)

Das stimmt so nicht direkt. Pro GPU wird ein Bild im vorraus berechnet. Triplebuffer buffert aber wie der Name schon sagt 3 Frames, Quadsli eben 4 dank AFR.

Maximal wird es auch nicht reichen mit zwei GK110, oft hakt es bei Quadsli aber an der umsetzung, siehe Crysis 2. Ob man es jetzt auf die Engine oder auf den Treiber schieben mag, Sli holt mehr pro GPU raus als Quadsli. Ich erwarte auch nicht das sich da viel dran ändert. Wozu den aufwand betreiben für eine Randerscheinung. Sli ist ja schon im realen Leben eine seltene Erscheinung, Quadsli dagegen ist schon fast ein Märchen.

Effizienz ist wohl etwas irreführend sag doch einfach Scallierung

Bei Effizienz denk ich auch zu aller erst an den Stromverbrauch,und der "sollte" eher zweitrangig sein

Den Einwand lass ich durchgehen ;)
 
Zum Luxx-Test:
Alles unterhalb 2560x1600 wird doch durch die CPU ausgebremst. Selbst 5760x1080 (48:9) sind nur 3x soviele Pixel wie 1080p - bei maximal 4x soviel GPU-Power. Ein breiteres Sichtfeld bedeutet auch mehr Arbeit für die CPU, denn es werden mehr Objekte dargestellt. 1280x720 (16:9) braucht z.B. mehr CPU-Power als 1024x768 (4:3). Wenn man dann noch bedenkt, dass die Auflösungsskalierung nicht ganz linear ist (sprich doppelt soviele Pixel aber etwas mehr als halb soviel fps - siehe Computerbase-Tests), kann man auch in 5760x1080 ein CPU-Limit (zumindest ein partielles) nicht wirklich ausschließen.

Wenn schon, sollte man mit SSAA testen und 2560x1440 aufwärts, wenn es um 3 oder gar 4 GPUs geht.

Zum Inputlag:
Ich kann dir nur sagen, was ich hier spüre. Wenn ich die Auswirkungen von SLI und VSync (ohne TB, ich benutze den D3DOverrider nie) hier vergleiche, ist es mit VSync klar schwammiger wogegen ich zwischen SLI an und aus praktisch keinen Unterschied spüre. Ja, es sind nur 2 GPUs bei mir, aber das mit VSync ist so dermaßen deutlich, dass ich bezweifle, dass sich an dem Bild mit 4 GPUs groß was ändert. Hast du selbst SLI? Probiers doch mal aus.
 
Zuletzt bearbeitet:
Wer sagt denn das ich vom Energieverbrauch rede. Niemand scheißt bei MGPU auf Effizienz!

Effektivität ist das! Effizienz ist wie etwas in einer Relation ist (Kosten zu Nutzen bspw.). Effektivität ist wie (stark) es sich auswirkt (doppelt so schnell bspw.). Bitte rede deutlich dann entstehen auch keine Missverständnisse ;)

Bei 50% Mehrperformance pro Chip (wenn es denn so ist) ist das eine logische Schlussfolgerung.

Siehe boxleitnerb´s Beitrag...

BS! Schau dir den Test an :Test: 2x GeForce GTX 690 im Quad-SLI. Bis auf realitätsferne Auflösungen kann sich Quadsli nur selten wirklich absetzen. Außerdem renne ich oft genug ins CPU-Limit, wodurch sich der reale Vorteil weiter eingrenzt.

Äh. Klar. Ich kaufe mir für 1850€ zwei Karten und spiele dann nur mit FullHD@4xMSAA :rolleyes: Komm lass gut sein. Du erweckst in mir den Eindruck dass du meinen Beitrag als persönlichen Angriff auf dich siehst und dich einfach nur verteidigen willst. Es ist lediglich der Versuch zu vermeiden dass andere (so wie der bans3i-Troll) in die Irre geführt werden. :wink:
Um diese Akte zu schließen: Zwei GK110 sind (i.d.R.) nicht schneller als vier GK104. Da kannst du sogar ein drauf lassen.
 
Effektivität ist das! Effizienz ist wie etwas in einer Relation ist (Kosten zu Nutzen bspw.). Effektivität ist wie (stark) es sich auswirkt (doppelt so schnell bspw.). Bitte rede deutlich dann entstehen auch keine Missverständnisse ;)

Schonmal an FPS/GPU gedacht?


Siehe boxleitnerb´s Beitrag...

Siehe meinen Beitrag.


Äh. Klar. Ich kaufe mir für 1850€ zwei Karten und spiele dann nur mit FullHD@4xMSAA :rolleyes: Komm lass gut sein. Du erweckst in mir den Eindruck dass du meinen Beitrag als persönlichen Angriff auf dich siehst und dich einfach nur verteidigen willst. Es ist lediglich der Versuch zu vermeiden dass andere (so wie der bans3i-Troll) in die Irre geführt werden. :wink:
Um diese Akte zu schließen: Zwei GK110 sind (i.d.R.) nicht schneller als vier GK104. Da kannst du sogar ein drauf lassen.

Spar die deine Polemik, warten wirs einfach ab.

boxleitnerb schrieb:
Zum Inputlag:
Ich kann dir nur sagen, was ich hier spüre. Wenn ich die Auswirkungen von SLI und VSync (ohne TB, ich benutze den D3DOverrider nie) hier vergleiche, ist es mit VSync klar schwammiger wogegen ich zwischen SLI an und aus praktisch keinen Unterschied spüre. Ja, es sind nur 2 GPUs bei mir, aber das mit VSync ist so dermaßen deutlich, dass ich bezweifle, dass sich an dem Bild mit 4 GPUs groß was ändert. Hast du selbst SLI? Probiers doch mal aus.

Hab leider kein Sli, hatte auch erst über ne zweite 580er nachgedacht, aber sah für mich persönlich nicht ganz den Sinn. Vorher muss nen neuer Monitor her, aber Full HD....ich will nen WQXGA mit TN-Panel :mad:

Ich weiß nicht wie sich der Triplebuffer bei MGPU verhält. Wenn er natürlich von jeder GPU Frames vorhält wärs klar das sich das Problem noch steigert.
 
Bei MGPU brauch ich gar kein Triplebuffer. Wo mit einer GPU die fps schön von 60 auf 30 einbrechen, passiert das bei MGPU nie. Ich kann mir die Schwammigkeit aber nochmal anschauen. Vielleicht verhält sich VSync mit SLI anders als ohne SLI.
 
Schonmal an FPS/GPU gedacht?

Was meinst du mit fps pro GPU? Die machen gleich viel. 60 fps = 30 die eine 30 die andere. Bei ungeraden überschneidet es sich eben nach der Sekunde. Aber am Ende haben beide die gleiche Anzahl berechnet.
 
Bei MGPU brauch ich gar kein Triplebuffer. Wo mit einer GPU die fps schön von 60 auf 30 einbrechen, passiert das bei MGPU nie. Ich kann mir die Schwammigkeit aber nochmal anschauen. Vielleicht verhält sich VSync mit SLI anders als ohne SLI.

Hab das mal dazu gefunden. Hier schreiben sie das der Iputlag durch Triple Buffer kaum beeinflusst wird und raten sogar zu Triple Buffer ohne Vsync. Kämpfe mich aber grad noch da durch.

Was meinst du mit fps pro GPU? Die machen gleich viel. 60 fps = 30 die eine 30 die andere. Bei ungeraden überschneidet es sich eben nach der Sekunde. Aber am Ende haben beide die gleiche Anzahl berechnet.

Echt?
 
Zuletzt bearbeitet:
Es ist lediglich der Versuch zu vermeiden dass andere (so wie der bans3i-Troll) in die Irre geführt werden. :wink:
Um diese Akte zu schließen: Zwei GK110 sind (i.d.R.) nicht schneller als vier GK104. Da kannst du sogar ein drauf lassen.

selber Troll :coolblue:

Ich freue mich auf GK110, da geht dann überall 8xSGSSAA + 2x2 DS + 3D usw... @ 60/120 FPS

Leistung kann man NIE genug haben, das ist wie bei Autos, man gewöhnt sich schnell daran.
 
Maximal wird es auch nicht reichen mit zwei GK110, oft hakt es bei Quadsli aber an der umsetzung, siehe Crysis 2. Ob man es jetzt auf die Engine oder auf den Treiber schieben mag, Sli holt mehr pro GPU raus als Quadsli.

Was ist mit Crysis2? :) 4-Way SLI funktioniert ohne Probleme und die GPUs bis zu ~98% ausgelastet.
 
Was ist mit Crysis2? :) 4-Way SLI funktioniert ohne Probleme und die GPUs bis zu ~98% ausgelastet.

Es geht nicht ums Funktionieren, schau dir den Test an. 44 FPS mit 4 GPUs gegen 31 FPS mit 2 GPUs ist schon nen bisschen mager, da skaliert das ganze nur zu 40%.
 
bf5.jpg


bf6.jpg


wenn 2 bigK sich entsprechend so absetzen das sie gleich auf oder besser sind als das Quad....sovort gekauft ;)
 
Es geht nicht ums Funktionieren, schau dir den Test an. 44 FPS mit 4 GPUs gegen 31 FPS mit 2 GPUs ist schon nen bisschen mager, da skaliert das ganze nur zu 40%.

Ich weiss ehrlich gesagt nicht, was da getestet wurde. Welche Settings, welche Timedemo? Vieleicht war die CPU einfach nicht stark genug?
 
wenn 2 bigK sich entsprechend so absetzen das sie gleich auf oder besser sind als das Quad....sovort gekauft ;)

Ist auch Cherrypicked. Im Test hält es sich ungefähr die Waage, mal skaliert Quadsli sehr gut, mal aber auch eher entäuschent wärend normales Sli immernoch sehr gute Ergebnisse bringt ohne das man es auf ein CPU-Limit zurückführen kann.

Ich weiss ehrlich gesagt nicht, was da getestet wurde. Welche Settings, welche Timedemo? Vieleicht war die CPU einfach nicht stark genug?

Steht doch im Test:
Prozessor Intel Core i7-3960X 3,3 GHz übertaktet auf 4,2 GHz
Mainboard ASUS P9X79
Arbeitsspeicher ADATA XPG Gaming Series Low Voltag 4x 2 GB PC3-12800U CL 9-9-9-24
Festplatte ADATA S510 SSD 60 GB
Netzteil Seasonic Platinum Series 1000 Watt
Betriebssystem Windows 7 64 Bit mit SP1
 
Das wichtigste, was da genau getestet wurde, das steht leider nicht da. Deshalb teste ich auch alles selbst. :d
 

Ne komm auf so eine Kinderkacke hab ich kein Bock. Spiel jetzt mal net die beleidigte Leberwurst. Entweder du bist nicht in der Lage dich zu artikulieren oder du trollst einfach nur - ich weiß es nicht!? Dann erkläre mir bitte was bei dir fps/GPU ist.

@bans3i: Ja das stimmt ;)
 
Ne komm auf so eine Kinderkacke hab ich kein Bock. Spiel jetzt mal net die beleidigte Leberwurst. Entweder du bist nicht in der Lage dich zu artikulieren oder du trollst einfach nur - ich weiß es nicht!? Dann erkläre mir bitte was bei dir fps/GPU ist.

Beschwer dich nicht, das Niveau hast du mit Füßen getreten.

Frames pro GPU in einem Setup mit einer GPU bis n GPUs. Schaffen zwei GPUs 80 FPS und vier 140 sind die FPS pro GPU von 40 auf 35 gesunken, also auch die Effizienz pro GPU weil sie weniger Bilder berechnet. Das wars.
 
Das verbuche ich auch wieder unter Effektivität, da ja die GPU nichts dafür kann ;) Aber gut das wir dass durchgekaut haben...

Ändert aber nix an meiner Aussage. Ich bin dennoch sehr gespannt ob dp und hq sich im Desktop auswirken - besonders MGPU könnte davon profitieren weniger CPU-abhängig zu sein.
 
Ist auch Cherrypicked. Im Test hält es sich ungefähr die Waage, mal skaliert Quadsli sehr gut, mal aber auch eher entäuschent wärend normales Sli immernoch sehr gute Ergebnisse bringt ohne das man es auf ein CPU-Limit zurückführen kann.

war eigendlich aus dem Lameng gegriffen weil genau DAS mich interessiert.
Ein wenig drüber nachgedacht was du geschrieben hast ist genau dieser Erfolg eine Farse. Wie man im entsprechenden Thread sehen kann, limitiert im Prinzip die CPU je nach Map. Mich würde da eine Verlaufskurve und die min fps interessieren. Ich war schon drauf und dran mir ne 3. 680er zu holen, sah dann aber wie extrem schlecht die 3. skaliert. Manche Situationen sind anscheinend immernoch ungeklärt ob es auf CPU Limit oder GPU Schwäche zurück zu führen ist. Das werden wir aber wohl erst beim GK110 erfahren.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh