GTX580 SLI oder GTX 680 ???

reinhardrudi

Urgestein
Thread Starter
Mitglied seit
07.09.2006
Beiträge
5.216
Ort
nähe HD
servus
vieleicht könnte der eine oder andere mich bei meiner entscheidung unterstützen :)
ich bin mir nicht ganz schlüßig was ich machen soll:
entweder SLI GTX580 (WAKÜ)oder GTX680 (WAKÜ)

der grund für die überlegung ist,das ich schon eine GTX580@Wakü habe und aufrüsten möchte :d

und was ist mit den micro-rucklern??

THX für eure hilfe bei der entscheidung.

reinhardrudi
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auf die 680 aufrüsten macht kaum Sinn. Zu teuer für zu wenig Mehrleistung. Ich persönlich rüste immer nur auf, wenn ich mindestens 80% fürs gleiche Geld bekomme.
Die zweite 580 kannst du dir vielleicht günstig am Marktplatz abgreifen, aber dann wenn möglich gleich mit Wasserkühler. Mich würde es wurmen, für eine alte gebrauchte Karte 90 Euro für einen Kühler hinzulegen. Mikroruckler sind kein so großes Problem, wenn man VSync benutzt (>60fps) bzw. einen fps Limiter (<60fps) oder gar beides. Ich würde an deiner Stelle eben versuchen, etwas Günstiges zu bekommen oder gleich auf GK110 warten.
 
hi-
Denn erst 2013 sollen erste GeForce-Karten mit GK110-Grafikchips ausgeliefert werden

hmm-nochn jahr und solange SLI... wäre zu überlegen..
 
Wie wäre es mit einem GTX 670 SLI?
- Wesentlich günstiger als GTX 680 SLI
- geringerer Stromverbrauch als GTX 580 SLI
- 670 hat kaum weniger Leistung als die 680

Ein 580 SLI zieht halt schon einiges an Strom. Die 1,5GB RAM könnenn auch zum Problem werden. µRucker sehe ich als unproblematisch mit einem 580 SLI oder höher an (da man eigentlich immer 60 FPS erreichen kann).
 
Ein GTX670 SLi verbund ist meiner meinung nach das beste das jedermann atm mit fokus auf SLi verrichten kann. die karten sind in der tat kaum langsamer als ihre großen brüder.

zum thema. ich schließe mich boxleitnerb an und empfehle dir zu einer zweiten 580 gtx. ich hatte auch ein 580 gespann und bin jetzt bei einer single 680 gtx. ok, ganz ehrlich. ich vermisse das sli verbund nicht denn ich kann auch mit der 680 gtx alles so spielen wie ich es mit einem 580 gespann tat. bf3 läuft auch damit auf anschlag butterweich. möglicherweise mit ein paar fps weniger. dafür mit besserer bildquali und vor allem einem wichtigeren faktor. viel geringerem stromverbrauch sowie die damit in zusammenhang stehende abwärme. davon gibt die 680 nämlich kaum was. sollte aber bei dir keine rolle spielen (wakü).
 
was läuft nicht mit der 580gtx?
 
Zuletzt bearbeitet:
Hm, GTX670 SLI ist mir gar nicht in den Sinn gekommen, das ist im Prinzip keine so schlechte Idee. Für 700 Euro bekommst du GTX580x2.6 Performance - da wird vom Preisleistungsverhältnis GK110 nicht mithalten können.
Wenn du mit MSAA spielst, sind die 1.5GB für deine Auflösung in BF3 zu wenig, da würde dir die zweite 580 wenig bringen.
 
Auf die 680 aufrüsten macht kaum Sinn. Zu teuer für zu wenig Mehrleistung. Ich persönlich rüste immer nur auf, wenn ich mindestens 80% fürs gleiche Geld bekomme.
Die zweite 580 kannst du dir vielleicht günstig am Marktplatz abgreifen, aber dann wenn möglich gleich mit Wasserkühler. Mich würde es wurmen, für eine alte gebrauchte Karte 90 Euro für einen Kühler hinzulegen. Mikroruckler sind kein so großes Problem, wenn man VSync benutzt (>60fps) bzw. einen fps Limiter (<60fps) oder gar beides. Ich würde an deiner Stelle eben versuchen, etwas Günstiges zu bekommen oder gleich auf GK110 warten.

Hier solltest du aufpassen, hab mit meinen, erst vor 1 Monat erworbenen, GTX 460 beide Optionen genutzt und immer wieder Freezes gehabt. Nach Deaktivieren von fps Limiter läuft alles einwandfrei. Ob das wirklich die Ursache war, weiß ich nicht genau. Solltest du im Hinterkopf behalten.

Ansonsten würde ich dir zu ner zweiten GTX 580 raten, damit fährste gut und zahlst "nur" ca. € 200,00. Meiner Erfahrung nach :)

mfg paco
 
Ich hab auch schon gelesen, dass der fps Limiter im Nvidia-Treiber solche Probleme verursachen kann. Ich benutze seit jeher Dxtory und bin immer gut damit gefahren. Vor allem kann man schnell per Alt-Tab raus und bei Bedarf in der "Testphase" das Limit schnell ändern, das geht beim Nvidia-Limiter leider nicht.

Sollte BF3 nicht eigentlich die Details automatisch anpassen je nach verfügbarem VRAM? Ich hab das jetzt schon öfters gehört. In dem Fall wäre es nicht so tragisch, wenn man nur 1.5GB hat.
 
mir macht der fps-limiter keine Probleme.

BF3 stellt die Details wie alles andere nur automatisch ein, wenn mans auf auto stellt.
auch auf ultra hab ich hier keine vram-Auslastung über 1,5GB:
 
Dxtory kenn ich garnicht. Seit ich den Fps-Limiter ausgeschaltet habe und nur noch vsync läuft, läuft alles bestens mit 60fps. Hatte vorher schon das System neu aufgesetzt und alles mögliche probiert, bis ich auf den Fehler gestoßen bin. Naja jetzt läuft alles bestens :)

Hab bei BF3 entgegen aller Aussage nur ne vram Auslastung von max. 800mb und es läuft super. Einstellung ist ne Mischung zwischen Ultra und High.
 
[...]
Wenn du mit MSAA spielst, sind die 1.5GB für deine Auflösung in BF3 zu wenig, da würde dir die zweite 580 wenig bringen.
Das stimmt schlicht und einfach nicht. Mal davon abgesehen dass die Auflösung sogut wie gar nichts am vRAM-Verbrauch mitzureden hat (keine Ahnung warum sich dieses Gerücht so hartnäckig hält), kommt gerade BF3 sehr gut mit relativ wenig vRAM aus. Gerade in hohen Auflösungen ist eine hohe Rechenleistung viel wichtiger, der vRAM-Verbrauch definiert sich eher über die Texturauflösung, den AA-Modus und generell die Speicherverwaltung der Engine und des Treibers.
 
sind das bench-Werte oder was Du so beim Zocken mitbekommst?
 
Das stimmt schlicht und einfach nicht. Mal davon abgesehen dass die Auflösung sogut wie gar nichts am vRAM-Verbrauch mitzureden hat (keine Ahnung warum sich dieses Gerücht so hartnäckig hält), kommt gerade BF3 sehr gut mit relativ wenig vRAM aus. Gerade in hohen Auflösungen ist eine hohe Rechenleistung viel wichtiger, der vRAM-Verbrauch definiert sich eher über die Texturauflösung, den AA-Modus und generell die Speicherverwaltung der Engine und des Treibers.

Bei 2560x1440 mit 4xMSAA kann es durchaus zu Nachladerucklern kommen mit nur 1.5GB, das denk ich mir nicht aus. Wenn es ihm nur um BF3 geht, wäre das nicht die optimale Lösung.
 
Bei 2560x1440 mit 4xMSAA kann es durchaus zu Nachladerucklern kommen mit nur 1.5GB, das denk ich mir nicht aus. Wenn es ihm nur um BF3 geht, wäre das nicht die optimale Lösung.

Hast du das getestet? Ich konnte bisher noch bei keinem Game beobachten, dass mit erhöhter Auflösung und gleichbleibenden sonstigen Einstellungen die vRAM-Auslastung merklich steigt. Und bei 1920x1200 4xAA gibts ja auch keine Nachladeruckler. Die GPU-Last steigt natürlich stark an bei der erhöhten Auflösung.
 
Hast du das getestet? Ich konnte bisher noch bei keinem Game beobachten, dass mit erhöhter Auflösung und gleichbleibenden sonstigen Einstellungen die vRAM-Auslastung merklich steigt. Und bei 1920x1200 4xAA gibts ja auch keine Nachladeruckler. Die GPU-Last steigt natürlich stark an bei der erhöhten Auflösung.

hi

hatte vorher bei 1920x1050 alles auf ultra-jetzt mit der hohen auflösung (27") nur noch geradeso mittel :( sonst ruckelt es zu stark.--unspielbar!

4xMSAA geht nicht.....
 
Zuletzt bearbeitet:
Ja das ist schon klar das kommt halt dadurch dass du mit der hohen Auflösung mehr Rechenleistung brauchst, soweit ja voll nachvollziehbar. Die Frage ist, hängts am vRAM oder nicht, und meiner Meinung nach kanns daran nicht hängen weil der Verbrauch nicht großartig steigen sollte mit der erhöhten Auflösung.

Aber boxleitnerb meint eben dass der vRAM-Verbrauch schon mit der Auflösung ansteigt. Das wird er uns aber bestimmt nochmal näher erleutern wenn er wieder online ist ;)
 
Ja das ist schon klar das kommt halt dadurch dass du mit der hohen Auflösung mehr Rechenleistung brauchst, soweit ja voll nachvollziehbar. Die Frage ist, hängts am vRAM oder nicht, und meiner Meinung nach kanns daran nicht hängen weil der Verbrauch nicht großartig steigen sollte mit der erhöhten Auflösung.

Aber boxleitnerb meint eben dass der vRAM-Verbrauch schon mit der Auflösung ansteigt. Das wird er uns aber bestimmt nochmal näher erleutern wenn er wieder online ist ;)

womit spielst Du denn, nem Brett und nem Würfel oder nem Rechner?
ich mitm Rechner.
wieso sollte die Auflösung nichts mitm VRAM zu tun haben???
wo kommtn das Bild her, vom Arbeitsspeicher? der GraKa? nem USB-stick?

Anzahl Pixel für 1 Bild:
1920x1080=2073600px
2560x1440=3686400px

wir wollen aber bitte ein paar mehr Bilder in der Sekunde.
60 oder 30 fps?
30x1920x1080=62208000px
60x2560x1440=221184000px

ich würd ma schon meinen dass der VRAM irgendwie auch mit der Auflösung zusammen hängt ...
 
Ja das ist schon klar das kommt halt dadurch dass du mit der hohen Auflösung mehr Rechenleistung brauchst, soweit ja voll nachvollziehbar. Die Frage ist, hängts am vRAM oder nicht, und meiner Meinung nach kanns daran nicht hängen weil der Verbrauch nicht großartig steigen sollte mit der erhöhten Auflösung.

Aber boxleitnerb meint eben dass der vRAM-Verbrauch schon mit der Auflösung ansteigt. Das wird er uns aber bestimmt nochmal näher erleutern wenn er wieder online ist ;)

Mit der Auflösung steigt die VRAM-Belegung zwar nur wenig, aber zusammen mit dem MSAA reicht das, um es auf großen Maps eng werden zu lassen. Ich habe schon einige Male gelesen, dass Leute mit 1.5GB sich über Nachladeruckler trotz guter fps beklagt haben. Ein Kumpel von mir hatte GTX480 4-way SLI und konnte das bestätigen. Mikroruckler waren es übrigens keine, sag ich vorsorglich mal ;)

@Slot:
So wird das nicht gerechnet. Du nimmst die Pixelzahl und die Farbtiefe, also z.B. 1920x1080x32bit.

Es wird ja immer gerne das berüchtigte Metro2033 hergenommen, um den Nutzen von viel VRAM aufzuzeigen. In 1080p mit 4xMSAA läuft das gut, in 5760x1080 mit 4xAA kommt dann der große Einbruch:
http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-gtx-680-sli-vs.-hd-7970-cf/24/

Wenn durch höhere Auflösungen nur marginal mehr VRAM benötigt würde, warum dann dieser Einbruch? Die Samplezahl ist gleich, nämlich 4x, sonst hat sich ja nichts geändert.
 
Zuletzt bearbeitet:
HI,
der Einbruch kommt, wel die Karte nicht mehr genug Leistung hat, alles flüssig hintereinander weg zu rechnen.
vRAM ist nunmal sehr wenig Auflösungsabhängig. In den vRAM werden die Texturen vom Spiel geladen. Diese sind aber bei einer höheren Auflösung immer noch die gleichen. Oder meinst du, dass jedes Spiel für jede Auflösung andere Texturen verwendet? In der Regel ist das nicht der Fall ( mag sicher Ausnahmen geben)
AA bei kleiner und größerer Auflösung braucht richtig viel Leistung mehr. Ist klar das irgendwann der Karte die Puste ausgeht.

Ich habe z.B. dieses Jahr von 1680er Auflösung auf FullHD gewechselt. Bei den Spielen die ich spiele, konnte ich mit FRAPS keinen Unterschied in der vRAM Menge feststellen. Selten mal 5-10MB mehr, das wars aber schon. Ich selber habe es mit Crysis, BFBC2 und AVP getestet. Das sind zwar jetzt keine vRAM hungrige Spiele, aber der effekt sollte ja der gleiche sein.

Ich würde aber trozdem kein GTX 580 SLI verwenden. Ich habe Microrucker bei nen GTX 570er Gespann gesehen und fands super nervig. Mein Kumpel dem das System gehört hat sie nicht gesehen. Ist wahrscheinlich leicht Augenabhängig.

Gruß
Alex
 
Das stimmt schlicht und einfach nicht. Mal davon abgesehen dass die Auflösung sogut wie gar nichts am vRAM-Verbrauch mitzureden hat

Erigentlich erheblich.
Allerdings ist sie eher eine Variable die aktiv wird, wenn Kanteglättungsmodi genutzt werden.
2560x1600 4xAA zieht erheblich mehr V-ram als 1680x1050 mit 4x MSAA.
 
ich glaube die angeblichen sli mikroruckler sind in wahrheit meistens was anderes, wie z.b. vram ruckler. bei mir fangen die glaub an, wenn ich nur noch so 40mb frei hab bei 1gb.

habt ihr euch mal durchgelesen was sli mikroruckler offiziel sind? die kommen einfach nur von einem möglichen ungleichmäßigen zeitabstand zwischen 2 bildern von den beiden karten. also man hätte zb. bei 50fps zwischen 2 bildern erst einen zeitabstand wie bei 70fps und dann einen wie bei 30fps. find ich irgendwie blödsinnig das mikroruckler zu nennen. dann kann man auch sagen eine single karte mit 30fps hat doppelt so viele sli mikroruckler. außerdem wer kauft sich schon sli um dann 50fps zu haben, dann kann man sich ja auch ne aktuelle single karte kaufen.

ich werd von meinen 560ti sli entweder umsteigen auf eine 670 und mir dann irgendwann eine 2. holen oder ich hol mir 660ti sli, wenn die nicht zu teuer werden. ich find preisleistungsmäßig war 560ti sli das beste was man machen konnte bei nvidia, wenn man viel leistung wollte. die performance reicht immer noch dicke, aber die 1gb vram sind einfach zu wenig um die leistung voll ausnützen zu können. die vielen fps bringen halt nix, wenn der vram fast voll ist und man dadurch ruckler bekommt, dann muss man halt doch die grafik runterschrauben.

von daher würd ich auch nicht auf 580sli gehen. die abwärme ist ja auch übel. im sli wird die erste karte noch viel heißer als im single betrieb. selbst bei meinen 560ti ist es im zimmer manchmal 28°C geworden obwohl es draußen nur 24°C waren, ob luft oder wakü macht da dann auch keinen unterschied. da muss man nur mal ein leistungshungriges spiel einen halben tag lang spielen. bei der aktuellen generation ist der stromverbrauch viel niedriger und damit auch die abwärme.
 
ich glaube die angeblichen sli mikroruckler sind in wahrheit meistens was anderes, wie z.b. vram ruckler. bei mir fangen die glaub an, wenn ich nur noch so 40mb frei hab bei 1gb.

habt ihr euch mal durchgelesen was sli mikroruckler offiziel sind? die kommen einfach nur von einem möglichen ungleichmäßigen zeitabstand zwischen 2 bildern von den beiden karten. also man hätte zb. bei 50fps zwischen 2 bildern erst einen zeitabstand wie bei 70fps und dann einen wie bei 30fps. find ich irgendwie blödsinnig das mikroruckler zu nennen. dann kann man auch sagen eine single karte mit 30fps hat doppelt so viele sli mikroruckler. außerdem wer kauft sich schon sli um dann 50fps zu haben, dann kann man sich ja auch ne aktuelle single karte kaufen.

ich werd von meinen 560ti sli entweder umsteigen auf eine 670 und mir dann irgendwann eine 2. holen oder ich hol mir 660ti sli, wenn die nicht zu teuer werden. ich find preisleistungsmäßig war 560ti sli das beste was man machen konnte bei nvidia, wenn man viel leistung wollte. die performance reicht immer noch dicke, aber die 1gb vram sind einfach zu wenig um die leistung voll ausnützen zu können. die vielen fps bringen halt nix, wenn der vram fast voll ist und man dadurch ruckler bekommt, dann muss man halt doch die grafik runterschrauben.

von daher würd ich auch nicht auf 580sli gehen. die abwärme ist ja auch übel. im sli wird die erste karte noch viel heißer als im single betrieb. selbst bei meinen 560ti ist es im zimmer manchmal 28°C geworden obwohl es draußen nur 24°C waren, ob luft oder wakü macht da dann auch keinen unterschied. da muss man nur mal ein leistungshungriges spiel einen halben tag lang spielen. bei der aktuellen generation ist der stromverbrauch viel niedriger und damit auch die abwärme.

Nein, Mikroruckler sind nichts anderes. Mikroruckler heißt das deswegen, weil sie innerhalb der Sekunde auftreten, was man nicht mehr mit "fps" ausdrücken kann, weiß die Zeiteinheit zu grob ist, um die Unregelmäßigkeiten zu erfassen.

Eine Singlekarte mit 30fps hat nicht "doppelt so viele sli mikroruckler", das ist völliger Quatsch. Im Optimalfall sind die frametimes bei einer GPU völlig gleich. In der Realität ist das enginebedingt aber auch nicht immer gegeben.

Was ist an 50fps@SLI schlimm? Mit einer GPU hätte man dann 25-30fps - unspielbar.
 
Zuletzt bearbeitet:
Das hab ich bisher noch nie erlebt. 40-45 und darunter, da wirds eklig - aber auch nicht immer. IdR ziele ich aber auch auf 60fps, nur die kann man selten durchgehend halten, es sei denn man wählt so zahme Settings, dass SLI überhaupt keinen Sinn macht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh