[Sammelthread] Nvidia GeForce GTX 560 "GF114" Sammel-Spekulations-Thread

Status
Für weitere Antworten geschlossen.
Nvidia GeForce GTX560 Sammel-Spekulations-Thread

cardspbjp.jpg


*Spekulation Mode an*

Release

"Anfang 2011"
"20.01.2011"

Neu vom 20.12:

1_mqa0j.jpg


GeForce GTX 560*Variante 1

Chip: GF112
Fertigung: (40nm)
Cuda Cores: 448
TMUs: 64
ROPs: 32
Chiptakt: 680 Mhz
Shadertakt: 1360 Mhz
Speichertakt: 3600 Mhz
Speicherinterface: 256 Bit
Speichergröße: 1 GB GDDR5
TDP: ca. 160 Watt

GeForce GTX 560*Variante 2 (Fudzilla Version)

Chip: GF114 (quasi GF104 mit den freigeschalteten Cuda Cores)
Fertigung: (40nm)
Cuda Cores: 384
TMUs: 64
ROPs: 32
Chiptakt: > 675 Mhz
Shadertakt: > 1350 Mhz
Speichertakt: xxxx Mhz
Speicherinterface: 256 Bit
Speichergröße: 1 GB GDDR5
TDP: ca. 1xx Watt

GeForce GTX 560*Variante 3 (expreview siehe Screenshot GPU-Z)

Chip: GF114 (quasi GF104 mit den freigeschalteten Cuda Cores)
Fertigung: (40nm)
Cuda Cores: 384
TMUs: 64
ROPs: 32
Chiptakt: 820 Mhz
Shadertakt: 1640 Mhz
Speichertakt: 1000 Mhz
Speicherinterface: 256 Bit
Speichergröße: 1 GB GDDR5
TDP: max. 160 Watt

vermutete technische Details

* Memory Bandwith: 156.2 GB/sec
* Pixel Fill Rate: 23.2 GPixels/sec
* Fragments Pipeline: 384
* Vertex Pipelines: 384
* Textire Units: 64
* Raster: 32
* Core Voltage: 1,1V
* 6 + 8Pin oder 6+6Pin Strom Anschluss

Erste Tests der Karte

noch nichts bekannt

Preisvergleich

noch nichts bekannt

Treiber

noch nichts bekannt

Tools

noch nichts bekannt

DX11 Benchmarks

noch nichts bekannt

Performance

noch nichts genaues bekannt, es soll wohl sich im Bereich der AMD HD6950 bewegen

Fudzilla orakelt: "We expect some average 15 to 20 percent performance increase from GTX 560 compared to GTX 460."

Links

Hardwareluxx - NVIDIA GeForce GTX 570 schon in Kürze?

Hardwareluxx - NVIDIA GeForce GTX 560: Startschuss schon im neuen Jahr?

geforce gtx 560 release date

GeForce GTX 560 < VideoCardz.com >

GTX 560 Specs and Release Date Leaked - Softpedia

Hardwareboard.eu - Neue Gerüchte rund um die GeForce GTX 560

http://www.fudzilla.com/graphics/item/20835-geforce-gtx-560-comes-next-year-has-384-shaders

Ps.: Bitte nicht schlagen ist mein erster Sammel Fred!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dann stimmt auch die leistung bei extremen aufloesungen/details.

wenn der preis natuerlich nicht so extrem ist wie jetzt..sonst kannste auch 2 570er nehmen.
 
Das mir allerdings zu teuer daher warte , freue , tendiere ich zur 560er ;)
 
mit 1gb ram ja, die mit 2 sind noch nicht lieferbar und so teuer wie ne 570. ;)
 
Von palit gibt's eine für 250 € das immer noch weit günstiger als die 570 er und 2 x 560 er rocken definitiv mehr wie eine 570 oder 580 er!!!
 
wenn ich das geld hätte würd ich mir nie son dual-gpu-system mit zwei mittleren karten holen.
in diesem falle eher ne gtx580 mit wakü oder so oder gleich zwei 580 (mit wakü). dual gpu hat doch viel zuviele nachteile und ist doch eher nur für absolutes highend ohne bedenken bei stromverbrauch und geld interessant.
 
Zuletzt bearbeitet:
Aktuell bzw. Seit Anfang an habe ich 2 x 285 gtx Zitat Amp.! Verbaut und bin damit sehr happy! Und 2 x 560 gtx stecken Ne Single 580 in die Tasche! Selbst 2x570 er sind teilweise schwächer als die 2x 560 er ( siehe diesem Review EVGA GeForce GTX560 Ti SuperClocked Video Card Review - Ninjalane.com

Die sollen denn bitte 560er stärker sein als 570er, ... da liegt schon noch einiges dazwischen.

Edit:

In dem Review finde ich keine 570er, oder bin ich blind?
 
naja, eine auf 1000mhz getaktete 560 ist in manchen situaitonen schneller als ne stock 570. aber nur in manchen wie gesagt. aber wenn man die 150-200 mhz mehr auch auf die 570 haut..
 
Oh ok hast recht! Mein Fehler, nehme alles zurück und behaupte das Gegenteil! Bin momentan nur via iPhone online und habe da wohl nicht richtig hingeschaut! War auch schon verwundert gewesen! ;)
 
ja ich sach ja wenn man geld ohne ende hat kann man sich auch immer das highend sli system holen inkl wakü. dann spricht da nicht so viel gegen. die gtx285 waren damals ja auch highend. nur jetzt würdest du wohl auch lieber ne einzelne 580 haben als deine zwei 285... oder halt direkt zwei gtx 580. aber n gtx 560 sli oder jetzt noch n 285 sli halt ich für schwachsinn. ineffizient, mikroruckler, manchmal schlechte sli skalierung, mehr kühlprobleme... ok man hat n längeren balken bei avg fps, aber das wars auch schon.
nicht umsonst ist sli & crossfire nach wie vor ein nischenprodukt; selbst (oder gerade) bei hardwareenthusiasten.
 
Nachdem ich hier sehr viele gute Infos zur 560 gekriegt hab, möchte ich mich mal revanchieren.

Hatte mir bei ALTERNATE eine EVGA 560ti bestellt. Die bestätigten mir aber nach einem Anruf auf Verdacht das sie eben nicht in 3-5 Werktagen lieferbar sein würde und auf unbekannte Lieferfrist gesetzt worden war.
Hab einfach schnell auf SPARKLE GTX 560Ti umbestellt. War sogar noch 5 Euro billiger (214,90€). Hab das am Donnerstag gemacht, am Freitag war die Karte dann auch prompt da.

SPARKLE GTX 560 Ti:
In der Box ist kein Spiel oder sonstiger Kram, nur ein HDMi-zu Mini-HDMI Adapter und die CD. Aber Mafia II oder sonstwas brauch ich auch nicht.

Die Karte ist ein gutes Stück kürzer als meine alte GTX260 (192). So kann ich jetzt erstmals an 5 von den 6 SATA ports auf meinem betagten P5K Deluxe ran. Karte läuft im Idle mit 28°-29°C, allerdings hab ich meistens einen zweiten Monitor an, dann läuft sie architekturbedingt mit vollem Takt bei 46°. Hab bisher noch nicht viel gezockt ausser L4D aber da wurde sie weder heiss noch laut. Karte ist gefühlt einen Tick leiser als meine alte GTX260, macht auch nicht mehr so ein merkwürdiges Fan-Hochdrehen beim Neustart. Ich denke ich verzichte auf einen Mod von 40% auf 30% Lüfterreglung. Mein Workstationtower(Wakü auf CPU) macht durch die Festplatten und Lüfter. sowieso mehr Lautstärke als die Karte.
Alles in allem fühlt sich das Ding an wie ein richtiges Upgrade. Also schlanker, kühler, weniger Energieverbrauch und vor allem schneller.

Update: Aufkleber auf der Karte sagt Manufacturing Date war anscheinend 23.1.2011...das ging ja mal schnell.
 
Also mikroruckler kenne ich eigentlich nicht , sind mir bisher nicht aufgefallen! Bin mit meinem sli Verbund absolut zufrieden! Daher würde/werde ich mir jederzeit wieder eins holen! Preis Leistung in Sachen 560 sli ist halt Top! Unter Wasser läuft eh alles! Und es kostet die Hälfte von 2 580 er die meiner Meinung nach nur Penis Ersatz sind! Da stecke ich lieber paar Euro mehr in meint Harley ;)
 
Welche Temperatur haben eure 560er so? Wenn ich den Lüfter automatisch lasse bleibt er immer recht leise - nahezu unhörbar, aber der Chip geht beim Furrmark auf die 70° C hoch...

wenn ich es dann manuell etwas erhöhre geht der schnell wieder runter.. Leider schnall ich das EXPERTool irgendwie nich.. würde gerne die automatik anpassen
 
Welche Temperatur haben eure 560er so? Wenn ich den Lüfter automatisch lasse bleibt er immer recht leise - nahezu unhörbar, aber der Chip geht beim Furrmark auf die 70° C hoch...

wenn ich es dann manuell etwas erhöhre geht der schnell wieder runter.. Leider schnall ich das EXPERTool irgendwie nich.. würde gerne die automatik anpassen

Ist doch alles bestens. 70 Grad sind doch super.

Welche 560 hast Du denn?
 
ich habe die golden sample, die ist schon etwas übertaktet (habe mich noch nicht dran gewagt da höher zu gehen, weil ich es helrich gesagt absolut nicht brauche ^^)...
aber mit den lüftern bei 30 - 34 % (höher geht die irgendwie nicht - dabei ist es noch bis 45 - 50% noch so leise wie der boxed Intel CPU lüfter den ich momentan noch drin habe)..) bleibe ich bei ca. 60 - 70° (ich nehme jetz mal BFBC2, in anderen games ist das niedriger, aber das zählt ja nicht, ich will ja dauerhafte Leistung haben)
 
Zuletzt bearbeitet:
Hab am Wochenende endlich meine Gigabyte GTX560 OC verbaut. Also leise ist anders.
Man hört die ganze Zeit ein Luftrauschen. Ist nciht aufdringlich, aber auf Dauer nervig. Meine 5770 Vapor-X vorher war definitiv leiser.

Muss mal schauen, ob man da was am Bios machen kann.
 
ineffizient, mikroruckler, manchmal schlechte sli skalierung, mehr kühlprobleme... ok man hat n längeren balken bei avg fps, aber das wars auch schon.
nicht umsonst ist sli & crossfire nach wie vor ein nischenprodukt; selbst (oder gerade) bei hardwareenthusiasten.

Aha ist das so?

- Ineffeffizienz ist eine reine Treiber- und Softwarefrage, die Hardware ist da also kann sie auch Leistung bringen. Um ein positives Beispiel zu nennen, bei Ungine Heaven haben sich meine Fps bei maximalen Einstellungen von avg 31Fps auf avg 61Fps erhöht, was einer durchschnittlichen Erhöhung von über 90% entspricht. Natürlich gibt es eine Menge Spiele und künstliche Benchmarks bei denen es nicht so ist aber grundsätzlich ist es möglich. SLI oder Crossfire als ineffizient abzustempeln, halte ich daher für Schwachsinn.
- Mikroruckler sind in der Tat immer ein Problem bei Verbundsystemen, zumindest Nvidia hat es bei SLI allerdings mittlerweile sehr gut gelöst (wie es bei Crossfire ist kann ich nicht sagen, habe ich derzeit in keinem Rechner). Ich bin eigentlich sehr empfindlich was kleine Bildstörungen, Ruckler, etc angeht, konnte jedoch bei bis jetzt bis zu 30Fps keine Ruckler erkennen, darunter könnten sie da sein aber sieht man sowieso nicht, da es ab diesem Bereich sowieso ruckelt und ich keine Ahnung habe was davon jetzt den Mikrorucklern zuzuordnen sein soll und was einfach Ruckler auf Grund mangelnder Leistung ist.
- SLI-Skalierung ist ja eigentlich der erste Punkt.
- Ob man Kühlprobleme hat oder nicht, ist eine reine Frage des Systemaufbaus. Mit einer WaKü sind da sowieso keine Probleme. Mit einer LuKü und auseinander gesteckten Karten sind da auch keine Probleme. Und als dritter Punkt noch bei LuKü und zusammengesteckten Karten, hier kann es je nach Gehäusebelüftung zu höherer Temperatur der oberen Karte kommen, bei guter Belüftung jedoch nie mehr als 10° unter Last. In wie fern hier also ein Problem besteht, stelle ich in Frage.

Was nun den Nutzen eines solchen Systems angeht... Mal ganz davon abgesehen, dass es eben Hardwareenthusiasten gibt die einfach Spass an solchen Systemen haben (trifft auf mich schon mal zu) und es auch diverse weitere Gründe dafür gibt... zum Beispiel 3D Betrieb, 120Hz Betrieb (trifft auch auf mich zu), Nutzung mehrerer Bildschirme und und und... ist der grösste Vorteil nicht der Langweilige Averagebalken der oftmals sowieso kaum etwas aussagt, sondern die min Fps. Denn was hilft es mir avg um die 60Fps zu haben, wenn die min Fps bei den kurzen, anspruchsvollen Szenen auf unter 30 Fps fallen? ;)



Und warum SLI/Crossfire eher ein Nieschenprodukt ist kann ich dir genau sagen, Verbundsysteme sind teuer, ist doch die Grafikkarte heutzutage meist eine wenn nicht sogar die teuerste Komponente bei vielen Systemen.
 
@psyarkron

aalso...
anscheinend reden wir aneinander vorbei.

zur effizienz und sli-skalierung:
90% ist ein positives beispiel. trotzdem brauch ich 200% geld, strom, kühlung usw. für 190% leistung in einem POSITIVEN beispiel. das nenn ich weniger effizient.
spiele auf multi-gpu zu optimieren, kostet zeit und geld. manchmal mehr, manchmal weniger.
es gibt engines, die laufen so schon einigermaßen gut, es gibt fälle, da kann man treiberseitig was dran machen, und manchmal kommt auch ein patch fürs spiel raus.
allerdings gibt es immer noch ab und an spiele, die kaum oder gar nicht skalieren. vielleicht scheuen die den aufwand oder die engine harmoniert einfach nicht oder weißderteufelwas.
diese unterschiedlichen fälle der sli-skalierung hat es schon immer gegeben, und ich erkenne auch nicht, dass sich da anteilmäßig etwas geändert hat oder ändern wird.

mikroruckler:
es stimmt, dass nvidia das problem treiberseitig angegangen ist. bei ati schaut man in die röhre.
was auch immer da getan wurde seitens nvidia, es hat bewirkt, dass die avg-fps minimal gesunken sind und die mikroruckler deutlich zurückgegangen sind und somit die min-fps gestiegen sind.
das heißt aber nicht, das sie jetzt weg wären. protokollier doch einfach mal von irgendwas die frametimes, dann wirst dus sehen.

beispiel:
nehmen wir an, ein spiel skaliert mit 60% (avg-fps) durchschnittlich gut, und du hast statt 25 avg-fps 40 avg-fps. kommen noch minimale mikroruckler hinzu, und du hast statt durchgehend 25ms frametime dann 20ms und 30 ms im wechsel. damit sinken die min-fps auf 83% des normalen wertes, und die 40fps fühlen sich an wie 33 fps.

also von den 160% leistung des sli systems blieben gefühlt noch 133% übrig.

das beispiel schätz ich als recht praxisnah ein.

in einem normalen fall stehen also für 200% der hardware, kühlung, verbrauch 133% gefühlte leistung entgegen. das nenn ich erst recht ineffizient.

absolute leistung ist natürlich fast immer besser als bei ner einzelkarte.

kühlprobleme sind natürlich alle lösbar, das ist klar. macht aber halt mehr aufwand als bei einer karte.

kommen wir zum sujektiven empfinden: da kann man natürlich nichts gegen sagen. wenn einer glücklich ist, weil er ZWEI statt nur eine graka hat, dann ist das schön und natürlich viel wert. man kann angeben, man fühlt sich glücklich, wenn man einfach nur draufschaut usw. wie gesagt ist auch sehr wichtig der punkt. da kann man nichts gegen sli sagen.

deinen smiley-satz versteh ich nicht. denn grade bei sli kann man ja nur mit den avg angeben, da die min fps relativ gesehen schlechter sind (s.o.). absolut sind sie natürlich höher.

daher hab ich auch gesagt, dass es sinn macht sich ein sli system zu holen, wenn man z.b. jetzt geld für 2 580 mit wakü hat, einem verbrauch & umweltgedanke egal ist, und man in einem jahr direkt wieder auf 2 der nächsten generation wechseln wird.

völlig banane find ich z.b. sli als aufrüstoption. jetzt ne 560, in 1 nem jahr die zweite dazu.
in nem jahr wirds der erfahrung nach schon ne singlechipkarte geben, die fast doppelt so schnell ist wie ne 560, und nicht die nachteile bei stromverbrauch, kühlung, effizienz und mikroruckler hat. da wärs doch besser, man verkauft dann seine 560 und holt sich ne neue singlechip.

wie gesagt macht sli sinn, aber nur als absolutes highend und das jede generation aufs neue. alles andere ist zumindest rational nicht erklärbar.
 
Ist doch alles bestens. 70 Grad sind doch super.

Welche 560 hast Du denn?

Was für Temperaturen hast du denn so nach 20 - 30 Minuten?

(Ich nutze nen Furmark mit allen Post Effecten und krims krams ^^)

Oder welche Temps sind für eine GPU diesen Ausmasses normal.. ~ 70°C mag ich eigentlich nicht so, da könnte sich der Lüfter von mir aus noch ein paar RPM genehmigen!
 
Da du ein ziemlich langes Post verfasst hast, schreib ich mal dazwischen, damit man den Überblick behält und ich nicht 20 Quotes machen muss. :fresse:

zur effizienz und sli-skalierung:
90% ist ein positives beispiel. trotzdem brauch ich 200% geld, strom, kühlung usw. für 190% leistung in einem POSITIVEN beispiel. das nenn ich weniger effizient.
So gesehen, müsstest du auch eine GTX580 schlecht finden, weil die ja viel mehr kostet, Strom verbraucht und wärmer wird. Überhaupt, warum die 560? Kauf dir eine 450GT oder noch niedriger...
Gut das war jetzt natürlich scherzhaft gemeint aber verstehst du worauf ich hinaus will? Nach oben hin brauchst du immer mehr Geld, mehr Strom, etc muss halt jeder wissen wie viel er in Kauf nimmt für mehr Leistung. Den Preis habe ich ja bereits als Problempunkt für Verbundsysteme aufgeführt.

spiele auf multi-gpu zu optimieren, kostet zeit und geld. manchmal mehr, manchmal weniger.
es gibt engines, die laufen so schon einigermaßen gut, es gibt fälle, da kann man treiberseitig was dran machen, und manchmal kommt auch ein patch fürs spiel raus.
allerdings gibt es immer noch ab und an spiele, die kaum oder gar nicht skalieren. vielleicht scheuen die den aufwand oder die engine harmoniert einfach nicht oder weißderteufelwas.
diese unterschiedlichen fälle der sli-skalierung hat es schon immer gegeben, und ich erkenne auch nicht, dass sich da anteilmäßig etwas geändert hat oder ändern wird.
Ja, als Programmierer weiss ich das... aber was interessiert mich als User der Aufwand dafür? Ich sehe da nur Applikationen, die es besser oder schlechter nutzen. Ich sehe allerdings, dass es mittlerweile immer mehr Programme gibt, die Verbundsysteme relativ gut unterstützen. Selbst wenn es nur 60-80% sind, sie sind da und es gibt durchaus (wie oben im letzten Post bereits aufgeführt) Punkte an denen sich selbst 60% lohnen.

mikroruckler:
es stimmt, dass nvidia das problem treiberseitig angegangen ist. bei ati schaut man in die röhre.
was auch immer da getan wurde seitens nvidia, es hat bewirkt, dass die avg-fps minimal gesunken sind und die mikroruckler deutlich zurückgegangen sind und somit die min-fps gestiegen sind.
das heißt aber nicht, das sie jetzt weg wären. protokollier doch einfach mal von irgendwas die frametimes, dann wirst dus sehen.
Ich habe ja nicht gesagt die Mikroruckler wären weg, ich hatte gesagt sie wären (zumindest bei Nvidia) so weit runter gedrückt worden, dass sie erst in einem Bereich auftreten in dem man den Unterschied zwischen Mikroruckler und den restlichen Rucklern nicht mehr wahrnimmt. Das Problem ist also quasi als solches nicht mehr vorhanden.
Es stimmt zwar das Nvidia scheinbar Mikroruckler auf Kosten von etwas Leistung bekämpft hat aber ein paar Fps weniger, wenn ich ein Spiel bei 80Fps spiele, gebe ich aber gerne her, wenn ich dafür bei einem anderen Spiel mit 40Fps keine Mikroruckler habe.


beispiel:
nehmen wir an, ein spiel skaliert mit 60% (avg-fps) durchschnittlich gut, und du hast statt 25 avg-fps 40 avg-fps. kommen noch minimale mikroruckler hinzu, und du hast statt durchgehend 25ms frametime dann 20ms und 30 ms im wechsel. damit sinken die min-fps auf 83% des normalen wertes, und die 40fps fühlen sich an wie 33 fps.

also von den 160% leistung des sli systems blieben gefühlt noch 133% übrig.

das beispiel schätz ich als recht praxisnah ein.

in einem normalen fall stehen also für 200% der hardware, kühlung, verbrauch 133% gefühlte leistung entgegen. das nenn ich erst recht ineffizient.
Bei 40Fps hast du eben, zumindest bei SLI dank Nvidias Bemühungen, kaum noch Mikroruckler, damit wird dein gefühltes Beispiel eher hinfällig. Für Crossfire könnte das noch zutreffen.

absolute leistung ist natürlich fast immer besser als bei ner einzelkarte.

kühlprobleme sind natürlich alle lösbar, das ist klar. macht aber halt mehr aufwand als bei einer karte.
Nochmal, was für Kühlprobleme? Ich habe oben bereits aufgeführt, dass man maximal etwa 10° mehr auf der oberen Karte hat unter Last, tendenziell eher weniger. Das kann ich aus eigenen Erfahrungen sagen, da ich die Karten eher ungünstig positioniert habe und mein Rechner luftgekühlt läuft, selbst bei starker thermaler Belastung war die höchste Differenz zwischen den Karten 11°. Da ist die gesamte Kühlung an sich eher problematisch, als die höhere Temperatur die noch durch SLI entsteht...

kommen wir zum sujektiven empfinden: da kann man natürlich nichts gegen sagen. wenn einer glücklich ist, weil er ZWEI statt nur eine graka hat, dann ist das schön und natürlich viel wert. man kann angeben, man fühlt sich glücklich, wenn man einfach nur draufschaut usw. wie gesagt ist auch sehr wichtig der punkt. da kann man nichts gegen sli sagen.

deinen smiley-satz versteh ich nicht. denn grade bei sli kann man ja nur mit den avg angeben, da die min fps relativ gesehen schlechter sind (s.o.). absolut sind sie natürlich höher.
Du läufst da irgendwie auf einem Holzweg mit irgend welchen Theoriepunkten... Gerade wo du oben versuchst praxisnahe Beispiel darzustellen verstehe ich nicht, warum du hier mit Theorie kommst.
Was hilft mir den die relativ bessere Skalierung zu min Fps, wenn ich mit einer Singlekarte schlicht zu wenig Fps und dauernd Ruckler habe?
Dass die min Fps relativ besser sind mit einer Singlekarte, bei 40Fps avg und Einbrüchen bis zu 25Fps, ist doch völlig egal wenn ich mit SLI 70Fps avg und Einbrüchen bis zu 40Fps habe. Da würde ich doch immer Zweiteres bevorzugen, schlicht weil es da flüssig läuft?!


daher hab ich auch gesagt, dass es sinn macht sich ein sli system zu holen, wenn man z.b. jetzt geld für 2 580 mit wakü hat, einem verbrauch & umweltgedanke egal ist, und man in einem jahr direkt wieder auf 2 der nächsten generation wechseln wird.
Wieso schon wieder Wasser? :-/ SLI (oder auch Crossfire) geht auch völlig problemlos unter Luft.

völlig banane find ich z.b. sli als aufrüstoption. jetzt ne 560, in 1 nem jahr die zweite dazu.
in nem jahr wirds der erfahrung nach schon ne singlechipkarte geben, die fast doppelt so schnell ist wie ne 560, und nicht die nachteile bei stromverbrauch, kühlung, effizienz und mikroruckler hat. da wärs doch besser, man verkauft dann seine 560 und holt sich ne neue singlechip.

wie gesagt macht sli sinn, aber nur als absolutes highend und das jede generation aufs neue. alles andere ist zumindest rational nicht erklärbar.
Mit der Zeitspanne von einem Jahr hast du ja völlig recht, auf diese Dauer gesehen stimmt das. Was aber, wenn ich in einem viertel Jahr mehr Leistung brauche? Und es noch keine neue Generation gibt? Dann kann SLI/Crossfire durchaus auch sinnvoll sein.
Und jedes Jahr aufs neue muss auch nicht sein, es gibt Leute die sich SLI zulegen, damit sie eben eine oder zwei Generationen aussetzen können, das wäre ebenfalls eine mögliche sinnvolle Möglichkeit. Darum hatte ich im letzten Post auch "und und und..." geschrieben, da gibt es durchaus einige logische Möglichkeiten für den Einsatz von SLI/Crossfire.
 
Zuletzt bearbeitet:
Gibt es noch keine Möglichkeit, den Lüfter unter 40% laufen zu lassen? Bei Afterburner bringen Einstellungen unter 40% nichts, geht wieder auf 40%
 
CF oder SLI lohnt sich doch nur, wenn man für das gleiche Geld KEINE adäquate Single-GPU-Lösung gibt. Für zwei GTX560 legt man ca. 420€ auf den Tisch, dafür bekommt man auch schon eine GTX580 die zwar 20-30% langsamer ist, aber dafür garantiert frei von SLI-Nebenwirkungen ist, weniger verbraucht und zudem auch noch leiser ist. Das ist die vernünftigere Wahl auf jeden Fall die GTX580.

Aber es geht auch anders am Beispiel einer HD6850. Zwei Karte kosten im Moment günstigst 280€ und wäre damit (bei einer geschätzen Performancezuwachs durch eine 2. Karte von 60%) auf dem Niveau eine GTX580. Für 280€ bekomme ich bei AMD eine 6950 und hätte noch ein wenig Geld übrig, eine 6970 kostet schon über 300€ und beide Karten liefern bei weitem nicht die Performance eines CF-Gespanns zweier 6850. Hier könnte man also zwei 6850 den Vorzug geben.

Es hängt also immer von der einzelnen Grafikkarte, dem Leistungszuwachs und dem Preis des SLI-Gespanns ab.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh