Dual-GPU-Grafikkarte GeForce GTX 590 im Februar?

HD 5970 = 2x5850CF von der Leistung her.

Was aber an den Taktraten liegen dürfte ;)

---------- Beitrag hinzugefügt um 22:33 ---------- Vorheriger Beitrag war um 22:31 ----------

Es geht ja nicht primär darum... Wobei bei dem Post schon. Das schlimmere Übel ist wohl die Kühlung unter Luft...
Denn das ist wirklich nicht ganz ohne 375 mögliche Watt anständig abzuführen...

Ach was, wird sowieso Zeit für Quad-Slot Directtouch Vaporchamber Kühler mit 2 120mm Lüftern auf 4000rpm. :fresse2:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ausgehend von meiner 480M im Notebook, die auf dem stromhungrigen GF100 Chip setzt:


GF100 => 352 Shader @ 425/850MHz @ 0,85V + 2GB Speicher @ 1200MHz @ 256Bit


bei einer TDP von 100W (gesamtes MXM 3.0B Board), kann ich mir schon vorstellen, das nV es schafft einen vollwertigen GF110 Part (downclocked GTX 580) auf ca 140W zu trimmen, da der GF110 ja eine bessere Energie Effizienz aufweist gegenüber dem GF100, was schätzungsweise so aussehen könnte:


GF110 => 512 Shader @ 550/1100MHz @ 0,90V + 1,5GB Speicher @ 1600MHz @ 384Bit


das mal zwei ergibt dann etwa 280W und man liegt innerhalb der 300W Spezifikation. Meine 480M lässt sich mit 0,85V noch auf 500/1000MHz bringen bei durchschnittlicher Kühlung, der Stromverbrauch steigt nur um 6W an. Andere Karten gehen auch schon auf 535/1070Mhz bei gleicher Spannung.
 
Zuletzt bearbeitet:
Sollte es 2x die GTX570 sein, find ich 1,28gb pro Karte etwas mickrig für die Leistung.
Deswegen glaub ich eher an 2x GTX580 mit deutlich weniger Spannung und Takt.
2x 3GB wird Nvidia wohl nicht verbauen, hier stößt man langsam an verwaltungstechnische schwierigkeiten, die die Performance sinken lässt. Siehe PCGH Test der 3GB GTX580.


AMD hat effizienztechnisch deutliche Vorteile, wenn man 2x ne HD6950 mit vollen Taktraten verbauen will, da könnten mit Powercontrol durchaus max. 300Watt TDP drinnen sein, Nvidia packt entweder n geschmeidiges Stepping aus oder man übertrifft das ganze einfach inoffiziell und schreibt 300Watt TDP drauf, obwohl unter Furmark an die 400 sind.

Man wird sehen.
 
Zuletzt bearbeitet:
Sollte es 2x die GTX570 sein, find ich 1,28gb pro Karte etwas mickrig für die Leistung.
Deswegen glaub ich eher an 2x GTX580 mit deutlich weniger Spannung und Takt.
2x 3GB wird Nvidia wohl nicht verbauen, hier stößt man langsam an verwaltungstechnische schwierigkeiten, die die Performance sinken lässt. Siehe PCGH Test der 3GB GTX580.


AMD hat effizienztechnisch deutliche Vorteile, wenn man 2x ne HD6950 mit vollen Taktraten verbauen will, da könnten mit Powercontrol durchaus max. 300Watt TDP drinnen sein, Nvidia packt entweder n geschmeidiges Stepping aus oder man übertrifft das ganze einfach inoffiziell und schreibt 300Watt TDP drauf, obwohl unter Furmark an die 400 sind.

Man wird sehen.

2x gtx 570 mit doppeltem vram gehtja genauso
 
Wartets ab...das werden zwei vollwertige GF110er - warum sonst habe ich auf meinem Board extra Stromanschlüsse für die Grakas :fresse:
 
ich hätte lieber etwas in Richtung GTX 585 ... vielleicht kommt die ja auch noch, man sollte die Hoffnung nie aufgeben :)
 
Du hast ja recht - bei der GTX 285 ging das ja auch nur mit dem Umstieg von 65 auf 55 nm einher ... aber wie gesagt, ich gebe die Hoffnung noch nicht auf ;)
 
Du hast ja recht - bei der GTX 285 ging das ja auch nur mit dem Umstieg von 65 auf 55 nm einher ... aber wie gesagt, ich gebe die Hoffnung noch nicht auf ;)

Eigtl isja die 580 ne GTX 485, wegen des images halt der neue name, was is denn an der 580 so verkehrt dasde unbedingt ne 585 willst ?
Kannstja uach ne OC 580 nehmen ;)
 
Sollte es 2x die GTX570 sein, find ich 1,28gb pro Karte etwas mickrig für die Leistung.
Deswegen glaub ich eher an 2x GTX580 mit deutlich weniger Spannung und Takt.
2x 3GB wird Nvidia wohl nicht verbauen, hier stößt man langsam an verwaltungstechnische schwierigkeiten, die die Performance sinken lässt. Siehe PCGH Test der 3GB GTX580.

Es kann durchaus sein, das man für 3GB etwas mehr Verwaltungsaufwand hat... Aber das ist nicht gleichbedeutend mit extremem Leistungsverlust... Die 3GB Version trumpft genau dann auf, wenn der 1,5GB Version der RAM ausgeht. Und das ist heutzutage schon mit recht einfachen Mitteln in dem einen oder anderen Game zu erreichen.
Das Problem ist einfach, die Redaktionen testen die Karten im gleichen Testlauf wie alle anderen auch. Da ist nix ausgelegt auf 3GB. Denn dort sieht so eine 1,5GB Karte kein Land mehr.
Und das was die PCGH dort zeigt sind 0,x FPS Unterschied im avg. Das würde ich getrost auch als Messtolleranz verbuchen...
Eigtl isja die 580 ne GTX 485, wegen des images halt der neue name, was is denn an der 580 so verkehrt dasde unbedingt ne 585 willst ?
Kannstja uach ne OC 580 nehmen ;)

Warscheinlich nix ;)
Aber aufgrund des OC Spielraums der 580GTX wäre eine um 100-150MHz höhere getaktete Karte sicher für NV nicht sonderlich das Problem. Nur nachdem AMD die Katze aus dem Sack geholt hat wird wohl nix weiter kommen seitens NV.
Es sei denn, AMD bringt nochmal nen Aufguss der HD6970... Glaube ich aber ehrlich gesagt nicht.
 
Zuletzt bearbeitet:
Es kann durchaus sein, das man für 3GB etwas mehr Verwaltungsaufwand hat... Aber das ist nicht gleichbedeutend mit extremem Leistungsverlust... Die 3GB Version trumpft genau dann auf, wenn der 1,5GB Version der RAM ausgeht. Und das ist heutzutage schon mit recht einfachen Mitteln in dem einen oder anderen Game zu erreichen.
Das Problem ist einfach, die Redaktionen testen die Karten im gleichen Testlauf wie alle anderen auch. Da ist nix ausgelegt auf 3GB. Denn dort sieht so eine 1,5GB Karte kein Land mehr.
Und das was die PCGH dort zeigt sind 0,x FPS Unterschied im avg. Das würde ich getrost auch als Messtolleranz verbuchen...


Warscheinlich nix ;)
Aber aufgrund des OC Spielraums der 580GTX wäre eine um 100-150MHz höhere getaktete Karte sicher für NV nicht sonderlich das Problem. Nur nachdem AMD die Katze aus dem Sack geholt hat wird wohl nix weiter kommen seitens NV.
Es sei denn, AMD bringt nochmal nen Aufguss der HD6970... Glaube ich aber ehrlich gesagt nicht.


Sehe ich anders, es muss genung luft sein, ohne wakue gehn viele karten nichtma ueber 900 mhz, und lauter rmas hat nv auch wenig lust drauf

Sent from my iPhone using Hardwareluxx
 
Sehe ich anders, es muss genung luft sein, ohne wakue gehn viele karten nichtma ueber 900 mhz, und lauter rmas hat nv auch wenig lust drauf

Neja das ist alles eine Sache des Kühlers... ;)
Aber wie gesagt, ich denke nicht das NV hier was nachreichen wird. Denn es gibt aktuell keinen Grund dazu. Aber ich sage einfach mal, möglich wäre es eine um 100-150MHz höher getaktete Version bringen zu können.
 
Unabhängig von den Chips und Takt - skaliert SLI momentan schlechter, als die Crossfire Pendants.. ich denke Nvidia muss hier was am Treiber machen und das zackig..
 
Das ist mir auch schon aufgefallen...
Die Frage wäre, warum ist das so?
Liegt es vllt am VRAM? Zumindest schreiben das so manche Redaktionen als Grund für die bessere Skallierung, möchte ich aber ehrlich gesagt so richtig nicht glauben...
 
Ich würde eher auf die Optimierungen gegen Mikroruckler tippen, die SLI schlechter skalieren lassen. :wink:
 
Sollte sie wirklich alles schlagen wird sie direkt mit wakü kühler gekauft ^^

Wenn die karte net so der burner ist dann werden halt hier die restlichen 3x 580er kaufen die dann vom himmel fallen weil sich alle die 590 kaufen :-D

bis dahin abwarten tee trinken februar ist ja schon morgen :-P
 
Bisher kenn ich keine dual gpu karte, bei welcher die Leistung 1:1 dem enstspricht, was das Single-gpu flagschiff *2 liefert.

HD 5970 = 2x5850CF von der Leistung her.

Hoffe sie bringen 2 GTX 570 unter, dann wäre die Karte gekauft. 2 560er wäre Nonsense, das können sie sich dann gleich behalten.

550€ wären totale Schmerzgrenze, denn alles darüber hat so einen geringen Wiederverkaufswert.. :\\

Ich glaube bei der 4er X2 war das so, bin mir aber nicht sicher. Selbst wenn, lassen sich 2 Singlekarten wesentlich besser takten.

Na 375W sind bei 2x8Pin technisch möglich... Was die Karte schlucken wird, ist ne andere Frage ;)
Wobei auch eine HD4870X2 unter Furmark schon die 370W Marke geknackt hat, trotz das die Spannungsversorung (Zuleitung) eigentlich nur bis 300W spezifiziert war...
Also machbar ist das schon, und kühlbar mit Sicherheit auch, ging ja bei der X2 damals auch irgendwie (mit 100°C auf den GPUs) :fresse:

Du übertreibst ja wieder völlig maßlos! Das waren gerade mal 94C GPU :fresse:
 
Zuletzt bearbeitet:
Ich hoffe es gibt bald n paar neue Infos. Neue Graka steht dieses Jahr an und ich bin noch total unentschlossen.

Eine 590 oder eine 580 mit Option auf 2. oder 2 560.
 
Du übertreibst ja wieder völlig maßlos! Das waren gerade mal 94C GPU :fresse:

Eigentlich nicht... Bei mir damals waren sogar bis 108°C im Furmark auf der hinteren GPU zu sehen ;)
Aber gut, bei mir war damals auch Sommer, Raumtemperaturen von 40°C und mehr waren keine Seltenheit... Und Furmark ist denke ich auch keine Dauerlösung ;)

Eventuell hat NV auch wieder so nen Begrenzer rein, der dann einfach sagt, bei 375W im max. ist Schluss. Vllt gar bei etwas weniger... So ist man auf der sicheren Seite und es kann eigentlcih nix passieren. Blöd nur für die ganzen extreme OCler... wenn man das nicht deaktivieren kann...

Eine 590 oder eine 580 mit Option auf 2. oder 2 560.

Mit zwei echten 580GTXen wirst du wohl die beste Leistung erzielen. Da wird weder das 560GTX SLI noch die 590er ran kommen.
Ist halt die Frage ob das Preistechnisch bei dir drin wäre...
Aus P/L Sicht werden wohl zwei 570er mit ordentlich OC die beste Wahl sein, wenn man ganz oben mitmischen will.
 
108C ist heftig, so weit ging meine nicht. Vorher ist das Thermaltake Armor 20kg abgehoben und aus dem Zimmer geflogen. ;)

40C Raumtemp WTF? Wo wohnst du? Im Dachgeschoss unter einem schwarzen Flachdach? ^^

War ja auch nur Spass, ich hab nach 2 Jahren die X2 auseinander genommen und sauber gemacht + AS 5 auf die GPUs und komplett neue Wärmeleitpads von Phoby draufgemacht und hatte geniale Temps + Lüfter sehr leise. Die war als ich sie verkauft habe, besser als ab Werk. Nur OCen konnte man meine überhaupt nicht.

An der GTX 590 interessiert mich nicht die Leistung sondern nur das WIE?
 
Zuletzt bearbeitet:
Mit zwei echten 580GTXen wirst du wohl die beste Leistung erzielen. Da wird weder das 560GTX SLI noch die 590er ran kommen.
Ist halt die Frage ob das Preistechnisch bei dir drin wäre...
Aus P/L Sicht werden wohl zwei 570er mit ordentlich OC die beste Wahl sein, wenn man ganz oben mitmischen will.

Die Frage ist eher ob ich das Ausgeben will. Daher hab ich ja "option auf 2." geschrieben, weil die würd ich zumindest im 1. Step dann nicht nehmen, sondern bei Bedarf später reinschmeißen.

Ich hab nicht mehr das Bedürfnis in irgendwelchen Benchmark Tabellen ganz oben zu stehen, aber ich sag mal so n Crysis 2 sollte auf 1920*1200 mit möglichst vielen Details >30fps sein.

Naja abwarten was die 590er kann und kostet.
 
Zuletzt bearbeitet:
108C ist heftig, so weit ging meine nicht. Vorher ist das Thermaltake Armor 20kg abgehoben und aus dem Zimmer geflogen. ;)

40C Raumtemp WTF? Wo wohnst du? Im Dachgeschoss unter einem schwarzen Flachdach? ^^

muahahah wie strange...

also meine grakas waren immer im wasser baden ^^ nie über 45°C egal ob 275, 295 oder 580 ;-)

und das natürlich bei normalen raumtemp von 20-24°C ;-)
 
108C ist heftig, so weit ging meine nicht. Vorher ist das Thermaltake Armor 20kg abgehoben und aus dem Zimmer geflogen. ;)

40C Raumtemp WTF? Wo wohnst du? Im Dachgeschoss unter einem schwarzen Flachdach? ^^

Das lässt sich unschwer vermeiden wenn man gute 1-1,5kW an Hitze auf 12m² Fläche erzeugt ;)
Da bringt auch das offene Fenster nix.

Und wie gesagt, wenn es im Sommer 35°C draußen im Schatten sind, kommt man schwer auf angenehme Raumtemperaturen ohne aktive Klimatechnik.
Wobei vllt im Altbau wäre sowas machbar. ;) Aber da kann ich net mit.

Und die X2 die ich damals Leihweise hatte, war ne MSI OC mit ich glaube 790MHz auf den GPUs. Also minimal mehr als Stock. Wobei OC bei dem Teil auch nicht wirklich ging. Die 800MHz waren nur bedingt Dauerstabil... ;)
 
Hmm, klar mit mehreren Systemen im Raum, dann 35C draussen und dann noch die MSI OC Version ist echt schon Worst Case Szenario.

Ich hätte mal genauer in deine Sig schauen sollen :d
Da lohnt es sich ja schon die Heizkörper von der Wand zu demontieren, die sind da ja echt nur Raumdeko!
Und du hättest mehr Platz.

Aber wem sagst du das? Ich bin froh das Winter ist, ich hab zZ 7,5 Quadratmeter (Bett, Schrank, Schreibtisch Stuhl + Hängeschränke)
ich kenne das ;)
 
Zuletzt bearbeitet:
Stimmt, ich hab für die Karte auch 470€ hingelegt und bereue gar nichts. Das sind bei mir als Azubi fast 1,5 Monatsgehälter, dann war da noch Weihnachten und Silvester, jetzt bin ich arm ;)

Und genau deswegen bin ich gerade am überlegen, ob ich mir wirklich noch eine Backplate kaufen soll und die kostet 17€ xd

Nicht jeder mit so einer Karte verdient 2000+
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh