NVIDIA GeForce GTX 590 gegen AMD Radeon HD 6990

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.055
<p><img style="float: left; margin: 10px;" alt="nvidia" height="100" width="100" src="images/stories/logos/nvidia.gif" />Aus gleich zwei asiatischen Quellen tauchen nun Meldungen auf, die von einer GeForce GTX 590 sprechen, die aus zwei GF110-GPUs bestehen soll. Diese Karte soll sich gegen die AMD Radeon HD 6990 richten, die zu Beginn des kommenden Jahres erwartet wird. Nun ist ein Foto eines PCBs aufgetauchte, welches eine solche Karte abbilden soll. Zu sehen ist eine Platine mit zwei GPUs und einem NVIDIA NF200-Chip. Pro GPU sind sechs Speicherchips zu sehen. Gehen wir von Chips mit einer Kapazität von 128 MB aus, wären dies nur 768 MB. Es kann also davon ausgegangen werden, dass auf der Rückseite des PCBs auch noch jeweils sechs Chips zu finden sein werden. So stünden pro...<p><a href="/index.php?option=com_content&view=article&id=17042&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Daher im Text die Anmerkung zu verminderten Taktraten und eben vielleicht einer nicht voll ausgebauten GF110-GPU.
 
Ich denke 450W dürften reichen...
 
auf dem Link ist ja eh ein Foto abgebildet auf dem eine Graka 3x6Pin hat ;)



Mfg
Pat149501
 
AMD hat zwar vorher schon nicht gut dagestanden, aber mit der DualGPU von NV haben die jetzt entgültig auf ganzer Linie versagt mit der HD6er.
 
hmm und ich dachte nvidia musste dieses jahr ganz schön einstecken ^^
 
AMD hat zwar vorher schon nicht gut dagestanden, aber mit der DualGPU von NV haben die jetzt entgültig auf ganzer Linie versagt mit der HD6er.

Du hast mit deinen Kommentaren auch noch nie gut dagestanden und mit diesem hast du nun auf ganzer Linie versagt.
 
Für zwei vollausgebaute GF110 bei gleichem Takt würden die keinesfalls reichen... Außerdem frag ich mich mit welcher Turbine Nvidia die Karte kühlen will?
 
Wow... Ich hatte nicht gedacht, das die das bringen. 2x 114 ok - aber 2x 110 .... Wow
 
Ich habe nen 1000 Watt Netzteil von Super Flowe Gamer Amptec Modular sollte locker reichen für 2 x die AMD ATI HD6990 bzw die Nvidia GTX 590 laufen zu lassen im sli modus.
Aber glaube wenn man die im SLI laufen lässt bzw Solo mit den recht guten Gamer rechner also X4 bzw X6 sollte man schon mindestens 650 Watt + haben besser 700 oder 800watt
 
Seit der GTX 460 hat Nvidia irgendwie die Nase vorn.
Das ist verwunderlich denn Nvidia hatte nach GF100 weniger Zeit als AMD weiterzuentwickeln und steht jetzt besser da als AMD, obwohl die deutlich mehr Zeit zur Entwicklung der HD 6000 hatten.

Somit liegt die vermutung nah, dass AMD entweder Entwicklungszeit verspielt hat,

oder etwas ganz großes vorhat, das die da drinnen vordergündig entwickeln und eben etwas länger brauchen als für die ächste Generation und so zwischendurch die HD 6000 auf den Markt werfen.

Also entwickelt AMD vielleicht eine ganz neue Architektur mit weitaus höherer Effitienz...
 
muhahahaha wie geil.... eine 580 hat ne leistungsaufnahme von ca250W und unter furmark 350W... ich frage mich wie die das über 2x8 pin zusätlich versorgen wollen. den 375 watt wird die karte mit sicherheit knacken.
 
Zuletzt bearbeitet:
Waret erstmal ab bis jetzt sind das alles Spekulationen.
Am ende werden zwei runter getaktetet GTX570 verbaut :)
 
Ich kann mir daher irgendwie nicht vorstellen das es 2x 110 werden...
Aber abwarten - echt ne interessante Phase im GPU Segment.
 
Hmm, also der Post in der Quelle wurde inzwischen gelöscht. Heißt das nun das was dran ist an den Gerüchten oder das es totaler Quatsch ist?
 
Bitte ab Werk mit Wasserkühler, 2x GF110 im Vollausbau, mehr Stromanschlüsse dann ist das der Nachfolger meiner GTX295
*träum*
 
Die Karte ist LANG!

Wird unter Luft sicher unerträglich laut, evtl. sogar ab Werk ne Tripleslot-Lösung, wer weiß...
 
800W Nts wir kommen.

Für zwei vollausgebaute GF110 bei gleichem Takt würden die keinesfalls reichen... Außerdem frag ich mich mit welcher Turbine Nvidia die Karte kühlen will?

oh man die ganzen Leute die hier dumme Kommentare über die Leistungsaufnahme abgeben sind echt lächerlich. Es wird niemals ein Vollausbau sein; neben veringerten Taktraten könnte ich mir vorstellen, dass noch einige Shader deaktiviert wurden und es im prinzip eine dual GTX 570 ist, somit würde das bei einer TDP von 215W hinhauen und genau auf das Niveau der GTX 295 kommen.

Leute die meinen der Verbrauch verdoppelt sich haben keine Ahnung.

Eine GTX 275 hat eine TDP von 216W, also genauso viel.
Eine GTX 295 besteht aus zwei GTX 275ern, trotzdem liegt die TDP lediglich bei 289 Watt und nicht wie die meisten hier laut Milchmädchenrechnung 432 Watt vermuten würden.
 
Zuletzt bearbeitet:
Ich könnt mir vorstellen, das es beim 384-Bit Speicherinterface bleibt, aber die Zahl der Shader auf 448 pro GF110 Runtergeschraubt wird.
 
oh man die ganzen Leute die hier dumme Kommentare über die Leistungsaufnahme abgeben sind echt lächerlich.

Leute die meinen der Verbrauch verdoppelt sich haben keine Ahnung.

Eine GTX 275 hat eine TDP von 216W, also genauso viel.
Eine GTX 295 besteht aus zwei GTX 275ern, trotzdem liegt die TDP lediglich bei 289 Watt und nicht wie die meisten hier laut Milchmädchenrechnung 432 Watt vermuten würden.

Da geb ich dir recht......ABER

TDP ist nicht gleich verbrauch. Demzufolge ist klar das die zwei GPU´s auf einer Karte eine Prozentual pro GPU geringer TDP haben. Hier wird die TDP ja pro Unit (Karte) gerechnet und nicht wie bei der CPU wo die Unit = CPU ist.

btt:

Wenn es denn so kommt wie hier "orakelt" wird es in jedem Fall ein Stromfresser. Ich persönlich frage mich da nur, "welchen Konsolenimport man damit SINNVOLL besser laufen lassen kann?"

Seit der GTX 460 hat Nvidia irgendwie die Nase vorn.
Das ist verwunderlich denn Nvidia hatte nach GF100 weniger Zeit als AMD weiterzuentwickeln und steht jetzt besser da als AMD, obwohl die deutlich mehr Zeit zur Entwicklung der HD 6000 hatten.

Naja, wie NVIDIA selbst zugegeben hat ist es ehr so, dass NV wegen technischer Probleme, FERMI wie er geplant war erst jetzt bringen kann. Und die 4xx Serie eigentlich nur ein Prelaunch einer abgespeckten Version war, um am Markt zu bleiben. Sprich NV ist 1 Jahr zu spät. Schade für Leute die sich erst kürzlich ne 4xx-Karte geholt haben. Es kam ja nicht nur für AMD überraschend.

Demzufolge wurde zuvor NV von AMD überrascht mit der 5k-Serie, aber AMD hätte gegen den geplanten FERMI auch das nachsehen gehabt (Wie man jetzt sehen kann). So kam es anders und mal schauen was AMD mit dem Rest der 6k-Serie noch so bringt.
 
Zuletzt bearbeitet:
Naja, wie NVIDIA selbst zugegeben hat ist es ehr so, dass NV wegen technischer Probleme, FERMI wie er geplant war erst jetzt bringen kann. Und die 4xx Serie eigentlich nur ein Prelaunch einer abgespeckten Version war, um am Markt zu bleiben. Sprich NV ist 1 Jahr zu spät. Schade für Leute die sich erst kürzlich ne 4xx-Karte geholt haben. Es kam ja nicht nur für AMD überraschend.

Demzufolge wurde zuvor NV von AMD überrascht mit der 5k-Serie, aber AMD hätte gegen den geplanten FERMI auch das nachsehen gehabt (Wie man jetzt sehen kann). So kam es anders und mal schauen was AMD mit dem Rest der 6k-Serie noch so bringt.
Interessant,
das bedeutet, dass Nvidia jetzt eigentlich eine ganze Generation fehlt.

Aber trotzdem hat mich die AMD 6000 Serie bis jetzt enttäuscht, da anscheinend auch gewisse Probleme bestehen.
(sonst hätten sie weder umgelabled, noch die 5700 (leicht) verbessert als 6800 verkauft)
 
Aber trotzdem hat mich die AMD 6000 Serie bis jetzt enttäuscht, da anscheinend auch gewisse Probleme bestehen.
(sonst hätten sie weder umgelabled, noch die 5700 (leicht) verbessert als 6800 verkauft)

Wo ist die 6800er Serie nur leicht verbessert? Finde den Abstand beachtlich. Außerdem sind erst 2 Karten released, da kann man ja von keiner Serie sprechen...:stupid:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh