NVIDIA GeForce GTX 590 gegen AMD Radeon HD 6990

War irgendwie zu erwarten, das NV auch einen Gegner zur 6990 aus dem Hut zaubert. Man darf gespannt sein welche GF11Xer auf der GTX590 zum Einsatz kommen werden...

GTX580 = (75W +75W +150W=max.300W) -> von NV mit max. 244W angegeben
GTX590 = (75W+150W+150W= max.375W) -> von mir spekulierte theoretische 320W-340W
Das Maximum darf aber lt. Spezifikation "normalerweise" 300W nicht übersteigen oder? Bin gespannt, wie sie das hinbekommen wollen und was sie für einen Kühler entwickeln. Tippe auf Model "Fön" :fresse:.

AMD hat zwar vorher schon nicht gut dagestanden, aber mit der DualGPU von NV haben die jetzt entgültig auf ganzer Linie versagt mit der HD6er.
What?
HD6970 und HD6990 KOMMEN erst noch (Dez/Jan)! Woher weisst du das sie "auf ganzer Linie" versagen werden ... Hellseher :rolleyes:?
PS: Fehlt da net ein "L" in deinem Namen :fresse:?
Aber glaube wenn man die im SLI laufen lässt bzw Solo mit den recht guten Gamer rechner also X4 bzw X6 sollte man schon mindestens 650 Watt + haben besser 700 oder 800watt
Für eine GTX590 im System wird sicherlich ein gutes 650W NT ausreichen.
Leute die meinen der Verbrauch verdoppelt sich haben keine Ahnung.

Eine GTX 275 hat eine TDP von 216W, also genauso viel.
Eine GTX 295 besteht aus zwei GTX 275ern, trotzdem liegt die TDP lediglich bei 289 Watt und nicht wie die meisten hier laut Milchmädchenrechnung 432 Watt vermuten würden.
So schauts aus :).
Sollten sich einige mal unters Kopfkissen legen oder einrahmen :fresse:.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nvidia's dual chip card waits for Antilles

Sources close to company are saying that Nvidia partners are more or less ready and that
the company can pull a quick launch even in 2010, but it looks like it will only happen after AMD's Antilles Radeon HD 6990 dual chip card comes out.

So wie NV mit der GTX580 überaschend gelauncht hat würde ich es denen auch zu trauen die GX2 im Dezember bringen.
Wünschen würde ich es mir.
Vieleicht wird es die Tage ja konkretter.
MFG
 
Zuletzt bearbeitet:
wer zum teufel braucht solche brachiale Grafikleistung. :).
Ich kann sogar mit meiner uralten 4870 noch alles zocken.

BTT: Meint ihr der VRAM kann da limitieren?
 
Zuletzt bearbeitet:
AMD hat zwar vorher schon nicht gut dagestanden, aber mit der DualGPU von NV haben die jetzt entgültig auf ganzer Linie versagt mit der HD6er.

Immerwieder geil wie man so einer Firma soo tief in Ars*h kriechen kann. Kriegst du geld dafür?
 
NV könnte extrem punkten wenn sie bei der Dualgpu karte zwei vollwertige GF110 bringen würde welche per bios auf 448shader beschrängt ist aber sich doch auf 512shader freischalten lässt!
Das wäre dann ein heißes eisen!!
Trippleslot kühler würde da auch ok sein wegen kühlung
 
Bei AMD muss man immer an schlechte Treiber, schlechtes böses AF, und eh Billigfirma denken.

Nvidia ist für mich das Beste mit 3DFX(Früher.) .
 
Zuletzt bearbeitet:
Eine GTX 275 hat eine TDP von 216W, also genauso viel.
Eine GTX 295 besteht aus zwei GTX 275ern, trotzdem liegt die TDP lediglich bei 289 Watt und nicht wie die meisten hier laut Milchmädchenrechnung 432 Watt vermuten würden.

1 Posting und schon Sachen behaupten, die nicht stimmen.


Die GTX295 hat die Architektur der GTX280, aber die Taktraten der GTX260 gehabt.

ABER: Die niedrigere Verlustleistung wurde durch einen Shrink der Fertigung erzielt - GTX260/280 65nm . GTX295 55nm. Nur deshalb konnnte die Karte unter 300W bleiben.

Da dieses mal kein Shrink zu erwarten ist, wird es sehr schwer die Verlustleistung in einem beherschbaren Rahmen zu lassen.



Die viel interessante Frage ist, warum bleiben AMD/Nvidia einer Norm treu, die 1996 von Intel eingeführt wurde und schon längst überholt ist.



Edit:
Bei AMD muss man immer an schlechte Treiber, schlechtes böses AF, und eh Billigfirma denken.

Da wird die Ignore-Liste wieder Zulauf bekommen :-)
 
Zuletzt bearbeitet:
da werden höchstens zwei GF104 im vollausbau draufkommen, zwei GF110 lassen sich selbst runtergetaktet einfach nich kühlen... 500 watt tdp ftw..
 
wer zum teufel braucht solche brachiale Grafikleistung. :).
Ich kann sogar mit meiner uralten 4870 noch alles zocken.

BTT: Meint ihr der VRAM kann da limitieren?
es geht nur darum wer längste bimmel in der hose hat zwischen nvidia und ati
die ganze zeit behauptet nvidia der längste zu haben aber ati wirbt mit zwei auf einmal :d
und dann wird nvidia quasi gezwungen mit zwei längsten aufzutauchen :d

---------- Beitrag hinzugefügt um 10:39 ---------- Vorheriger Beitrag war um 10:35 ----------

Dann hat mein Nova wenigstens was zu tun :d

rischtisch
so ein monster braucht man nur für 1kwt+ wärmeabgabe

---------- Beitrag hinzugefügt um 10:40 ---------- Vorheriger Beitrag war um 10:35 ----------

Bei AMD muss man immer an schlechte Treiber, schlechtes böses AF, und eh Billigfirma denken.

Nvidia ist für mich das Beste mit 3DFX(Früher.) .

:confused::motz:

---------- Beitrag hinzugefügt um 10:41 ---------- Vorheriger Beitrag war um 10:35 ----------

da werden höchstens zwei GF104 im vollausbau draufkommen, zwei GF110 lassen sich selbst runtergetaktet einfach nich kühlen... 500 watt tdp ftw..

genau :)
FULL Load furmark und die karte wird locker 500er barier knacken
kein luftkühler kann das unter 100 grad bringen
ausserdem sind dort 10 stück phasen die auch sehr warm werden weil die so viel strom abgeben mussen
und nforce200 noch ein wenig dazu
 
Da geb ich dir recht......ABER
Ich persönlich frage mich da nur, "welchen Konsolenimport man damit SINNVOLL besser laufen lassen kann?"

Kann man halt besser mit prollen gegenüber Leuten die keine Ahnung haben. ;)
Für mich sind Dual GPU Karten, egal von welchem Hersteller absolut sinnlos.
Da müsste ich ganz schön dumm sein für was so viel Geld auszugeben, was nur extrem selten genutzt wird und dann auch noch nen dicken fetten Fehler hat, der, ohne Partei zu ergreifen, bei AMD noch sehr viel schlimmer ist.
 
kann man halt besser mit prollen gegenüber leuten die keine ahnung haben. ;)
für mich sind dual gpu karten, egal von welchem hersteller absolut sinnlos.
Da müsste ich ganz schön dumm sein für was so viel geld auszugeben, was nur extrem selten genutzt wird und dann auch noch nen dicken fetten fehler hat, der, ohne partei zu ergreifen, bei amd noch sehr viel schlimmer ist.

+100 001
 
Hi

ob nvidia oder ati die sollen allen beide ein 512-Bit Speicherinterface bringen das wäre dann mal was.

grüße
rocci75

warum?bremmst die irgendwo datendurchsatz?

eigentlich hast recht
gddr5 und 256 oder 384 bit ist nicht logisch
gddr5 sollte man mit 512bit anbinden

aber es reicht für aktuelle GPUs
GDDR5 ist nur marketing
 
512bit wäre nur Marketing ... die Mehrleistung, sollte überhaupt eine reele da sein, würde den Aufpreis nicht rechtfertigen.
 
1 Posting und schon Sachen behaupten, die nicht stimmen.


Die GTX295 hat die Architektur der GTX280, aber die Taktraten der GTX260 gehabt.

ABER: Die niedrigere Verlustleistung wurde durch einen Shrink der Fertigung erzielt - GTX260/280 65nm . GTX295 55nm. Nur deshalb konnnte die Karte unter 300W bleiben.

Da dieses mal kein Shrink zu erwarten ist, wird es sehr schwer die Verlustleistung in einem beherschbaren Rahmen zu lassen.



Die viel interessante Frage ist, warum bleiben AMD/Nvidia einer Norm treu, die 1996 von Intel eingeführt wurde und schon längst überholt ist.



Edit:

Da wird die Ignore-Liste wieder Zulauf bekommen :-)
Sollte wohl auch eher korrekt so heisen:

Die GTX295 hat die Architektur der GTX285 (240SP 55nm), aber die Taktraten, ROPs, Texture Units sowie Speicher/SI der GTX260 gehabt.

Das würde ich sagen nach einem Vergleich nach dieser und dieser hardwareluxx Tabelle. Aber wer wird schon so kleinlich sein und desswegen jemanden zurecht weisen wollen ^^



Ich denke auch das auf einer GTX 595 eher zwei GF104/114 Verwendung finden und diese Ausstattung schon eine beachtliche TDP haben wird.

Vielleicht ist das garnicht ein GTX 595 Design von nvidia, sondern eine Weiterentwicklung eines Asus Produktes?!


DualGF110.jpg



Asus Mars II (Dual GF100) Konzept lässt grüßen mit sehr ähnlichem Platinenaufbau:


asus_mars_ii_1.jpg
 
Zuletzt bearbeitet:
bin ich ja mal gespannt was die amd leute dann sagen.
da war ja immer die hd 5890 die schnellste graka

wenn das jetzt auch noch wegfällt. noch mehr krieg unter den lagern. ich freu mich schon drauf
 
Die Karte kommt doch so niemals, wenn überhaupt dann ein GF114 alias 2x GTX560.
Die GTX560 soll eine TDP von 180Watt haben.
Das dürfte dann ganz knapp irgendwie noch gehen, schließlich will man ja in den PCie Spezifkationen bleiben oder etwa nicht?

2x GTX580 oder2x GTX570 müsste man doch arg untertalten um dies möglich zu machen und das kostet dann wiede Leistung. Performance/Watt dürfte auf der GTX560 doch besser sein oder etwa nicht?
Allerdings fehlt der GTX560 n bissle Tesselation Performance.
Hoffentlich wird die Karte kein V-ram Krüppel.
2x 1,5GB muten mir schon ein bisschen wenig an. 2GB solltens dann schon sein oder wie in Nvidias Fall entwweder 3 bzw 2,5gb.
 
dei karte ist das geislte was ich jemals gesehen hab, evga trau ichs auch zu da zwei vollwertige gtx gf 110 zu verbauen, ähnlich der asus ares usw.., die kühllösung scheint ja auch ausreichend zu sein
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh