Pläne einer Dual-GPU-Grafikkarte mit zwei GF100-Chips eingestellt?

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.243
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" height="100" width="100" />Wenn man der jüngsten Meldung auf Fudzilla.com Glauben schenken kann, so könnte die ATI Radeon HD 5970 wohl noch eine gewisse Zeit lang die schnellste DirectX-11-Grafikkarte bleiben. <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> habe seine Pläne zum nächsten High-End-Modell, welches mit zwei GF100-Chips bestückt sein sollte und auf der internen Roadmap als "D12U-50" bekannt war, eingestellt. Eine Thermal Design Power (TDP) von rund 375 Watt soll das Ende der Pläne bedeutet haben. Stattdessen traut man sich erst wieder mit dem GF104 an Dual-GPU-Karten heran. Weiterhin soll die Roadmap jetzt mit "D12U-15" eine weitere...<p><a href="/index.php?option=com_content&view=article&id=15391&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alles andere wäre auch nicht nach der PCI-E Spezifikation tragbar gewesen und am besten nur über die Boardpartner umsetztbar (etwa mit 2 x 8 Pin PCI-E oder gar mehr !).

Interessant - die TDP wäre mit GF104 auch deutlich besser, sodass man die 300W Grenze wohl einhalten könnte.

E: Maximal 200W TDP für die Dual-Karte ? Dann müssten auch die Taktraten und VIDs recht niedrig sein. Wäre dann sicher fraglich,
inwiefern man an einer GTX 480 vorbeiziehen könnte oder gar die HD 5970 attakieren könnte. :hmm:


Aber GTX 460 dafür als Name würde für mich keinen Sinn ergeben, wenn die Karte flotter (zumindest sofern die 2 x 1 GB GDDR5 schicken; was wohl mit 2560er Auflösung + AA oft nicht gegeben wäre - siehe HD 5970 mit je 1GB VRAM - die bricht dann auch des öfteren ein) als die GTX 480 wäre. :fresse:

Es bleibt spannend. Imho würde eine Dual-GPU Karte auf Fermi Basis halt nur Sinn machen,
wenn man damit die Leistungskrone zurückerobern könnte, aber vielleicht sieht das NV ja nun (etwa TDP bedingt) anders. ;)

mfg
Edge
 
Zuletzt bearbeitet:
was soll denn das für ein unsinn sein, eine dual gpu karte wo es doch single gpu karten aus der serie mit mehr leistung gibt
 
Die 375W wären wohl eh kaum haltbar gewesen.

Eine HD4870 X2 hat zwar eine niedrigere TDP Angabe, aber verbraucht in Spizenanwendungen auch 370W und mehr alleine für sich... Nachteil, das Teil wird schweine warm und der Stock Lüfter ist teils schon überfordert, was in GPU Temps von 90-100°C resultierte...
375W TDP wäre also noch nicht wirklich das Problem, wenn die Kühlung mitspielt

Ich denke aber mal, man hätte die beiden Chips schon derart drastisch kastrieren müssen um da überhaupt was Kühlbares auf die Beine stellen zu können, da dürfte der Leistungsgewinn zur 480GTX also auch nicht sooo sonderlich groß ausfallen. Für NV lohnt das wohl alles nicht so wirklich...
 
Eine HD4870 X2 hat zwar eine niedrigere TDP Angabe, aber verbraucht in Spizenanwendungen auch 370W und mehr alleine für sich...

Mit oder ohne eingerechneten NT-Wirkungsgrad? Mit sind das nämlich Spec-konforme <300W und über den Rest freut sich das Kühlsystem des Netzteils...
 
Es wird in einigen wenigen Reviews der Karte direkt an der Spannungsversorgung der Karte gemessen, also was für Strom fließt durch die PCIe Stromstecker + den Strom, der durch den PCIe Port kommt.
Zusammen gerechnet braucht die HD4870 X2 dort bei Spitzenanwendungen 370W und mehr. Das NT ist dabei nicht ausschlaggebend, da man vor diesem misst, sprich der Wirkungsgrad nicht mit reinfällt.
Würde man hinter dem NT messen, wäre der Wirkungsgrad ebenso ausschlaggebend, für diese Messungen aber nicht...
 
eine fermi dual-gpu wird schwer, aber fudzilla schreibt in den meisten fällen bockmist.
 
Eine HD4870 X2 hat zwar eine niedrigere TDP Angabe, aber verbraucht in Spizenanwendungen auch 370W und mehr alleine für sich... Nachteil, das Teil wird schweine warm und der Stock Lüfter ist teils schon überfordert, was in GPU Temps von 90-100°C resultierte...
375W TDP wäre also noch nicht wirklich das Problem, wenn die Kühlung mitspielt

Ich denke aber mal, man hätte die beiden Chips schon derart drastisch kastrieren müssen um da überhaupt was Kühlbares auf die Beine stellen zu können, da dürfte der Leistungsgewinn zur 480GTX also auch nicht sooo sonderlich groß ausfallen. Für NV lohnt das wohl alles nicht so wirklich...

da frag ich mich warum sich amd mit der 5970 so zurückgehalten hat, nvidia liegt mit der gtx 480 ja auch nicht wirklich unter 300w
 
eine fermi dual-gpu wird schwer, aber fudzilla schreibt in den meisten fällen bockmist.

Würde ich so nicht unterschreiben. Hinter jeder Unwahrheit, steckt auch ein funken Wahrheit außerdem weiß jeder wie die Fermis heizen und da wundert es keinen wenn auf eine Dual Karte verzichtet werden würde.
Die GTX 460 im Doppelpack hätte nach den Benches die ich gesehen habe so gut wie keine Chance gegen eine GTX 480.
Da müsste SLI immer mit mindestens 90% skalieren um mithalten zu können. Klingt also Logisch das man drauf verzichtet.
 
da frag ich mich warum sich amd mit der 5970 so zurückgehalten hat, nvidia liegt mit der gtx 480 ja auch nicht wirklich unter 300w

Die 480GTX braucht real wohl um die 250W alleine in Alltagssettings. Im Worst Case wohl um die 300W.

Die HD4870 X2 hingegen wie gesagt im Worst Case 370W+ und auch in Alltagssettings ohne OC im Sommer bei mir permanent auf 100% Lüfterspeed, anders ging das auch gar nicht zu bewerkstelligen. GPU Temps von teils über 100°C sind nicht grad wenig.

Mit der HD4870 X2 hat man sich schon sehr weit aus dem Fenster gelehnt, das hat man mit der HD5970 besser gemacht.

Eine Fermi Karte hingegen hat schon extreme Probleme mit einer GPU, bei zweien würde man alles dagewesene wohl sprengen. Ohne ein Refresh mit deutlich verringerter Leistungsaufnahme sehe ich da keine Dual Karte vom Fermi im kommen, die wirklich 50-80% über einer 480GTX liegt.
 
Hallo!

War vorher nicht von anderen Quellen gesagt worden, dass die GTX460 auf den GF100 und nicht auf den GF104 basieren soll?

MfG
 
Aus dem Fermi kann man locker ein GF102 basteln der nur 12SM und dadurch 384SP hat.

Das Design ist ja modular. Bei so einem Chip würde NV 1/6 der Fläche einsparen. Wäre man nur noch bei 2,66 Mil. Transistoren. Es würden auf einem Wafer ca. 113 Chips passen.
 
Mmh,4,0GHZ I5 5970 @1000GPU/1200 Ram bei Spielen zwischen 370W und 420W Zeigt mein Messinstrument an.
Mir soll es recht sein das NV erstmal keine Dual Karte bringt.
War aber bei den Verbrauchswerten von vorn herein klar deshalb habe ich mir die 5970 geordert.
MFG
 
Man könnte eine DualFermi mit 550MHzGPU/1099MHzShader/1411MHzMemory @0.825V takten. Dürften dann um die 280W TDP in FurMark sein.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh