ATI Radeon HD 5870 X2 - ein schwieriges Unterfangen

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="amd" src="images/stories/logos/amd.jpg" height="100" width="100" />Bekanntlich soll <a href="http://www.amd.com/de/Pages/AMDHomePage.aspx" target="_blank">AMD</a> nach der Vorstellung der ATI Radeon HD 5870 bzw. HD 5850, die bereits am 23. September 2009 offiziell das Licht der Welt erblicken sollen, auch eine Dual-GPU-Version auf den Markt bringen. Doch mit einer Thermal Design Power (TDP) von aktuell rund 376 Watt wird dies gewiss nicht einfach werden. Dabei macht den US-Amerikaner nicht nur die enorme Abwärme zu schaffen, sondern vor allem auch der Stromverbrauch, denn ein 8- und ein 6-Pin-PCI-Express-Stromstecker wie bei der ATI Radeon HD 4870 X2 würden hierfür nicht ausreichen. Würde man nun die Taktfrequenzen der...<p><a href="/index.php?option=com_content&view=article&id=13082&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn die Boards irgendwann aussehen wie die Skyline von Frankfurt werden wir uns diese Frage beantworten können.. ^^
 
300W ?!?

eine 5870 soll ja satte 190W verbrauchen

man müsste quasi 80W wegzaubern !

und seit wann besitzt die 4870X2 2x8pin ? ich dachte 1x6pin und 1x8pin ?

das das generell möglich ist die 80W einzusparen hat wohl nvidia mit dem G200b B3 chip bewiesen

bin mal gespannt ob AMD das auch hinbekommt

vorstellen das man selektierte chips mit untervolteten chips verbaut könnte ich mir auch

den die 5870X2 wird wohl kein günstiges unterfangen
 
dann sollen die halt erstmal ne 5850x2 bringen *g*
 
Wenn Ati das nicht schaffen sollte, wird wohl auf 32nm gesetzt werden müssen. Sprich: zum Starttermin der neuen 32nm 5870 dann auch die X2.

Diebezüglich binn ich mal echt gespannt, wie Nvidia das schaffen will, einen noch stärkeren Chip zweimal auf das schwarze PCB zu bekommen...

Warten werde ich jedenfalls auf 32nm Modelle, so wie der Stromverbrauch aussieht (und so laut wie die dann werden)
 
Man kann ja schlecht jetzt den Verbrauch der HD 5870 x 2 nehmen. Denn bei der HD 4870 X2 ist es ja auch so das die weniger verbraucht. Eine einzelne HD 4780 wird mit 157W angegeben, die HD 4870 X2 mit 286W (je Chip 143W). Also erstmal abwarten, die Meldung ist aber typisch Fudo :fresse:
 
Sollense einfach 3x 8pin da drauftackern und gut ist :d

Und was ist schon abwärme, so eine schöner Kühler nach dem Vorbild der 1HE CPU Kühler
macht das teil locker kalt und das bei nur 50db :fresse:
 
Mit 2x 8-Pin könnte das schon gehen, und dann halt 2x 8-Pin Stromversorgung (75 Watt vom PEG Slot, 2x150W von den 2x 8-Pin macht 375 Watt). Kommt knapp hin.
Dann selektiert man noch GPUs die mit weniger Spannung gut laufen, nimmt den Takt minimal zurück und setzt auf möglichst effiziente Spannungswandler, dann haut das schon hin.

Kühlung geht schon...wenn's unbedingt Luft sein muss notfalls nen Triple Slot Kühler oder man liefert sie nur mit Wasserkühler aus.
Denkbar wäre auch eine festinstallierte Flüssigkeitskühlung mit nem Single Radi den man dann an nen 120er Gehäuselüfter mit anklemmt.

Dabei muss einem natürlich klar sein dass das A) nicht gerade billig ist und B) die Masse der potentiellen Käufer schrumpft. Aber ne X2 ist ja auch nicht für jeden was.
 
Man kann ja schlecht jetzt den Verbrauch der HD 5870 x 2 nehmen. Denn bei der HD 4870 X2 ist es ja auch so das die weniger verbraucht. Eine einzelne HD 4780 wird mit 157W angegeben, die HD 4870 X2 mit 286W (je Chip 143W). Also erstmal abwarten, die Meldung ist aber typisch Fudo :fresse:

Der Schein trügt, TDP sagt gar nix aus...
http://www.3dcenter.org/artikel/die-sache-mit-der-grafikkarten-leistungsaufnahme

Und im Grunde müsste die X2 sogar mehr verbrauchen, da da einfach mehr Bauteile drauf sind, der Brückenchip verbraucht auch bisschen was, glaub was von ca. 10-15W in Erinnerung zu haben...

Mit 2x 8-Pin könnte das schon gehen, und dann halt 2x 8-Pin Stromversorgung (75 Watt vom PEG Slot, 2x150W von den 2x 8-Pin macht 375 Watt). Kommt knapp hin.
Dann selektiert man noch GPUs die mit weniger Spannung gut laufen, nimmt den Takt minimal zurück und setzt auf möglichst effiziente Spannungswandler, dann haut das schon hin.


Ach quark :fresse: die HD4870 X2 genehmigt sich mit der richtigen Software auch über 370W... Und da bei nur 6+8Pin.
 
Gibts dafür eigentlich eine Erklärung wie das möglich ist ?
 
fdsonne meinst furmark ? ^^

mir ist egal Wieviel Stromanschlüsse nacher drauf sind hauptsache es läuft und ist mit wasser zu kühlen ^^
 
Jap, geht mir auch so.

Hab auch kein Problem mit 1x8 Pin und 2x 6 Pin.

Solange die Karte maximal (zum Start) 600 Dollar kostet ist sie ein P/L Kracher.

Die einzelne 5870 wird ja wohl knappe 400 Dollar kosten.

--

Und, dass die 5870X2 nun 700-800 Dollar kosten wird glaube ich nicht.
 
Den Stromvebrauch bzgl. Kabel sehe ich nicht als das große Problem an. Mehr Stromanschlüsse kann man immer anbauen^^. Was man nicht lösen kann ist die Abwärme, die ~ 350 Watt bekommt man mit keinem Kühlsystem der Welt mehr weg. Selbst die HD 4870X2 ist schon unheimlich laut und wird trotzdem sehr heiß. Wie soll man da ohne jeglichen Spielraum bei der Temperatur nochmal 100 Watt mehr abführen können. Das kann gar nicht funktionieren, außer der Lüfter dreht mit Drehzahlen der die Karte zum abheben bringt.
 
Genau dafür hat meine eine potente Wasserkühlung.

Aber du hast schon recht, für den Massenmarkt ist das nichts.

Auf der anderen Seite ist eine 5870X2 sicherlich auch kein Massenprodukt.

Wie auch immer, ich bin gespannt auf die X2.

Finde ich persönlich viiiel interessanter als eine einzelne 5870.

--> Zumindest wenn meine Preisvorhersage von oben zutrifft.
 
Jap, geht mir auch so.

Hab auch kein Problem mit 1x8 Pin und 2x 6 Pin.

Neja, rein nüchtern betrachtet schreibt die PCIe 2.0 Spezifikation maximal 300W Pro Karte vor ;)
Also das max. wäre 1x8Pin+1x6Pin+Slot=300W...

Wie sich die Hersteller dran halten sieht man ja aktuell an der RV770 X2 ;)
Aber was solls, wird schon rocken das Teil, und zur Not verbaut AMD abgespeckte RV870er GPUs drauf, solange NV nicht den G300 shrinkt, wird es davon sowieso keine Dualkarte geben...


@shaqiiii
jupp, gilt für Furmark und für GPGPU Anwendungen im allgemeinen.
Aber selbst bei Games gibts massive Unterschiede, UE3 Games scheinen mehr Last zu erzeugen, wenn man dem Artikel traut als beispielsweise Crysis oder die 3DMarks
 
Zuletzt bearbeitet:
Ihr solltet es eigentlich besser wissen, als diese lächerliche Milchmädchenrechnung von Fudzilla zu übernehmen :shake:
Eine 4870x2 hat auch nicht das doppelte einer 4870.
 
Mir persönlich wäre es vollkommen egal, ob die nun drei oder vier Stromstecker benötigt oder nicht. Hauptsache die Leistung stimmt.
 
Also wenn ATi auf Gedeih und Verderb auch direkt nach dem Launch der G300 Single GPU Modelle die Leistungskrone behalten möchte, dann wird man die X2 sicher auch mit 40nm bringen statt auf einen 32 nm RV870 Refresh zu warten.

Mehr als 2 Stromanschlüsse halte ich für unwahrscheinlich - 2 x 8 pol. PCIe Buchsen schicken völlig - siehe Asus MARS GTX 295.

Somit darf die Karte auch offiziell 375 Watt TDP haben - ist zwar nicht norm gerecht, aber das ist bei High End ja egal. ;)
 
Zuletzt bearbeitet:
Ihr solltet es eigentlich besser wissen, als diese lächerliche Milchmädchenrechnung von Fudzilla zu übernehmen :shake:
Eine 4870x2 hat auch nicht das doppelte einer 4870.
AMD hat die ATI Radeon HD 4870 X2 auch erst einmal da hin bringen müssen. ;)

Außerdem lag das Ziel der News darin, über die Probleme zu unterichten. Selbst wann die Karte knapp über 300 Watt TDP aufweisen würde, ist das noch immer ein Stückchen Arbeit für den Kühler! Aber wir werden sehen, wie die Jungs das schaukeln...
 
ATI und Nividia sollen endlich mal anfangen, an der pro Watt Performance zu schrauben und den Stromverbrauch der Karten allgemein zu senken.

Was da verbraten wird, ist ja nicht mehr feierlich. :shake:
 
? die 5870 hat doch eine über 100% bessere W/Rohperformance verbesserung gegnüber der 4890.


weiss nit was du da zu meckern hast, wende zu viel Performance hast kaufst halt die 57xx oder 56xx ist allein deine Entscheidung.
 
Mal ehrlich, 300w Stromverbrauch sind doch totale Grütze. Wer soll den Stro da noch bezahlen?
 
naja wer soll eine 600€ graka bezahlen ? da kannste einige zig tausend std spielen, und solchen Leuten ist es doch eh egal. Ihr ( Wir ) seit nur verwöhnt da zuletzt High tech einfach so günstig war.
 
@Madz
Wir sind hier doch nicht im Heise-Forum!
Wie KlausW bereits sagte und auch mit einem anschaulichen Beispiel belegt hat ist die Performance Pro Watt mal wieder (und nicht zum ersten Mal) massiv gestiegen.

Klar braucht so ne Graka richtig viel Saft, aber gleichzeitig musst du bedenken dass es sich hier um High-End Produkte handelt und die Stromverbräuche die hier diskutiert werden nehmen sich die Karten auch nur unter Volllast.

Letztendlich ist es immer die Entscheidung wie viel Performance man braucht / will und dann klappt das auch mit dem Verbrauch. Crysis auf hohen Einstellungen muss dann halt u.U. zurückstehen, aber es geht aktuell nunmal nicht anders.

IMHO ist das Hauptproblem bei der Karte die Kühlung, weniger die Stromversorgung.
Wen interessiert ein Standard der vorschreibt wie viel Strom die Karte ziehen darf?
Solang man es hin bekommt die Stromversorgung so zu dimensionieren, dass nichts überlastet wird seh ich da kein Problem.

Gut, der Standard hat sicherlich auch nen Grund, vielleicht ist es ja tatsächlich die Kühlung, oder eben die Stromversorgung weil viele NTs keine 2x 8-Pin haben. Aber das muss dann jeder selber wissen.

Ich find's gut dass es solche Hardware gibt, das macht die ganze Sache interessanter.
 
Das stimmt schon, dass man sich bei über die Performance pro Watt bei den High End Modellen keine Sorgen machen sollte. Meine Vorredner haben dies ja auch schon sehr gut verdeutlicht, dass diese von Generation zu Generation bald verdoppelt wird !

Wer die beste Leistung will, und alleine schon das Geld für die Karte hat, für den ist die Stromrechnuung auch egal ! ;)


Auch ich sehe eher die Luft - Kühlung als Problem. Darum solenl ja mit PCIe 3.0 auch Triple Slot Kühler für die High End Modelle, besonders für Dual-GPU Karten, zum Standard werden.

An für sich würde ja auch bei der X2 ein Dualslot Kühler reichen - man müsste halt einfach mal eingestehen, dass die besten Kühler nicht von den GPU Herstellern selber kommen und am besten Partnerschaften eingehen, um die stärksten Karten optimal unter Luft zu kühlen.

Das Hauptproblem wird hier aber sein, dass die Hersteller eine möglichst kostengünstige Lösung wollen, die rentabel ist. Qualität, wie eben ein AC Accelerro Xtreme sind halt etwas teurer in der Herstellung, aber rechnen sich, aufgrund ihrer guten Lautstärke und Leistung !

Imho müssten die High End Karten auch mehr reines Kupfer einsetzen - am besten auch noch als Backplate.

Dafür würde ich auch gerne mehr zahlen !

MfG
Edge
 
Zuletzt bearbeitet:
@Edgecrusher86
Da muss ich dir Recht geben, die Standardkühler sind leider viel zu oft Schrott.
Merk ich auch an meiner GTX285, das Teil dreht auf wie Sau, allerdings bin ich zu faul den Kühler zu tauschen und kann mit dem Lärm beim zocken leben.

Wenn man das ganze mal auf ne Doppelchip-Karte umlegt die wesentlich mehr Abwärme erzeugt wird schnell klar dass da was anderes her muss.
Ich finds ehrlich gesagt auch nicht besonders gut nachvollziehbar dass man selbst bei solchen High-End-Karten noch auf den letzten Cent schaut. Ich denk da gibts einige die bereit sind mehr zu zahlen wenn das Produkt hinterher insgesamt stimmt. Also auch die Kühlung.

Und wenn ich mir die Tests über die Mars GTX295 anschau kommt mir das ko**en.
Da hockt sich wer hin, entwickelt ne Karte für ne Kleinserie für nen Haufen Geld und baut bei der Kühlung dann so nen Mist.

Die Käufer für sowas sind sicherlich auch dann da wenn's nen 50er mehr kostet, dafür dann aber auch vernünftig funktioniert. Dann vielleicht sogar noch eher.
 
naja generatuion zu generation nicht eher Shrink zu Shrink

An für sich würde ja auch bei der X2 ein Dualslot Kühler reichen - man müsste halt einfach mal eingestehen, dass die besten Kühler nicht von den GPU Herstellern selber kommen und am besten Partnerschaften eingehen, um die stärksten Karten optimal unter Luft zu kühlen.

naja stimmt so nit wirklich ausser Sapphires Lösung kenne ich keien die Wirklich besser ist als die Referenz. hatte ne PowerColor 4890 mit eigenem Kühler. War sau laut sau heisst ( über 100C GPU unter last über 125C Wandler ) und hatte nur 850Mhz takt. Habe jetzt en referenz sapphire mit 900C und Karte isst schön leise nur unter Crysis dreht sie bisl auf bei den games die ich zocke. habe direkt neben der grake nen Lüfter der schön Kühle Luft hinschaufelt. ohne Lüfter wirds aber schon gleich bisschen lauter und stat 6xC sinds dann 7x.

Und so gehts eben fast alle nicht Referenz karten. Ausserdem bleibt mein X3 720 da die warme Teemp rausgeschaufelt wird gleich 5C Kühler. und damit immer unter 35C.
 
Zuletzt bearbeitet:
Was mich bei vielen non-Referenzkühlern stört (gerade auch welche die z.B. mit Asus dann schon auf diversen Karten mit ausgeliefert werden) ist, dass sie die warme Luft nicht direkt aus dem Gehäuse befördern.
Gleichzeitig muss man natürlich das Zugeständnis machen, dass man den Durchsatz von 2-3 wirklich großen Lüftern kaum durchs Slotblech bekommt.
 
dann darfste mir gerne verraten wi du ohne 3 slot kühlung 2 lüfter so ausrichten willst damit es theoretisch überhaupt möglich ist die luft rauszublasen
 
3 Slot Kühler? Geil, noch mehr Anhänger für die Wasserkühlung. :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh