ATI Radeon HD 5900: Weitere Details

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.274
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="amd" src="images/stories/logos/amd.jpg" height="100" width="100" />Mit der ATI Radeon HD 5870 (<a href="index.php/artikel/hardware/grafikkarten/13073-ati-radeon-hd-5870-the-game-has-changed.html" target="_blank">Hardwareluxx-Test</a>) gelang es <a href="http://www.amd.com/de/Pages/AMDHomePage.aspx" target="_blank">AMD</a> nicht nur die Performancekrone wieder in die eigenen Reihen zu holen, sondern vor allem auch die erste DirectX-11-Grafikkarte weit vor der Konkurrenz auf den Markt zu bringen. Wie bereits in der Vergangenheit will man sich allerdings nicht nur mit Single-GPU-Lösungen begnügen, sondern auch Modelle mit zwei RV870-Chips an den Start schicken. Während solche Karten bisher am Namenzusatz "X2" zu erkennen...<p><a href="/index.php?option=com_content&view=article&id=13551&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn das mit den Anschlüssen so kommen soll... find ich das im Vergleich zum kleineren Bruder dann doch ARGST abgespeckt.

Nu wär\'s interessant mal zu sehen in wiefern die gesenkten Taktraten ins Gewicht fallen.. Man darf gespannt sein.
 
Wieso, der Anschluss da in der Mitte sieht irgendwie nach ner Art Multifunktionsstecker aus... Sprich da gibts bestimmt ne Kabelpeitsche, wo dann DP oder HDMI oder gar beides dran hängt. Und schon hast deine Anschlussvielfallt wieder ;)

Aber in meinen Augen ist das so die beste Lösung, denn die Abwärme wird sicher extrem sein, die die beiden GPUs zusammen erzeugen, ergo muss da auch genügend Platz sein um diese aus dem Slotblech rauszubekommen...


Komisch finde ich aber diese zwei Propeller Variante irgendwie... Denn sowas möcht ich nicht im Case haben, das heizt unnötig den kompletten PC auf...
 
der mittlere sieht mir nach einem mini Displayport-Anschluss aus (siehe Google-Bildersuche)
Von daher ist alles dran, was man für Eyefinity mit 3 Monitoren braucht.
Edit das Bild in der News zeigt zwar afaik nicht die HD 5970, in der Produktbeschreibung auf geizhals wird der mini Displayport aber
erwähnt.

ciao Tom
 
Zuletzt bearbeitet:
der mittlere sieht mir nach einem Mini-Display-Port-Anschluss aus (siehe Google-Bildersuche)
Von daher ist alles dran, was man für Eyefinity mit 3 Monitoren braucht.

ciao Tom

brauch der wirklich so ein dickes Loch rings um den Anschluss?
Das wirkt sehr groß irgendwie, so wie, als wäre da ein Dicker stecker drin, der dafür nötig ist ein dickes Kabel abzuführen oder für ein dicken Adapter, der einen deutlich größeren Anschluss bereit stellt (bzw. dessen mehrere)

Aber stimmt, wenns ein DP sein sollte, dann wäre alles dran, HDMI via Adapter vom DVI geht ja nach wie vor.

Wobei ja theoretiscch selbst 4 DVI/HDMI/Analog Anschlüsse machbar wären bei der Dual GPU Version.
 
Aber selbst der war nicht so dick im Loch ;) aber kann gut sein. ES Karte und noch nicht ganz final. Wobei ich auch mal nicht denken würde, das die die Karte mit zwei so mickrigen Kühlern ausliefern. Auf den Spawas usw. ist ja auch nix drauf an Kühlkörpern...
 
Ja nur hät ich dann wieder ne Kabelpeitsche die irgenwo rumbamselt und darf mein DVI ->HDMi-Kabel suchen. ;)

Iwie suboptimal das Ganze.. zumindest wenn man Sie mit der 5870 vergleicht.
 
jedem kann man es halt nicht immer recht machen und der Platz ist begrenzt.
Im Vergleich zur HD 5870 muss dann auch noch mehr Abwärme abtransportiert werden.
Diese Lösung finde ich jedenfalls deutlich besser als die ganzen Grakas, die aus Platzgründen 1xDVI und 1xHDMI mit einem analogen Anschluss kombinieren.
 
laut Geizhals ab 485€ oha meine Schmerzgrenze für solch eine Karte waren eigentlich 400€ :grrr:

2010 schaut es bestimt besser aus :hail:
 
laut Geizhals ab 485€ oha meine Schmerzgrenze für solch eine Karte waren eigentlich 400€ :grrr:

2010 schaut es bestimt besser aus :hail:

485€ sind aber deutlich besser als zwei mal ~320€ für die HD5870 (bzw. lieferbar grad sicher nicht unter 350€)

Man kann die GPUs sicher auch wieder auf den 850er Takt kloppen, bei Speicher müsste man schauen, ob AMD da andere verbaut, sprich welche mti weniger Takt. Aber ansonsten sollte die Karte für den Preis eigentlich Top sein ;)
 
Wie schaffen die es 2x 188W auf unter 300W zu bringen? Allein die Taktsenkung wird das ja nicht bewirken?
 
eventuell wurde auch noch die Spannung abgesenkt.
Meine alte GTX 280 braucht dank Spannungssenkung auf 1,03 V auch nicht mehr als die HD 5870.
 
Zuletzt bearbeitet:
ich hab halt gehofft das sie in der Region der 295er sich einpendelt aber das kann sich ja noch ändern wen der NV Wunder Chip raus ist ;)

laut AMD hat die 5850 einen verlustleistung von 151Watt von daher ;)
die mehr Shader reißen da nichts raus
 
Dann brauch die Karte halt mehr als 300W... Die HD4870X2 hat gezeigt, das AMD in der Sache recht schmerzfrei ist... Furmark Lastverbrauch bei der HD4870 X2 allein für die Grafikkarte um die 370W...
 
Mir stellt sich gerade die frage ob es von der HD5900er Serie auch eine Eyefinity Edition geben wird, mit 12x Displayport. :fresse: :shot:
 
Aber

PCIe max. 75W
PCIe 6pin max. 75W
PCIe 8pin max. 150W

:stupid:

Vielleicht kommt dann noch ein Anschluss dazu.
 
Wer sich die karte kauft achten dann wohl nicht mehr ganz drauf ob die 300Watt der Norm eingehalten werden oder sie eben 320 oder 340 zieht , wer die leistung will nimmt das mit in kauf, da es ja keine Sparkarte ist!
 
@Dampfkanes:

Guck dir mal die Karte an, da wird nix rausgeblasen.. ;)
 
Aber

PCIe max. 75W
PCIe 6pin max. 75W
PCIe 8pin max. 150W

:stupid:

Vielleicht kommt dann noch ein Anschluss dazu.

Die HD4870 X2 hat auch nur 1x6Pin+1x8Pin+75W ausm Slot...
Und ja, eigentlich dürfte das nicht gehen / sollte so nicht gehen, aber das es geht und auch über längere Zeit, beweist die HD4870 X2 ;)
 
Die HD4870 X2 hat auch nur 1x6Pin+1x8Pin+75W ausm Slot...
Und ja, eigentlich dürfte das nicht gehen / sollte so nicht gehen, aber das es geht und auch über längere Zeit, beweist die HD4870 X2 ;)

Das kann nicht sein, da wurde sicher der gesamte Verbrauch gemessen inklusive ineffizienz des Netzteils?
 
Guck dir mal die Karte an, da wird nix rausgeblasen.. ;)
ok, stimmt, bei der HD 5950 hätte man es anders lösen können. Aber anscheinend ist diese Karte recht nah mit der HD 5970 verwandt, die ihre Abluft nach draußen befördert.

@Barbrady
die PCGH kann seit einiger Zeit recht direkt den Verbrauch messen und auch dort lagen einige Grakas mit Furmark oberhalt der PCIe-Spezifikation. Das sollte man nicht überbewerten, da die KI in Furmark eh nicht die beste ist.:lol:

hier der besagte Test von PCGH:Klick
hier ein weiterer Test mit direkter Verbrauchsmessung:Klick2
 
Zuletzt bearbeitet:
Das kann nicht sein, da wurde sicher der gesamte Verbrauch gemessen inklusive ineffizienz des Netzteils?

Doch kann es, das wurde von mehreren Seiten bestätigt... Es gibt auch einige Reviews im Netz davon.
Und ja, es wurde einzig und allein die Leistungsaufnahme der Grafikkarte gemessen.
Einerseits durch ein modifiziertes Board die Last durch den PCIe Slot. Und andererseits, das was durch die beiden PCIe Stromstecker zur Karte hin gelangt. Ergo, das was die Karte ansich an Strom brauch...

Mehrere Seiten unabhänig voneinander haben Werte deutlich über 350W gemessen allein für die HD4870 X2...

guckst du hier:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php

Bei PCGH gibts noch ne Verbrauchsmessung der gleichen Karte ebenso mit Furmark...

die PCGH kann seit einiger Zeit recht direkt den Verbrauch messen und auch dort lagen einige Grakas mit Furmark oberhalt der PCIe-Spezifikation. Das sollte man nicht überbewerten, da die KI in Furmark eh nicht die beste ist.:lol:

hier der besagte Test von PCGH:Klick

Aber selbst unter realen Testbedingungen, sprich Games brauch eine HD4870 1GB in etwa 160W... Sprich die X2 würde sich in dem Fall ebenso um die 300W genehmigen. Klar sind die Furmark Werte nur die Spitze des Eisberges, aber wer weis was da alles noch früher oder später für Software kommt ;)


EDIT:
Wenn ich mir das hier mal ansehe:
http://ht4u.net/reviews/2009/sapphire_radeon_hd5870_vaporx/index12.php

Dann sehe ich dort bei der HD5850 in der Gaminglast gerade mal 115W und bei der HD5870 gerade mal knapp über 150W (sind zwei Messungen)
Im Furmark hingegen genehmigt sich eine HD5870 sogar knapp 200W, das Teil ohne untertaktung auf ne X2 würde wohl die 400er Marke im Furmark sprengen :fresse:
 
Zuletzt bearbeitet:
Was meint ihr 2x 5870 wären aber dennoch schneller unterwegs als eine Dual Karte 5970.
 
ATI hat doch seit der 5000er Serie Begrenzer drin? Die lassen Furmark und Konsorten gar nicht mehr so arg ziehen... So hab ich das zumindest mal gelesen.
 
AMD kann nicht mal die single gpu reihe ausreichend liefern,
da wollen die 2 gpu´s auf einen PCB rotzen.

Na bin mal auf die verfügbarkeit gespannt,
jezt bestellen und juli 2010 bekommen XD
 
Was meint ihr 2x 5870 wären aber dennoch schneller unterwegs als eine Dual Karte 5970.

Richtig - die HD 5970 wird sich zwischen HD 5850 CF und HD 5870 CF einsortieren; aufgrund der HD 5850er Taktraten.

Mal sehen, ob man dann bei der HD 5950 noch etwas weiter heruntertaktet als bei der 70er - ansonsten wär der Abstand zum Dual-GPU Primus nämlich nicht so groß, sprich man dürfte nicht so massiv mehr für die etwas flottere Karte verlangen.

Hier kann man schon mal HD 5870 CF und HD 5850 CF vergleichen.
Die Leistung der HD 5900er wird jeweils etwas darunter anzusiedeln sein.

http://www.tomshardware.com/de/radeon-hd-5850,testberichte-240414-5.html

Irgendwie versteh ich den Sinn für die HD 5950 nicht so ganz - eine DualGPU Version auf HD 5870 Basis hätte ja geschickt.
Gut, eventuell will ATi die kleinere 5900er direkt gegen die "GTX 380" ins Rennen schicken (eventuell mit dem Hintergedanke,
dass eine HD 5890 das NV Single GPU Flaggschiff - da wahrscheinlich nur eine "HD 5870 OC" vielleicht mit direkt 2GB - wohl nicht schlagen können wird) und die HD 5970 soll - zumindest bis NV
ihrerseits mit einer Dual-GPU Lösung kontern die Leistungskrone inne haben.

MfG
Edge
 
Zuletzt bearbeitet:
wo bleibt sie nur :(
das wird wohl Januar :hmm:
das scheint ja schlimer zu werden als bei der 58er ....
diese Jahr hab ich echt kein Glück bei HW

edit hab die neuen infos gelesen aber der Preis is ja mal Mad :(
 
Zuletzt bearbeitet:
Man draf gespannt sein :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh