ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread] 2

Status
Für weitere Antworten geschlossen.
Fortsetzung von diesem Thread



Radeon HD 5000er Serie
Codenamen: Evergreen (DX11 allg.), Cypress XT (5870), Cypress LE (5850), Juniper XT (5770), Juniper LE (5750)

Launch: 23. September Vorstellung (evtl. kleine Verfügbarkeit), 10. Oktober Verfügbarkeit beim Händler
Offizieller Preis in Frankreich is 239€ für die 5850/1GB und 349€ für 5870/GB (Link)

Bilder (Quelle: hardwareBG.com vom 14.9.09)
6x Displayport-Variante vonh Chiphell.com



Nacktfotos von vorne und hinten :drool: (Arabhardware.net)



Mehr hochauflösende Fotos auf Overclock.net:
http://www.overclock.net/hardware-news/574905-arabhardware-hd-photos-5870-1gb-its.html

Offizielle Fotos der xfx-Verkaufsversion (xfx-Webseite)



Diagramm zum Aufbau des Chips



Chip-Silikon (pczilla.net)



5870: Benchmarks (Czechgamer.com / Chiphell.com)







Vergleich 5870 mit 4870



Vergleich AA-Effizienz



Vergleich-Benchmarks mit gtx200 Gesamtübersicht



Vergleich 5870 mit gtx 285



Vergleich 5850 mit gtx 285



Vergleich 5870 Crossfire mit gtx 295 Sli



Offizielle Specs Radeon 5870 (von Ati-Forum.de)



Technische Spezifikationen für Cypress XT / 5870 (unter Vorbehalt)
  • Chip: RV870
  • Strukturgröße: 40nm
  • Chipgröße: 338mm²
  • Transistoren: 2,1 Milliarden
  • Chiptakt: 850MHz
  • Shadertakt: 850MHz
  • Shader-Einheiten (Madd): 320
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 20 x 16 (x 5D)
  • Stream-Prozessoren: 1600
  • Flops (Madd/Add): 2720GigaFlops
  • Rops: 32
  • Pixelfüllrate: 27.200MegaPixel/s
  • Tmus: 80
  • Taus: unbekannt
  • Texelfüllrate: 66.000MegaTexel/s
  • Unified Shader: ja
  • Speichermenge: 1GB / 2GB Gddr5
  • Speichertakt: 1200MHz
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 153,6GB/s
  • Verbrauch Idle: 27 Watt (157MHz Kern / 300MHz Speicher: 40°C @ 20% Lüfter)
  • Verbrauch Last: 188 Watt
  • DirectX-Version: 11
  • Anschließbare Monitore: 3 Stück bis 2560x1600
  • Preis: 1GB 399 US$ / 2GB 449 US$
  • Länge: 28cm (voraussichtlich)

Technische Spezifikationen für Cypress LE / 5850 (sofern verschieden von 5870 und falls bekannt)
  • Coretakt: 725 MHz
  • Flops (Madd/Add): 2090GigaFlops
  • Texelrate: 52,2 GTex/s
  • Pixelfüllrate: 23,2 PTex/s
  • Speichertakt: 1000 MHz Gddr5
  • Speicherbandbreite: 128,0 GB/s
  • Speicherbandbreite (256 Bit SI): 128 GB/s
  • Stream-Prozessoren: 1440
  • Shader: 288 (5D)
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 18 x 16 (x 5D)
  • Verbrauch Last: 170 Watt
  • Preis: 299 US$

Technische Spezifikationen für Juniper (5750/5770)
  • Chipgröße: 181mm²

Modelle
  • HD 5850 (Cypress LE)
  • HD 5870 (Cypress XT)
  • HD 5870 X2 (2x Cypress XT)
  • HD 5750 (Juniper LE)
  • HD 5770 (Juniper XT)

Offizielle Seiten
Ati Eyefinity

Aktuelle Quellen
6.9.09 Radeon HD 5870 and its 1600 shaders (Nordichardware)
8.9.09 21k in 3D Mark Vantage (Beyond3D)
10.9.09 First Exclusive Details and Images of the unreleased HD 5870 (Alienbabeltech)
10.9.09 Ati Radeon HD 5870: Alle Details (Hardware-Infos)
10.9.09 Eyefinity-Infos (.mht hier)
10.9.09 Hawx Sechs-Bildschirm-Demo
10.9.09 Crysis Warhead in 5.670 x 2.160 Pixeln @ 60fps (Golem.de)
10.9.09 Amd Eyefinity 24 Display Tech Demo On Linux (Phoronix)
11.9.09 Radeon 5870 nackt :drool: (Czechgamer)
11.9.09 HD58XX - Endgültige Spezifikationen (Ati-Forum.de)
11.9.09 Eyefinity+5870-Fotos (Widescreen-Gaming)
12.9.09 nVidia macht sich in die Hose :fresse: "President and Ceo of nVidia Corp. (NiViDA) Jen Hsun Huang sells 260,475 shares of NiViDA on 09/11/2009 at an average price of $16.07 a share."
11.9.09 Eyefinity mit Crysis 3
16.9.09 Temperatur und Taktraten im Idle (Xtremesystems.org)
21.9.09 Offizieller Preis in Frankreich (Caseandcooling.fr)

Jegliche Änderungen, Verbesserungen und zusätzliche Infos bitte hier posten, ich trag sie dann hier ein.
 
Zuletzt bearbeitet:
Naja...mit dem Rest hatten sie bisher auch Recht...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aber dann wird es mit meinem Netzteil 750watt zu knapp. Denn die Karte hat 390Watt + 160Watt CPU + weitere Komponenten. Habe es mal bei Be quiet PSU Calculator durchgerechnet. da wird mir ein 850Watt NT empfohlen. So eine kagga. Also dann doch NT austauschen für eine X2, oder senken die ggf doch den Stromverbrauch bei dem Geschoss?
 
Fudo hat doch keine Ahnung, sorry. Der hat ganz einfach TDP der 5870 x2 gerechnet (188*2 = 376W).
 
Wenn ich mich richtig entsinne hatte die HD-4870 eine TDP von 160 Watt, eine X2 "müsste" demnach 320 Watt haben, hat aber 286 Watt laut Fudo. Macht eine Differenz von 34 Watt, die unter Umständen durch Selektierung der Chips kommt.

Ich denke das AMD die Chips entsprechend selektiert um den Energieverbrauch zu verringern. Denke auch mal das der 40 nm Prozess noch Platz nach oben hat. Vielleicht kommt auch zuerst "nur" eine HD-5850X2 und wenn der Prozess sich verbessert hat ne HD-5870X2. Who knows...
 
Vorsicht mit solchen Aussagen, die HD4870 X2 hat auch ne TDP von unter 300W und verballert teils bis 370W alleine an Strom... Das nur so nebenbei...

Gibt es dazu eine Quelle? Würde mich mal interessieren, vor allem im Vergleich zu dem Verbrauch einer Single HD4870 unter gleichen Bedingungen. Ansonsten gilt: Single HD4870: 157W Dual HD4870 (X2): 286W und dies bei gleichen Taktraten. Eine HD5870X2 wird also vermutlich, selbst mit gleichen Taktraten wie die Singlevariante, keine 2x 188W als TDP haben.
 
Mehr Leistung als ne GTX295 und 100Watt weniger klingt doch gut wenns stimmt. Also eine HD5870.

Ich befürchte aber erst mal wieder Treiberprobleme. Ist doch immer so. Egal ob jetzt Rote oder Grüne Neumodelle.
 
Zuletzt bearbeitet:
Vorsicht mit solchen Aussagen, die HD4870 X2 hat auch ne TDP von unter 300W und verballert teils bis 370W alleine an Strom... Das nur so nebenbei...

Ich sage nicht, dass es unmöglich ist, aber Fudo stellt's so dar, als ob er's "weiss", dabei ist es schlicht eine Annahme, basierend auf einer Milchmädchenrechnung.
 
Alles schön und gut, JEDOCH möchten wir nun endlich mal was Handfestes zum verbauten Grafikkarten Referenz Kühler wissen!!
PC-Games und Co haben die Karte wohl schon am Laufen und beim Testen derzeit mit einem mitgelieferten Treiber. (Cat 9.10 Beta?)
Man sollte/könnte uns mitteilen wie sich die Lautstärke unter IDLE, vor Allem jedoch was viiiiieell wichtiger ist, unter Last verhält. :confused:
Angenehm oder eben weniger, oder doch weitaus aktzeptabel,- denn auch davon hängt ein Kauf einer HD5850/5870 WESENTLICH ab.

Hoffe es erbarmt sich einer "Unser Allen"
 
Zuletzt bearbeitet:
Wenn ich mich richtig entsinne hatte die HD-4870 eine TDP von 160 Watt, eine X2 "müsste" demnach 320 Watt haben, hat aber 286 Watt laut Fudo. Macht eine Differenz von 34 Watt, die unter Umständen durch Selektierung der Chips kommt.

Ich denke das AMD die Chips entsprechend selektiert um den Energieverbrauch zu verringern. Denke auch mal das der 40 nm Prozess noch Platz nach oben hat. Vielleicht kommt auch zuerst "nur" eine HD-5850X2 und wenn der Prozess sich verbessert hat ne HD-5870X2. Who knows...

Neja die TDP Power angaben sind doch sowieso nur Mist, wenn man so will. Uns interessiert ja hier was an Strom durch die Leitung geht, und das kann die TDP nicht im geringsten Ausdrücken, auch nicht als max. Wert wie die aktuelle X2 gezeigt hat.

@PrinzVonBillAir
PCGH hat das damals mal ermessen und auch ht4u.net
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php
Den PCGH Link hab ich aber grad nicht da... bestätigten aber die anderen Messungen.

Der Schlüssel liegt darin, die Karte voll auszulasten, Furmark ist hier der springende Punkt.
xbitlabs zum Beispiel misst auch direkt nur die Karte (nicht das Gesamtsystem) aber das ganze unter 3DMark06... mit weit weniger Leistungsaufnahme ;)
 
Was meint Ihr, würden 2 5870X2 (also Quad CF) überhaupt was bringen, oder ist das im jeden Fall overdozed? Denn damals gab es Tests mit Triple und Quad Crossfire, da war das Triple meistens besser. Was sagt Ihr dazu?
 
Alles schön und gut, JEDOCH möchten wir nun endlich mal was Handfestes zum verbauten Grafikkarten Referenz Kühler wissen!!
PC-Games und Co haben die Karte wohl schon am Laufen und beim Testen derzeit mit einem mitgelieferten Treiber Cat 9.10 Beta ?
und man sollte uns nur mitteilen wie sich die Lautstärke im IDLE, vor Allem unter Last verhält. :confused:
Angenehm oder eben weniger, oder doch weitaus aktzeptabel,- denn auch davon hängt ein Kauf einer HD5850/5870 WESENTLICH ab.

Hoffe es erbarmt sich einer "Unser Allen"

Nix da... es besteht nach wie vor NDA, und das ist nicht grad ohne bei Vertragsstrafen...
Welche Sachen genau wie stark geahndet werden, weis ich nicht, aber es wird sich sicher keiner von den Hardwaretestern, welche schon ne Karte haben dazu breitschlagen lassen...

Zumahl die Lautstärke das letzte ist, was eigentlich interessiert, viel wichtiger ist die schlussendliche Performance unter Praxisbedingungen und vor allem in unvoreingenommenen Tests.
Wenn die Karte dort punktet, kannst dir immernoch Gedanken machen ob das Teil dir zu laut ist oder nicht.

Was meint Ihr, würden 2 5870X2 (also Quad CF) überhaupt was bringen, oder ist das im jeden Fall overdozed? Denn damals gab es Tests mit Triple und Quad Crossfire, da war das Triple meistens besser. Was sagt Ihr dazu?

Was heist besser, mehr GPUs gleich mehr Power, sofern unterstützt...
Problem ist der AFR Modus und die daraus entstehenden MR genau so wie das Inputlag, was bei mehr Karten schlimmer wird.
Es wird immer Extremsituationen geben in dehnen du ein derartiges Gespann in die Knie zwingen kannst...
 
Man könnte es auch so sehen, dass wenn eine Karte eine recht hohe TDP hat, in Benchmarks aber recht weit hinten liegt, die Effizienz nun mal gegen "Null" strebt...
Dazu müsste man aber wissen, wie die HD5870 sich in Benchmarks wirklich schlägt. Die jetzigen kann man eh vergessen.
 
Neja die TDP Power angaben sind doch sowieso nur Mist, wenn man so will. Uns interessiert ja hier was an Strom durch die Leitung geht, und das kann die TDP nicht im geringsten Ausdrücken, auch nicht als max. Wert wie die aktuelle X2 gezeigt hat.

@PrinzVonBillAir
PCGH hat das damals mal ermessen und auch ht4u.net
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php
Den PCGH Link hab ich aber grad nicht da... bestätigten aber die anderen Messungen.

Der Schlüssel liegt darin, die Karte voll auszulasten, Furmark ist hier der springende Punkt.
xbitlabs zum Beispiel misst auch direkt nur die Karte (nicht das Gesamtsystem) aber das ganze unter 3DMark06... mit weit weniger Leistungsaufnahme ;)

Da ich eher selten Furmark spiele, ist mir dieses Programm relativ gleich. Aber was mir bei dem HT4U Test auffällt, ist, dass bei fast sämtlichen Karten von nVidia und AMD die TDP Angaben deutlich überschritten werden. Bei dir hat sich das ja noch so angehört, als wäre dies nur bei der HD4870X2 der Fall. Ich kann mir dies eigentlich nicht so recht vorstellen, dass beide Hersteller ihre Karten nicht maximal auslasten und danach die TDP bestimmen. Im CPU Bereich ist dies doch auch Gang und Gäbe.
 
Zuletzt bearbeitet:
sagt mal wie ist den das mit dem PCIe und den angebundenen Lanes,
wenn Grafikkarten immer schneller werden und mehr Daten übertragen,
gibt es den dann nicht irgendwann bei der Anbindung einen Flaschenhals?

Vorallem bei X2 , Crossfire oder Quad systemen.
 
furmark ist doch sowieso dafür bekannt die grakas ans maximum zu bringen.
das dadurch die watt auch auf absolute maximum getrieben werden ist auch nichts neues. mit spielen hat das aber jedoch nichts zu tun.

Wieso aber eigentlich nicht? Was macht ein Spiel anders als Furmark? Wenn ich Cryssis spiele und ans Limit komme, warum hat sie dann nicht die maximalen Leistungswerte erreicht? Oder beansprucht Furmark die Karte so stark, sodass sie auf ein FPS runter geht, also die totale Auslastung und somit hat man das max?

Denn ich finde das schon erschreckend wenn ich sehe das eine 4870X2 fast 100watt max mehr verbraucht als im TDP angegeben. So bräcuhte man ja immer eine anders NT als das was mans ich errechnet laut TDPs.
 
@xxJJxx
FurMark ist in Sachen Stromverbrauch einfach extrem Jenseits der praktischen Anwendung.
Ich hab schon seit 1-2 Jahren einen Verbrauchsmesser am PC und ich konnte noch mit keinem Spiel einen mit FurMark vergleichbaren Verbrauch erzeugen.

@HerrAnders
einfach mal ein paar Seiten vorher lesen
 
@HDler Haben Deinen Link erst im Nachhinein gesehen, da wird es ja gut erklärt. Alles nur halb so wild. ;-)

@Dampfkanes Danke fürs Feedback, habe es auch so gelesen bei HDLers link.
 
Wieso aber eigentlich nicht? Was macht ein Spiel anders als Furmark? Wenn ich Cryssis spiele und ans Limit komme, warum hat sie dann nicht die maximalen Leistungswerte erreicht? Oder beansprucht Furmark die Karte so stark, sodass sie auf ein FPS runter geht, also die totale Auslastung und somit hat man das max?

Denn ich finde das schon erschreckend wenn ich sehe das eine 4870X2 fast 100watt max mehr verbraucht als im TDP angegeben. So bräcuhte man ja immer eine anders NT als das was mans ich errechnet laut TDPs.

Du solltest die Stromaufnahme und die TDP nicht verwechseln ;)

sagt mal wie ist den das mit dem PCIe und den angebundenen Lanes,
wenn Grafikkarten immer schneller werden und mehr Daten übertragen,
gibt es den dann nicht irgendwann bei der Anbindung einen Flaschenhals?

Vorallem bei X2 , Crossfire oder Quad systemen.

Normalerweise schreitet die Technologie ja fort (siehe PCIe 1.0, 2.0 usw.) Irgendwann sind wir auch bei PCIe 3.0 angelangt. Aber das braucht die HD5000 Serie noch nicht. Die jetzige Anbindung reicht vollkommen aus.
 
Da ich eher selten Furmark spiele, ist mir dieses Programm relativ gleich. Aber was mir bei dem HT4U Test auffällt, ist, dass bei fast sämtlichen Karten von nVidia und AMD die TDP Angaben deutlich überschritten werden. Bei dir hat sich das ja noch so angehört, als wäre dies nur bei der HD4870X2 der Fall. Ich kann mir dies eigentlich nicht so recht vorstellen, dass beide Hersteller ihre Karten nicht maximal auslasten und danach die TDP bestimmen. Im CPU Bereich ist dies doch auch Gang und Gäbe.

Das mag sein, Furmark interessiert quasi eigentlich nicht...
Aber es geht ja nur um den möglichen Maximalverbrauch aus der Karte zu holen.

Bei aktuellen Karten sind nicht die Shader der Flaschenhals, deswegen scheinen Games da weit weniger Verbrauch zu erzeugen als Furmark. In Games laufen die Shader wohl scheinbar auf sparflamme...
In Furmark wird alles bis aufs äußerste belastet, ohne das sich groß Flaschenhälse bilden. Und das wird sich mit den neuen Karten auch nicht ändern...

Ich bin von überzeugt, eine RV870 GPU wird im Furmark wiederum weit mehr verbrauchen, als die TDP Angabe vermuten lässt... Wobei, vllt hat AMD mitgelernt und die TDP Angabe der Karten nach oben geschraubt...

Es bleibt aber noch der Hinweis, das dieser Verbrauch im Gamingbereich wohl nicht erreicht werden wird... Aber dafür wäre sowas mit GPGPU Anwendungen wiederum einfacher machbar.

Wieso aber eigentlich nicht? Was macht ein Spiel anders als Furmark? Wenn ich Cryssis spiele und ans Limit komme, warum hat sie dann nicht die maximalen Leistungswerte erreicht? Oder beansprucht Furmark die Karte so stark, sodass sie auf ein FPS runter geht, also die totale Auslastung und somit hat man das max?

Denn ich finde das schon erschreckend wenn ich sehe das eine 4870X2 fast 100watt max mehr verbraucht als im TDP angegeben. So bräcuhte man ja immer eine anders NT als das was mans ich errechnet laut TDPs.

Wie schon gesagt, das liegt an den Games und das dort die GPU nie voll ausgefahren wird, Furmark schafft das, GPGPU Anwendungen könnten das auch spielend schaffen... vllt sogar noch mehr. Schließlich weis niemand wo das max. liegt...

@xxJJxx
FurMark ist in Sachen Stromverbrauch einfach extrem Jenseits der praktischen Anwendung.
Ich hab schon seit 1-2 Jahren einen Verbrauchsmesser am PC und ich konnte noch mit keinem Spiel einen mit FurMark vergleichbaren Verbrauch erzeugen.

Das ist wie gesagt schon richtig... Aber die Begründung liegt an der Auslastung der Karte... Es herschen in Games einfach Flaschenhälse in der Karte, die in Furmark eher keine Rolle spielen, da arbeiten wohl fast alle Einheiten am Limit...


Nur mal als kleines Beispiel dazu:
RV670 zu RV770
64 Vec5 Shader zu 160 Vec5 Shader...
Macht 2,5mal so viele Shader bei im Schnitt ca. nur doppelter Gamingleistung über viele Spiele. Heist, bei der RV770 bremst irgendwas, was bei der RV670 noch besser gefunkt oder weniger gebremst hat...
Klar das ist nur ein extrem vereinfachtes Beispiel und nicht allgemeingültig, zeigt aber, das gerade in Games die Shader, welche viel Last erzeugen nicht richtig ausgelastet sind...
 
Zuletzt bearbeitet:
sagt mal wie ist den das mit dem PCIe und den angebundenen Lanes,
wenn Grafikkarten immer schneller werden und mehr Daten übertragen,
gibt es den dann nicht irgendwann bei der Anbindung einen Flaschenhals?

Vorallem bei X2 , Crossfire oder Quad systemen.

es gibt auch boards mit 7 x PCIe! sprich da könnte man rein theoretisch sogar 7 singelslot grafikkarten verbauen
 
das schon,
aber das sind doch dann nicht 7 PCie jeder mit vollen 16 Lanes oder?

wenn bei der 4000er serie schon ein Crossfire system mit 2 Grafikkarten,
wo eine karte auf einem PCie x16 steckt und die zweite Karte "nur" auf einem PCie x8 steckt,performance einbußen gemessen werden,
was ist dann erst mit der 5000er serie los?!

die Lanes werden doch bei vielen Brettern dann aufgeteilt auf die PCie steckplätze.

z.b.
bei mir wenn zwei PCIe belegt sind habe ich auf beiden die vollen 16 Lanes,
stecke ich auf den dritten PCIe noch eine GaKa dann ist die aufteilung so

1 PCIe x16
2 PCIe x8
3 PCIe x8


würde mich halt interessieren wenn man eine 5870 X2 auf einen PCIe x16 steckt,
ob es hier nicht zu einem Flaschenhals kommt.
 
Zuletzt bearbeitet:
ach komm wer zum teufel braucht 2 * 5870??? das ist ja wie man ne Quad SLI mit 2 GTX 295 hätte. Dafür muss erst ne neue CPU gebaut werden :fresse:
 
würde mich halt interessieren wenn man eine 5870 X2 auf einen PCIe x16 steckt,
ob es hier nicht zu einem Flaschenhals kommt.

Diese Frage wurde paar Seiten vorher schön erklärt ;)
Die Daten für die X2 müssen nicht verdoppelt werden.

€dit: wie sich die Grafikkarten in Kombination mit bestimmten Prozessoren verhalten, kann man erst sehen wenn entsprechende Spielebenchmarks gemacht wurden. Vorher ist alles reine Spekulation und bringt gar nichts.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh