ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread] 2

Status
Für weitere Antworten geschlossen.
Fortsetzung von diesem Thread



Radeon HD 5000er Serie
Codenamen: Evergreen (DX11 allg.), Cypress XT (5870), Cypress LE (5850), Juniper XT (5770), Juniper LE (5750)

Launch: 23. September Vorstellung (evtl. kleine Verfügbarkeit), 10. Oktober Verfügbarkeit beim Händler
Offizieller Preis in Frankreich is 239€ für die 5850/1GB und 349€ für 5870/GB (Link)

Bilder (Quelle: hardwareBG.com vom 14.9.09)
6x Displayport-Variante vonh Chiphell.com



Nacktfotos von vorne und hinten :drool: (Arabhardware.net)



Mehr hochauflösende Fotos auf Overclock.net:
http://www.overclock.net/hardware-news/574905-arabhardware-hd-photos-5870-1gb-its.html

Offizielle Fotos der xfx-Verkaufsversion (xfx-Webseite)



Diagramm zum Aufbau des Chips



Chip-Silikon (pczilla.net)



5870: Benchmarks (Czechgamer.com / Chiphell.com)







Vergleich 5870 mit 4870



Vergleich AA-Effizienz



Vergleich-Benchmarks mit gtx200 Gesamtübersicht



Vergleich 5870 mit gtx 285



Vergleich 5850 mit gtx 285



Vergleich 5870 Crossfire mit gtx 295 Sli



Offizielle Specs Radeon 5870 (von Ati-Forum.de)



Technische Spezifikationen für Cypress XT / 5870 (unter Vorbehalt)
  • Chip: RV870
  • Strukturgröße: 40nm
  • Chipgröße: 338mm²
  • Transistoren: 2,1 Milliarden
  • Chiptakt: 850MHz
  • Shadertakt: 850MHz
  • Shader-Einheiten (Madd): 320
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 20 x 16 (x 5D)
  • Stream-Prozessoren: 1600
  • Flops (Madd/Add): 2720GigaFlops
  • Rops: 32
  • Pixelfüllrate: 27.200MegaPixel/s
  • Tmus: 80
  • Taus: unbekannt
  • Texelfüllrate: 66.000MegaTexel/s
  • Unified Shader: ja
  • Speichermenge: 1GB / 2GB Gddr5
  • Speichertakt: 1200MHz
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 153,6GB/s
  • Verbrauch Idle: 27 Watt (157MHz Kern / 300MHz Speicher: 40°C @ 20% Lüfter)
  • Verbrauch Last: 188 Watt
  • DirectX-Version: 11
  • Anschließbare Monitore: 3 Stück bis 2560x1600
  • Preis: 1GB 399 US$ / 2GB 449 US$
  • Länge: 28cm (voraussichtlich)

Technische Spezifikationen für Cypress LE / 5850 (sofern verschieden von 5870 und falls bekannt)
  • Coretakt: 725 MHz
  • Flops (Madd/Add): 2090GigaFlops
  • Texelrate: 52,2 GTex/s
  • Pixelfüllrate: 23,2 PTex/s
  • Speichertakt: 1000 MHz Gddr5
  • Speicherbandbreite: 128,0 GB/s
  • Speicherbandbreite (256 Bit SI): 128 GB/s
  • Stream-Prozessoren: 1440
  • Shader: 288 (5D)
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 18 x 16 (x 5D)
  • Verbrauch Last: 170 Watt
  • Preis: 299 US$

Technische Spezifikationen für Juniper (5750/5770)
  • Chipgröße: 181mm²

Modelle
  • HD 5850 (Cypress LE)
  • HD 5870 (Cypress XT)
  • HD 5870 X2 (2x Cypress XT)
  • HD 5750 (Juniper LE)
  • HD 5770 (Juniper XT)

Offizielle Seiten
Ati Eyefinity

Aktuelle Quellen
6.9.09 Radeon HD 5870 and its 1600 shaders (Nordichardware)
8.9.09 21k in 3D Mark Vantage (Beyond3D)
10.9.09 First Exclusive Details and Images of the unreleased HD 5870 (Alienbabeltech)
10.9.09 Ati Radeon HD 5870: Alle Details (Hardware-Infos)
10.9.09 Eyefinity-Infos (.mht hier)
10.9.09 Hawx Sechs-Bildschirm-Demo
10.9.09 Crysis Warhead in 5.670 x 2.160 Pixeln @ 60fps (Golem.de)
10.9.09 Amd Eyefinity 24 Display Tech Demo On Linux (Phoronix)
11.9.09 Radeon 5870 nackt :drool: (Czechgamer)
11.9.09 HD58XX - Endgültige Spezifikationen (Ati-Forum.de)
11.9.09 Eyefinity+5870-Fotos (Widescreen-Gaming)
12.9.09 nVidia macht sich in die Hose :fresse: "President and Ceo of nVidia Corp. (NiViDA) Jen Hsun Huang sells 260,475 shares of NiViDA on 09/11/2009 at an average price of $16.07 a share."
11.9.09 Eyefinity mit Crysis 3
16.9.09 Temperatur und Taktraten im Idle (Xtremesystems.org)
21.9.09 Offizieller Preis in Frankreich (Caseandcooling.fr)

Jegliche Änderungen, Verbesserungen und zusätzliche Infos bitte hier posten, ich trag sie dann hier ein.
 
Zuletzt bearbeitet:
ich könnt wetten jetzt wo ich meine 295er verkauft habe. das die neuen karten langsamer sind :d
ich bin ja mal gespannt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja wartet halt mal ab es sind noch 4-8 Tage zuwarten und dann is immer noch nich der Launch. Wir haben alo Zeit. :fresse: Man muss sich da jetzt echt nicht die nerfen dran nehmen.
 
hmm, also dann hier weiter lol!
Was denkt ihr wie hoch werden die Modelle getaktet sein? Ich denke bischen höher als die jetzige Gen und die Spez-Versionen gehen über 1GHz! :-)

In einem etwas älteren Post stand mal was von 900 MHz für die HD 5870 und je 950 MHz Core Takt für die HD 5870 X2.

Das ganze soll dann mit GDDR5, der laut Specs. bis maximal 1250 MHz getaktet ist, kombiniert werden.

Macht also bei einem SI mit weiterhin maximal 256 Bit höchstens ~ 160 GB/s Speicherbandbreite.


Mit 40nm sollten die Karten ein sehr gutes OC Potenzial haben - 1 GHz+ sollte dann schon garantiert sein ! ;)
 
Die HD 5870 soll etwa 24 cm lang und halt auch so dick wie jede andere Dual - Slot Karte sein- mehr ist nicht bekannt.

Da die Breiten ja an für sich genormt sind, sollte sie auch genauso breit wie die 4800er und 4700er Modelle sein ! ;)


Es wird gemunkelt, dass die kommenden Topmodelle, also wohl 5850 und aufwärts etwas länger als ihre 4000er Kollegen sein sollen, viel kann es aber an für sich nicht sein - auch eine X2 sollte unter 30 cm lang sein.
 
Zuletzt bearbeitet:
ok, und wie ist das so mit boards die noch pci-e 1.1 haben? Gibt es da probleme.. ist da was bekannt? oder wird das nicht viel ausmachen ob pci-e 1.1 oder 2.0 ....

ich hab nämlich 1.1
 
PCIe 1.1 sollte eine schnelle kommende Karte vielleicht um 25% einbremsen - grob geschätzt.
Also eine X2 würde da auf jeden Fall nicht rein stecken ! ;)
 
25% aber dann bitte nur maximal im äußersten fall, und nicht konstant.. das kann ja nicht sein.

Ich denke da an eine HD5870 oder 5890. Keine dualkarte :)

Meine Auflösung ist 1920 x 1080, auch in spielen.
 
aber dann unwesentlich und nur auf dem papier zu erkennen. niemand wird es in der praxis merken. entweder läuft ein spiel flüssig oder eben nicht, daran ändert dann auch pci-e 2 nix.
 
Zuletzt bearbeitet:
mit pcie oc konnte ich die leistung merkbar steigern..aber im spiel hat man davon nat. nichts gemerkt. ein paar fps hier und da vielleicht..aber wir sprechen hier von einer karte die gut und gerne die dreiache leistung hat..da wär ich mir nicht mehr ganz so sicher;)

---------- Beitrag hinzugefügt um 01:09 ---------- Vorheriger Beitrag war um 01:06 ----------

da war einer schneller;) netter test..
 
Jo, im Notfall kann er ja den PCIe Port etwas übertakten ! Der Test ist ganz nett, stimmt ! ;)

Hm - 3 x so schnell? Normal sollte eine HD 5870 etwas flotter als eine 4870 X2 sein, also sind es bei mir, wenns um eine Single GPU geht "nur" 2x so schnell.
 
Zuletzt bearbeitet:
bezug war ja meine 88GTX wo ich das schon messen konnte. ich denke da sollte 3x passen. zur 4870 ja..hoffentlich 2x;)
 
meine ich auch damals gabts ja grad mal nen 965er und 680i Mainboards
der P45 X38 ect kamen ja auch erst später

aber inzwischen sollte man echt PCIe 2.0 Haben naja ich freu mich auf die neuen Karten.
Viel wirds ja mal was mit Crysis 1920x1200 16AA 8AF

bei der 88GT habe ich nichtmal nen unterschied feststellen können
zwischen 1.1 und 2.0...
 
Zuletzt bearbeitet:
solange man pci e 1.0 im 16x modus hat und die karte 1gb vram hat merkt man nicht viel, beim 3d mark vielleicht paar punkte, also hatte meine 4850 1gb kurz auf nem asrock mit pci e 1.0 4x am laufen und beim spielen hat man nicht viel bemerkt...

also macht euch nicht irre.
 
blödsinn die 88gxx ist doch nur ne pci e 1.0 karte was soll da bremsen?

lol, es gab ne zeitlang auch noch agp modelle mit gleichem chip wie die pcie derivate..mit teilweise signifikanten leistungsunterschieden...hast du da auch gesagt was soll da bremsen ist doch noch agp schnittstelle:wink:


ganz einfach pcie bus übertakten brachte besser leistung. daran kann man es erkennen.;)

shaqiii,
hast du benches durchgeführt? ich hab ja außerdem gesagt das man es real noch nicht stark gemerkt hat, mal abgesehen davon ist die GT ne ecke schwächer als die gtx..

Apollon#

das sind aber märchen die du hier verbreitest. lies dich mal schlau. mit 4x pcie 1.1 war cod4 unspielbar in 1920x1080 dfi p35
es hängt sehr stark vom spiel ab. das problem steigt in der regel mit höheren grafik einstellungen und mit steigender rechenpower der graka an.

---------- Beitrag hinzugefügt um 10:10 ---------- Vorheriger Beitrag war um 10:06 ----------

mit dem sys aus deiner sig kannst du das aber sicher auch nicht nachvollziehen. da wird die cpu wohl eher bremsen;) ich mach das als hobby und tausche in der regel 3-4 die hardware..und teste dann alles um das optimum aus dem system zu holen.
 
Hust - mit ner Single GPU wird 8xMSAA und 16xAF das maximal mögliche sein und das selbst net so pralle laufen.

Dafür oder mehr brauchste mindestens HD 5870 CF oder ne X2. ;)

Zum Glück sind wohl die Zeiten, wo man neue GPUs ausschließlich daran misst, wie gut sie mit Crysis zurechtkommen, eigentlich vorbei. ;) Das Spiel ist schließlich mittlerweile auch fast 2 Jahre alt und egal, wie es aussieht, es ist nie gut für den GPU-Hersteller, sich damit zu brüsten, dass man einen 2 Jahre alten Titel gut darstellen kann.
 
Ati wird Crysis nicht als Maßstab nehmen, aber in allen Tests denen sich die neuen Karten unterziehen müssen wird es vorkommen.
 
Ati wird Crysis nicht als Maßstab nehmen, aber in allen Tests denen sich die neuen Karten unterziehen müssen wird es vorkommen.

Das sehe ich auch so...
Vor allem gehts ja in den Tests vorrangig darum, die Leistungsfähigkeit der Karten zu zeigen und nicht darum, die schlecht Crytek Crysis optimiert hat...

Und wenn Crysis nun nach 2 Jahren immernoch das Spiel ist, was mit die meiste Leistung benötigt, dann kommt so ein Test gerade recht um die Leistungsfähigkeit von neuen GPUs zu zeigen ;)
 
im idealfall ein dx11 title nur leider ist ja noch keiner in sicht..:(
cod MW2 dürfte dann gerade das aktuellste sein. wenn darauf die atis gut laufen hätte ich nichts dagegen..:)
 
neja von native DX11 Games sind wir noch weit weit entfernt...
Das ist nach wie vor alles noch mehr oder weniger DX9 + DX10/DX11 Zusatzeffekte...

Schlussendlich sollte aber auch das alles egal sein, solange die Karte anständige FPS Raten auf den Schirm zaubert...
 
cod MW2 ist optisch allerdings nicht gerade der Maßstab. Ich freue mich auf Dirt2, mit dem ersten Teil und Grid hat Codemasters ja schon gezeigt das sie auch was von Grafik verstehen. Wie die Engine mit Operation Flashpoint 2 harmoniert wird sich auch noch zeigen müssen.
 
wenn es um optik geht wär RAGE imho mein favorit aber das wird sicher nicht vor mitte nächsten jahres kommen.
 
@hollo
sicher hab ich benches durchgeführt. Und ich hab nichts davon mitbekommen bei der 88GT
damals.

Ich seh Crysis für mich aber imemrnoch als Optisch konkurenzlos an (da kann man so viel mehr mit mods rausholen). Darum ist es das einzige Game (was ich habe) wo ich mehr performance brauchen könnte.

Mein Sys
i7 (920) @ 3,8GHZ
X58er Board
SLI aus 260GTX Karten

Worüber sich entwickler gedanken amchen ist mir relativ egal ich möchte das meine software
läuft. Je nach dem was ich will kaufe ich ja auch meine Hardware.
Ich kaufe sie ja eig nur damit ich mehr FPS habe oder das was nicht lief laufen wird.
Da habe ich nur Crysis was ziggt mit der Performance

ach ja sry hab AA und AF durcheinander gebracht
 
Zuletzt bearbeitet:
Finde es immer wieder Klasse wie AMD es schafft keine Details vor NDA heraus zubringen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh