ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread] 2.1

Status
Für weitere Antworten geschlossen.
Fortsetzung von diesem Thread



Radeon HD 5000er Serie
Codenamen: Evergreen (DX11 allg.), Cypress XT (5870), Cypress LE (5850), Juniper XT (5770), Juniper LE (5750)

Launch: 23. September Vorstellung (evtl. kleine Verfügbarkeit), 10. Oktober Verfügbarkeit beim Händler
Offizieller Preis in Frankreich is 239€ für die 5850/1GB und 349€ für 5870/GB (Link)

Bilder (Quelle: hardwareBG.com vom 14.9.09)
6x Displayport-Variante vonh Chiphell.com



Nacktfotos von vorne und hinten :drool: (Arabhardware.net)



Mehr hochauflösende Fotos auf Overclock.net:
http://www.overclock.net/hardware-news/574905-arabhardware-hd-photos-5870-1gb-its.html

Offizielle Fotos der xfx-Verkaufsversion (xfx-Webseite)



Diagramm zum Aufbau des Chips



Chip-Silikon (pczilla.net)



5870: Benchmarks (Czechgamer.com / Chiphell.com)







Vergleich 5870 mit 4870



Vergleich AA-Effizienz



Vergleich-Benchmarks mit gtx200 Gesamtübersicht



Vergleich 5870 mit gtx 285



Vergleich 5850 mit gtx 285



Vergleich 5870 Crossfire mit gtx 295 Sli



Offizielle Specs Radeon 5870 (von Ati-Forum.de)



Technische Spezifikationen für Cypress XT / 5870 (unter Vorbehalt)
  • Chip: RV870
  • Strukturgröße: 40nm
  • Chipgröße: 338mm²
  • Transistoren: 2,1 Milliarden
  • Chiptakt: 850MHz
  • Shadertakt: 850MHz
  • Shader-Einheiten (Madd): 320
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 20 x 16 (x 5D)
  • Stream-Prozessoren: 1600
  • Flops (Madd/Add): 2720GigaFlops
  • Rops: 32
  • Pixelfüllrate: 27.200MegaPixel/s
  • Tmus: 80
  • Taus: unbekannt
  • Texelfüllrate: 66.000MegaTexel/s
  • Unified Shader: ja
  • Speichermenge: 1GB / 2GB Gddr5
  • Speichertakt: 1200MHz
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 153,6GB/s
  • Verbrauch Idle: 27 Watt (157MHz Kern / 300MHz Speicher: 40°C @ 20% Lüfter)
  • Verbrauch Last: 188 Watt
  • DirectX-Version: 11
  • Anschließbare Monitore: 3 Stück bis 2560x1600
  • Preis: 1GB 399 US$ / 2GB 449 US$
  • Länge: 28cm (voraussichtlich)

Technische Spezifikationen für Cypress LE / 5850 (sofern verschieden von 5870 und falls bekannt)
  • Coretakt: 725 MHz
  • Flops (Madd/Add): 2090GigaFlops
  • Texelrate: 52,2 GTex/s
  • Pixelfüllrate: 23,2 PTex/s
  • Speichertakt: 1000 MHz Gddr5
  • Speicherbandbreite: 128,0 GB/s
  • Speicherbandbreite (256 Bit SI): 128 GB/s
  • Stream-Prozessoren: 1440
  • Shader: 288 (5D)
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 18 x 16 (x 5D)
  • Verbrauch Last: 170 Watt
  • Preis: 299 US$

Technische Spezifikationen für Juniper (5750/5770)
  • Chipgröße: 181mm²

Modelle
  • HD 5850 (Cypress LE)
  • HD 5870 (Cypress XT)
  • HD 5870 X2 (2x Cypress XT)
  • HD 5750 (Juniper LE)
  • HD 5770 (Juniper XT)

Offizielle Seiten
Ati Eyefinity

Aktuelle Quellen
6.9.09 Radeon HD 5870 and its 1600 shaders (Nordichardware)
8.9.09 21k in 3D Mark Vantage (Beyond3D)
10.9.09 First Exclusive Details and Images of the unreleased HD 5870 (Alienbabeltech)
10.9.09 Ati Radeon HD 5870: Alle Details (Hardware-Infos)
10.9.09 Eyefinity-Infos (.mht hier)
10.9.09 Hawx Sechs-Bildschirm-Demo
10.9.09 Crysis Warhead in 5.670 x 2.160 Pixeln @ 60fps (Golem.de)
10.9.09 Amd Eyefinity 24 Display Tech Demo On Linux (Phoronix)
11.9.09 Radeon 5870 nackt :drool: (Czechgamer)
11.9.09 HD58XX - Endgültige Spezifikationen (Ati-Forum.de)
11.9.09 Eyefinity+5870-Fotos (Widescreen-Gaming)
12.9.09 nVidia macht sich in die Hose :fresse: "President and Ceo of nVidia Corp. (NiViDA) Jen Hsun Huang sells 260,475 shares of NiViDA on 09/11/2009 at an average price of $16.07 a share."
11.9.09 Eyefinity mit Crysis 3
16.9.09 Temperatur und Taktraten im Idle (Xtremesystems.org)
21.9.09 Offizieller Preis in Frankreich (Caseandcooling.fr)

Jegliche Änderungen, Verbesserungen und zusätzliche Infos bitte hier posten, ich trag sie dann hier ein.
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Laut deren News soll also die Grafik bzw. verbesserte Effekte nur an zweiter Stelle stehen? Wozu kauft man sich denn eine Grafikkarte?!

Meiner Meinung nach ist das Statement etwas unglücklich formuliert und von nVidia ein bisschen zu weit gedacht. Sicherlich wird man in näherer Zukunft verstärkt auf GPGPU setzten und andere Aufgaben außer der Grafik von der Karte berechnen lassen, aber bis wir so weit sind vergeht noch ein bisschen Zeit. Die Programme die jetzt schon auf GPGPU setzten sind noch gar nicht so weit verbreitet dass sich eine größere "Richtungsänderung" lohnt...
 
bleibt aber dir frage offen! funkt es überhaupt mit crossfire! denn multimonitoring hat ja bissher im crossfire nicht funktioniert.

Ob es bei CF funktioniert ist noch nicht sicher aber ohne CF gehts auf jeden Fall:


Das mit mehreren Monitoren finde ich ja generell recht scheisse wegem Rahmen aber 4 ist wohl am ungünstigste :fresse:
Bei 3 hat man wie bei einem schön das Fadenkreuz in der Mitte, bei 6 hat mans zwar auch in der Mitte von 2 Monitoren aber halt jeweils am unteren und oberen Rand und bei 4 hat mans vollkommen auf den Ecken...

Schön ist das sicher nicht.
 
Zuletzt bearbeitet:
seh ich genauso wie Xien


im Prinzip ja ne schöne Spielerei aber das einzige was ich da als praxistauglich betrachte sind 3 Monitore nebeneinander. Die Rahmen mitten im Bild, gerade da wo es wichtig ist, dass man alles genau sieht, würde mich für meinen Teil viel zu sehr stören.
 
Das könnte man ja fast so deuten, als wäre der G300 nicht schneller und nVidia versucht sich dafür jetzt schon zurecht fertigen, nicht das zu hohe Erwartungen an den G300 gestellt werden.

Ich kaufe mir nicht nur eine Grafikkarte für Videoberechnung, sondern für die Grafikberechnung (schneller & besser (Effekte)).
 
so ist es!

um dass aber flüssig zocken zu können denk ich, dass man entweder 4 grafikkarten oder zwei X2 brauchen wird

bleibt aber dir frage offen! funkt es überhaupt mit crossfire! denn multimonitoring hat ja bissher im crossfire nicht funktioniert.

Klar geht Mutlimonitoring im CF...
Bei NV ging das ewigkeiten im SLI nicht und NV scheint im Betrieb von mehr als einem Montor immer noch Probleme zu haben, aber das sollte AMD nicht stören...

CF und mehr als ein Monitor geht schon seit ner ganzen weile... sollte also hier auch nicht anders sein.

Das könnte man ja fast so deuten, als wäre der G300 nicht schneller und nVidia versucht sich dafür jetzt schon zurecht fertigen, nicht das zu hohe Erwartungen an den G300 gestellt werden.

Ich kaufe mir nicht nur eine Grafikkarte für Videoberechnung, sondern für die Grafikberechnung (schneller & besser (Effekte)).

Das wäre dann aber das erste Mal, das NV den Schritt derart geht... Sonst stand bei NV immer Leistung auf Teufel komm raus im Vordergrund...

Aber das gehört hier nicht rein, wohl eher in den G(T)300 Thread, damit :btt: bitte...
 
Zuletzt bearbeitet:
Das wäre dann aber das erste Mal, das NV den Schritt derart geht... Sonst stand bei NV immer Leistung auf Teufel komm raus im Vordergrund...

Aber das gehört hier nicht rein, wohl eher in den G(T)300 Thread, damit :btt: bitte...
ATi wollte mit der HD 2900 Serie auch die volle Power und es ging gelinde gesagt voll nach hinten los. Dort kam dann ja auch die wende in der Politik. Evtl. hat nV jetzt auch das Problem mit dem Monster-Chip.

Wie sagt man so schön, abwarten und Tee trinken ;-)
 
radeonhd5850-1gs468.jpg

radeonhd5870-1gz0n8.jpg
 
Zuletzt bearbeitet:
Müssen die wieder solche hässlichen Figuren drauftun? :(
So in schwarz sah das schön aus....
 
Damit wirste leben müssen. Warte erst auf das geschnörksel andere Hersteller, da wird sich so mancher so ne dumme Figur wünschen
 
Hm ok andrerseits sieht man die ja dann eh nicht mehr, wenn die drinsteckt.
Aber so 3D Frauen oh man ^^ die sollen sich mal was andres ausdenken.
 
schön das die 5850 soviel kürzer ist als die 5870!
so sollte ich für mein abstehendes projekt doch auf die 58x0 reihe zurückgreifen können...
 
Sehr nette Bilder ! Und wegen der Dame auf dem Bild, die sieht man im Case doch eh nicht. :coolblue:

Frage mich ob wohl Adapter von Displayport zu DVI dabei liegen werden. Freu mich sehr auf TH2Go :d
 
wenn dx11 uninteressant ist, was war dann dx10?!?
Ganz schlechte Ausrede, Nvidia, ganz FAIL!
Muss ich jetzt erwarten, dass Nvidia bis dx12 nichts mehr auf die Reihe kriegt?!?
 
Das Bild is ja mal der Brüller :fresse:
 
Damit wirste leben müssen. Warte erst auf das geschnörksel andere Hersteller, da wird sich so mancher so ne dumme Figur wünschen

Ja schöne Aufkleber bekommen die einfach nicht hin.
Muss wohl das Komplizierteste an so einer Grafikkarte sein. :fresse:
 
Wenn man allerdings genauer hinschaut, sieht man, dass beide Pics einen Ursprung haben (Spiegelungen auf der Slotblende, etc..) und mit Photoshop oder wie auch immer die Aufkleber hineinkopiert wurden. Und ich meine jetzt nicht Batman und Robin... ;)

Aber als "Pressematerial" reichts.
 
Sollten die 5850 und 5870 nicht beide etwa 28cm lang sein?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh