ATI Radeon HD5000-Series (RV870) - [Speku-, News- & Sammelthread] 2

Status
Für weitere Antworten geschlossen.
Fortsetzung von diesem Thread



Radeon HD 5000er Serie
Codenamen: Evergreen (DX11 allg.), Cypress XT (5870), Cypress LE (5850), Juniper XT (5770), Juniper LE (5750)

Launch: 23. September Vorstellung (evtl. kleine Verfügbarkeit), 10. Oktober Verfügbarkeit beim Händler
Offizieller Preis in Frankreich is 239€ für die 5850/1GB und 349€ für 5870/GB (Link)

Bilder (Quelle: hardwareBG.com vom 14.9.09)
6x Displayport-Variante vonh Chiphell.com



Nacktfotos von vorne und hinten :drool: (Arabhardware.net)



Mehr hochauflösende Fotos auf Overclock.net:
http://www.overclock.net/hardware-news/574905-arabhardware-hd-photos-5870-1gb-its.html

Offizielle Fotos der xfx-Verkaufsversion (xfx-Webseite)



Diagramm zum Aufbau des Chips



Chip-Silikon (pczilla.net)



5870: Benchmarks (Czechgamer.com / Chiphell.com)







Vergleich 5870 mit 4870



Vergleich AA-Effizienz



Vergleich-Benchmarks mit gtx200 Gesamtübersicht



Vergleich 5870 mit gtx 285



Vergleich 5850 mit gtx 285



Vergleich 5870 Crossfire mit gtx 295 Sli



Offizielle Specs Radeon 5870 (von Ati-Forum.de)



Technische Spezifikationen für Cypress XT / 5870 (unter Vorbehalt)
  • Chip: RV870
  • Strukturgröße: 40nm
  • Chipgröße: 338mm²
  • Transistoren: 2,1 Milliarden
  • Chiptakt: 850MHz
  • Shadertakt: 850MHz
  • Shader-Einheiten (Madd): 320
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 20 x 16 (x 5D)
  • Stream-Prozessoren: 1600
  • Flops (Madd/Add): 2720GigaFlops
  • Rops: 32
  • Pixelfüllrate: 27.200MegaPixel/s
  • Tmus: 80
  • Taus: unbekannt
  • Texelfüllrate: 66.000MegaTexel/s
  • Unified Shader: ja
  • Speichermenge: 1GB / 2GB Gddr5
  • Speichertakt: 1200MHz
  • Speicherinterface: 256 Bit
  • Speicherbandbreite: 153,6GB/s
  • Verbrauch Idle: 27 Watt (157MHz Kern / 300MHz Speicher: 40°C @ 20% Lüfter)
  • Verbrauch Last: 188 Watt
  • DirectX-Version: 11
  • Anschließbare Monitore: 3 Stück bis 2560x1600
  • Preis: 1GB 399 US$ / 2GB 449 US$
  • Länge: 28cm (voraussichtlich)

Technische Spezifikationen für Cypress LE / 5850 (sofern verschieden von 5870 und falls bekannt)
  • Coretakt: 725 MHz
  • Flops (Madd/Add): 2090GigaFlops
  • Texelrate: 52,2 GTex/s
  • Pixelfüllrate: 23,2 PTex/s
  • Speichertakt: 1000 MHz Gddr5
  • Speicherbandbreite: 128,0 GB/s
  • Speicherbandbreite (256 Bit SI): 128 GB/s
  • Stream-Prozessoren: 1440
  • Shader: 288 (5D)
  • Shadercluster (pro Cluster 16 x 5D Shaderunits): 18 x 16 (x 5D)
  • Verbrauch Last: 170 Watt
  • Preis: 299 US$

Technische Spezifikationen für Juniper (5750/5770)
  • Chipgröße: 181mm²

Modelle
  • HD 5850 (Cypress LE)
  • HD 5870 (Cypress XT)
  • HD 5870 X2 (2x Cypress XT)
  • HD 5750 (Juniper LE)
  • HD 5770 (Juniper XT)

Offizielle Seiten
Ati Eyefinity

Aktuelle Quellen
6.9.09 Radeon HD 5870 and its 1600 shaders (Nordichardware)
8.9.09 21k in 3D Mark Vantage (Beyond3D)
10.9.09 First Exclusive Details and Images of the unreleased HD 5870 (Alienbabeltech)
10.9.09 Ati Radeon HD 5870: Alle Details (Hardware-Infos)
10.9.09 Eyefinity-Infos (.mht hier)
10.9.09 Hawx Sechs-Bildschirm-Demo
10.9.09 Crysis Warhead in 5.670 x 2.160 Pixeln @ 60fps (Golem.de)
10.9.09 Amd Eyefinity 24 Display Tech Demo On Linux (Phoronix)
11.9.09 Radeon 5870 nackt :drool: (Czechgamer)
11.9.09 HD58XX - Endgültige Spezifikationen (Ati-Forum.de)
11.9.09 Eyefinity+5870-Fotos (Widescreen-Gaming)
12.9.09 nVidia macht sich in die Hose :fresse: "President and Ceo of nVidia Corp. (NiViDA) Jen Hsun Huang sells 260,475 shares of NiViDA on 09/11/2009 at an average price of $16.07 a share."
11.9.09 Eyefinity mit Crysis 3
16.9.09 Temperatur und Taktraten im Idle (Xtremesystems.org)
21.9.09 Offizieller Preis in Frankreich (Caseandcooling.fr)

Jegliche Änderungen, Verbesserungen und zusätzliche Infos bitte hier posten, ich trag sie dann hier ein.
 
Zuletzt bearbeitet:
@pczeus

die kommen aus meinem zynismus buch für anfänger :P

Ja ne is klar :p
Ich hab schon verstanden wie du das meintest, nur wenn man meinen Ansatz mal weiter verfolgt, dürfte das bei immer komplexeren GPUs doch schwieriger werden so eine Taktik anzuwenden? Auf der anderen Seite würde es unnötige Entwicklungskosten verschlingen nur um eine HD4850 zu designen.


achja manchmal haben diese leute dann zugriff auf das internet um sich threads wie diesen druchlesen zu können und hilfe zu suchen von leuten wie euch die den totalen plan haben.
:d
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Ja, schon heute morgen, glaub ich - die HD 5870 soll allerdings geoc'ed worden sein.


Also der Artikel mit ATI Multi Monitoring ist schon krass - vor allem die Pics !
24 Monitore an 4 speziellen Karten (HD 5870 ES ?) im CrossFire X mit je 6 x DisplayPort Out - verrückt !

Für die WoWler oder sagen wir CSler wär sowas sicher auch ne Überlegung wert, entsprechendes Kleingeld vorrausgesetzt - you can't see me ! :fresse:
 
Oh nein, es ruckelt ab und zu gaaanz leicht :fresse:

@The Specialist of all:
aha, klingt ganz interessant, nur müsste man noch wissen worum es da geht :shot:
 
Das ganze wird schon seinen Grund haben, und das das Wiederverwerten von Teildefekten oder schlechten Chips Sinn macht, steht wohl außer Frage...
Der Hauptgesichtspunkt damit diese Taktik aufgeht, ist wohl der Verkaufspreis... Solange der im Grünen Bereich liegt, geht die Taktik auf...

Das das ganze auch schief gehen kann, sieht man an NV aktuell.
Für jede verkaufte 260er GTX zahlt NV quasi drauf, weil die Produktionskosten höher sind als die Einnahmen. (was ja bestätigt wurde)

Solange dies nicht der Fall ist (und davon gehe ich bis mindestens zum Release der G300er Karten aus, geht die Rechnung auf.

Wenn NV wiedererwartend extrem schneller sein wird, als die AMD Karten in dieser Preisklasse muss AMD entweder die Preise anpassen, oder aber, ne neue Karte ala HD4770 nachschieben...
Wer aber die Preispolitik von NV kennt, und auch deren Wunschvorstellungen für HighEnd Modelle (da war damals die Rede von 700+€ werden angestrebt) wird sich im klaren sein, das NV bei weit schnelleren Modellen lieber den Preis höher ansetzt als einen Preiskampf anzuzetteln.

AMD macht also alles richtig, sie verwerten Chips, die sonst für die Tonne währen und machen sogar noch Geld damit. Mal ganz davon abgesehen, das es sowieso fraglich ist, was G300 Mittelklassekarten kommen werden. Auf die G200 Mittelklasse warten wir ja bis heute vergebens...
Ein umgelabelter G200b (vllt auch in 40nm) wird wohl da vorerst abhilfe schaffen müssen (aber diesmal mit recht schlechten Vorraussetzungen was Produktionskosten und auch Stromverbrauch angeht)



Achso, hab noch bisschen paar OT Beiträge entfernt ;)
 
Gibt es schon irgendwo Informationen zum Speichertakt der 2GB-Variante?

Oftmals haben die Varianten mit mehr Arbeitsspeicher ja einen niedrigeren Speichertakt, und falls die Bandbreite wirklich knapp bemessen ist, wäre das ja eher suboptimal.
 
@pczeus

wenn die yield rate zu begin der produktion noch so schlecht ist das die pro wafer nur einen einzigen chip rauskriegen und die ganzen anderen 100 chips wegwerfen müßten würde die grafikkarte später 10mio euro kosten, für leute wie dich sicher kein problem ;) aber für mich und alle anderen machen die hersteller das so das von den verbleibenden chips einfach ein paar zonen deaktiviert werden und je nachdem wieviel die abgeschaltet haben dann ein immer "schlechterer" chip rauskommt, bis irgendwann soviel abgeschaltet ist, das nur noch lowend dafür reicht.

das ist selbstverständlich nur ein beispiel, nicht das die hier feuchte hosen kriegen :d

ein wafer = 100 chips
1 chip davon = extreme highend
11 chips davon = highend
18 chips davon = midrange
26 chips davon = lowend
44 chips schrott
________________________________

ist unterm strich 56 verkaufte chips!!!!!!!
und nicht 99 schrott!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
nicht anders

die karten muß am ende nicht der scheich von brunei (glaub ich wird so geschrieben) kaufen, sondern der max mustermann aus musterstadt der nur in einer musterfirma arbeitet und muster herstellt und das sind in der regel keine goldbaren.

LG



und
 
Gibt es schon irgendwo Informationen zum Speichertakt der 2GB-Variante?

Oftmals haben die Varianten mit mehr Arbeitsspeicher ja einen niedrigeren Speichertakt, und falls die Bandbreite wirklich knapp bemessen ist, wäre das ja eher suboptimal.

Nein gibt es nicht...

Ich denke mal die 2GB Versionen werden erst etwas später eintrudeln ;)
Und werden wohl den gleichen Takt haben, wie die 1GB Modelle, also irgendwo zwischen 1,2 und 1,4GHz... ;)

Vor allem, weil die 2GB Versionen aktueller RV7x0er Karten ja auch schon gleich schnell takten wie die 1GBs oder 512MBs...
 
@pczeus

wenn die yield rate zu begin der produktion noch so schlecht ist das die pro wafer nur einen einzigen chip rauskriegen und die ganzen anderen 100 chips wegwerfen müßten würde die grafikkarte später 10mio euro kosten, für leute wie dich sicher kein problem ;) aber für mich und alle anderen machen die hersteller das so das von den verbleibenden chips einfach ein paar zonen deaktiviert werden und je nachdem wieviel die abgeschaltet haben dann ein immer "schlechterer" chip rauskommt, bis irgendwann soviel abgeschaltet ist, das nur noch lowend dafür reicht.

das ist selbstverständlich nur ein beispiel, nicht das die hier feuchte hosen kriegen :d

ein wafer = 100 chips
1 chip davon = extreme highend
11 chips davon = highend
18 chips davon = midrange
26 chips davon = lowend
44 chips schrott
________________________________

ist unterm strich 56 verkaufte chips!!!!!!!
und nicht 99 schrott!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
nicht anders

die karten muß am ende nicht der scheich von brunei (glaub ich wird so geschrieben) kaufen, sondern der max mustermann aus musterstadt der nur in einer musterfirma arbeitet und muster herstellt und das sind in der regel keine goldbaren.

LG



und

Ich verstehe was du damit sagen willst, doch du hast bei deiner Rechnung vergessen, dass die Chips, die gerade mal für Midrange ausreichen eigentlich von der Produktion bzw. den Schritten für High-End vorgesehen waren und dieses Ziel aus welchen Gründen auch immer nicht erreicht haben. Sprich in diesen Chips steckt anteilsmäßig genauso viel an Produktionskosten wie in den High-End Chips.
 
@zeus

stimmt,

aber,

da die produktionskosten sowieso ausgegeben wurden, weil man ja nicht einen chip fertigt sondern einen ganzen wafer, und diverse mit den hohen spezifikationen nicht laufen (taktraten nicht erreicht, läuft nicht stabil, ...)
entscheidet man sich dafür um die ausbeute (yieldrate) mit weniger perfornanten chips etwas abzudämpfen
 
So sieht es aus. Aber sobald der einzelne Chip so komplex und daher in der Produktion so teuer wird, lohnt es sich nicht mehr bzw. der Hersteller fährt Verlust ein. Darauf wollte ich eigentlich hinaus :d
 
die man aber nicht wegwirft, der bäcker verkauft auch brot vom vortag billiger - weil er es sowieso produziert hat, es jetzt aber wegwerfen müßte.
 
Ich verstehe was du damit sagen willst, doch du hast bei deiner Rechnung vergessen, dass die Chips, die gerade mal für Midrange ausreichen eigentlich von der Produktion bzw. den Schritten für High-End vorgesehen waren und dieses Ziel aus welchen Gründen auch immer nicht erreicht haben. Sprich in diesen Chips steckt anteilsmäßig genauso viel an Produktionskosten wie in den High-End Chips.

Ja und?
Klar steckt da eigentlich mehr drin als am Ende bei rum kommt, aber (und hier liegt der springende Punkt) wenn man diese Chips weg schmeißt, kommt man den Anfallenden Produktionskosten kein Stück entgegen... Teildeaktivert man diese hingegen, kann man so noch bisschen was abfangen...
Und wie oben schon geschrieben, fällt der Verkaufspreis der Karte noch derart hoch aus, dann springt idR sogar Gewinn bei raus... Zwar nicht so viel wie beim großen Modell, dafür werden aber von den kleineren Karten auch mehr verkauft. ;)

Wie gesagt, das geht alles so lange auf, wie der Verkaufspreis im Grünen liegt... sinkt dieser zu stark, wirds ein Verlustgeschäfft... Aber hier muss man NV abwarten, was die in dem Bereich zu bieten haben werden.


Nur mal als kleines Rechenbeispiel, eine HD5850 könnte auf ca. 285er GTX Niveau kommen und wird dank 40nm in der Produktion trotz Teildeaktivierung immernoch günstiger sein, als die NV Karte. Heist soviel wie, NV wird einen Teufel tun ihre Karten günstiger zu machen... weis sonst Verlust pro verkauftem Modell droht. AMD kann sich also ganz in Ruhe das ganze von der Ferne aus anschauen.
Und ob NV jemals nen Konkurenten zur HD5850 bringt ist auch fraglich. Eine 360er GTX wird sicher auf HD5870 Niveau sein oder vllt auch drüber, die 380er noch weiter oben.
Und eine Mittelklassekarte auf G300 Basis und HD5850 Niveau und 40nm ist derzeit nicht in Sicht.

Sprich die HD5850 ist quasi wie auch die HD3850 und die HD4830 damals schon sogut wie Konkurenzlos, ergo Preisgestaltung obliegt AMD allein.
 
Ja und?
Klar steckt da eigentlich mehr drin als am Ende bei rum kommt, aber (und hier liegt der springende Punkt) wenn man diese Chips weg schmeißt, kommt man den Anfallenden Produktionskosten kein Stück entgegen... Teildeaktivert man diese hingegen, kann man so noch bisschen was abfangen...
Und wie oben schon geschrieben, fällt der Verkaufspreis der Karte noch derart hoch aus, dann springt idR sogar Gewinn bei raus... Zwar nicht so viel wie beim großen Modell, dafür werden aber von den kleineren Karten auch mehr verkauft. ;)

Wie gesagt, das geht alles so lange auf, wie der Verkaufspreis im Grünen liegt... sinkt dieser zu stark, wirds ein Verlustgeschäfft... Aber hier muss man NV abwarten, was die in dem Bereich zu bieten haben werden.


Nur mal als kleines Rechenbeispiel, eine HD5850 könnte auf ca. 285er GTX Niveau kommen und wird dank 40nm in der Produktion trotz Teildeaktivierung immernoch günstiger sein, als die NV Karte. Heist soviel wie, NV wird einen Teufel tun ihre Karten günstiger zu machen... weis sonst Verlust pro verkauftem Modell droht. AMD kann sich also ganz in Ruhe das ganze von der Ferne aus anschauen.
Und ob NV jemals nen Konkurenten zur HD5850 bringt ist auch fraglich. Eine 360er GTX wird sicher auf HD5870 Niveau sein oder vllt auch drüber, die 380er noch weiter oben.
Und eine Mittelklassekarte auf G300 Basis und HD5850 Niveau und 40nm ist derzeit nicht in Sicht.

Sprich die HD5850 ist quasi wie auch die HD3850 und die HD4830 damals schon sogut wie Konkurenzlos, ergo Preisgestaltung obliegt AMD allein.

... oder die Entwicklung und Herstellung des eigentlichen Chips wird zu komplex. Dann lohnt es sich auch nicht mehr.


die man aber nicht wegwirft, der bäcker verkauft auch brot vom vortag billiger - weil er es sowieso produziert hat, es jetzt aber wegwerfen müßte.

Bei der Herstellung von Brötchen wurde schon lange nichts wesentliches verbessert oder geändert. Bei GPUs hingegen schon ;)

Aber nun zurück zum eigentlichen Thema...
 
Zuletzt bearbeitet:
Wie wärs wenn man nen Thread über das Thema eröffnet :rolleyes:

Interessiert doch die wenigsten bzw ist das gang und gebe.. oder ruft bei NV an die kennen sich damit am besten aus siehe GTX280/260 vs HD4870/4850

Ich will HD5000er Infos und kein Yield gebrabble Danke :d
 
wie wird den so ein wafer berechnet bzw. was müßte ATI oder NV zahlen bevor rauskommt was drinn ist.... oder wird abgerechnet wenns durchgezählt wurde...
 
... oder die Entwicklung und Herstellung des eigentlichen Chips wird zu komplex. Dann lohnt es sich auch nicht mehr.

Neja das sind zwei unterschiedliche paar Schuhe... Entwicklungskosten fließen zum Teil zwar auch ein, aber vorranging gehts wohl um die Herstellungskosten...

Und diese sind eben je nach ausbeute auf dem Wafer recht fix...

Ebenso wird man bei den Entwicklungskosten genau so wie bei den Herstellungskosten vorher mit einberechnen, was für Gewinne verloren gehen, wenn eben Teildeaktiverte GPUs produziert werden müssen. Zumahl die Entwicklungskosten für einen Teildeaktiverten Chip quasi gleich Null sind. Aber dafür zwei Modelle die Entwicklungskosten des ganzen Chips wieder einfahren können. (wenn der Verkaufspreis nicht zu stark fällt, und das wird er wohl vorerst nicht, es sei denn die Karten sind schlecht wie die Pest)

Die Jungs haben das sicher gut durchgerechnet vorher...

Man bedenke, das AMD auch immernoch den Vorteil hat, erster am Markt mit den Modellen zu sein.
Aber nun wirklich :btt: die Diskusion hat zwar weitläufig was mit dem Thema zu tun, aber eben interessiert das quasi niemanden ;)
 
Zuletzt bearbeitet:
stückpreis fürn wafer und fertig. hab mal gelesen das das wohl 15.000$ pro wafer ist. weiss aber noch mehr ob es NV oder ATI war.

wie der preis berechnet ist weiss ich nicht.
 
stückpreis fürn wafer und fertig. hab mal gelesen das das wohl 15.000$ pro wafer ist. weiss aber noch mehr ob es NV oder ATI war.

wie der preis berechnet ist weiss ich nicht.

Der Preis richtet sich sicher nach der Ausbeute, ebenso wie nach der Abnahmemenge.
Aber das geht dann doch wirklich bisschen zu arg OT. Preise für RV870 OK, aber Preisgestaltung für die Produktion von Wafern gehört hier definitiv nicht rein...

:btt: Jungs...
 
Oh nein, es ruckelt ab und zu gaaanz leicht :fresse:

An manchan Stellen sient man (zum Glück), dass nicht das Game ruckelt sondern das Video ;)
Wirklich eine geniale Leistung... Mich würden die Rahmen aber zu sehr stören.
Dann doch leiber einen einzigen etwas kleineren :d
 
Zuletzt bearbeitet:
PC Perspective Bilder + Bericht vom Liveevent auf dem Flugzeugträger.

AMD says that their next-gen GPU will 250% faster than the one introduced in Jul of 2008. That is going by raw TFLOPS

Golem.de - Eyefinity: 6 Full-HD-Monitore an einer Grafikkarte


Crysis: Warhead" in 5.670 x 2.160 Pixeln

Wie Crytek-Manager Carl Jones sagte, habe man beim Testen von Eyefinity "Crysis: Warhead" in 5.670 x 2.160 Pixeln mit maximalen Details bei 60 Bildern pro Sekunde mit einer Grafikkarte gespielt. Das gibt auch einen Hinweis auf die Rechenleistung der 5800-Karten, obwohl dieses Versprechen schon sehr vollmundig klingt

WTF :eek:
 
So lang man nichts genaues weiß immer schön sachte mit der Euphorie :)

Crysis kann auch in niedrigen Details gelaufen sein , steht nirgendwo etwas von den Einstellungen ;)
 
ach wenn das wahr ist dann fresse ich n besen. Das schafft nicht mal ne 295 GTX, oder soll der 5870 schneller sein als die 295? check ich net
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh