ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
Der Zocker hat schon gepostet was 2 Karte so in einem Rechner verrbauchen.

Waren mit Quad OC und 2x3870 Karten ca. 210 Watt IDLE komplett mit Platten und Wakü. Also ist doch okay.

ja aber was sehr sehr niedrig ist ;)

So knapp 300W waren es bei mir mit Quad @ 4000. 210 is bissle durch die ati Brille gesehen :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zuletzt bearbeitet:
total oldschool diese Werte *gäähn*

Wurden schon vor über ner Woche gepostet.
 
Also irgendwas kann da nicht in dem Test ist die ja Arsch lahm so schnell wie ne Hd3850?!


Alex
 
Das ist ne Auflösung von 2560 !!!! Augen auf.

sry bin irgendwie heute nich gut drauf. Migräne ...... :mad:
 
Oops jop stimmt 1600:1050 oder so wäre interessanter gewesen...


Alex
 
sollte die x2 wirklich mit nem gdr3 speicher released werden, dann wäre es ja praktisch ne oc 3850x2 und somit nen schuß in den ofen.

am mittwoch wird es dann klarer sein.
für mich heißt das: wird die karte mit dem 3er speicher released, dann gibts 2x3870 cf. später, wenn die x2 mit gdr4 vorhanden ist, kann dann ein austausch einer 3870 gegen eine x2 erfolgen= tripple core
 
Dafür soll ja das SI bei der HD3870 X² addierbar sein,
sprich 2x256 Bit = dann 512 Bit SI komplett.
Somit hat man 2 Fliegen mit einer Klappen geschlagen, billiger Speicher und die Bandbreite einer 2900XT.... für NV immer noch unerreicht... auch wenn dies beim R600 alias 2900XT nicht genutzt werden konnte, bei der Neuen
HD X² jedoch schon.
Was will man mehr?
 
und woher weißte das, dass es nutzbar ist ? haste schon eine... boah berni...
 
Es wurde doch schon vorhin geschrieben, dass dieses addierbare SI völliger Schwachsinn ist. Selbst auf offiziellen Marketingfolien schreibt AMD 2x 256 Bit. Warum wohl?

Du betreibt unnötigen Hype. ;)
 
Denn wenn man GDDR3 Speicher verbauen würde mit dem 256 Bit Speicherinterface würde die Karte sicherlich 20-25% einer CF Lösung zweier einzelnen HD3870 hinterher hinken und dies will ATI sicherlich,- oder ?:stupid:
Somit ist man den Weg des billigen Speichers gegangen, wie man die
512 Bit SI realisieren will/ erreicht kann ich beim besten Willen nicht sagen.
Da ist AMD/ATI gefragt, bzw. deren Treiberentwicklung.
 
Du kannst gerne lange Treiber entwickeln, technisch ändert sich da gar nichts.

Die 3870 X2 wird meist wohl gegen Single-Karten gebencht ... von daher wird das nicht so schlimm sein und man kann das Modell günstiger anbieten. Evtl. gibts ja auch GDDR4-Versionen zusätzlich zu der GDDR3-Variante.
 
Denn wenn man GDDR3 Speicher verbauen würde mit dem 256 Bit Speicherinterface würde die Karte sicherlich 20-25% einer CF Lösung zweier einzelnen HD3870 hinterher hinken und dies will ATI sicherlich,- oder ?:stupid:
Somit ist man den Weg des billigen Speichers gegangen, wie man die
512 Bit SI realisieren will/ erreicht kann ich beim besten Willen nicht sagen.
Da ist AMD/ATI gefragt, bzw. deren Treiberentwicklung.

Ob jetzt 2x256Bit oder 1x512Bit ist doch völlig egal, Leistungs-Mässig ist beides gleich schnell...

Der einzige Vorteil währe die vollen 1024MB Speicher für jede GPU.

Und wie schon mal gesagt, das SI bei Dual GPU Karten kann man zusammen Rechnen, da zwei mal die selben Daten im Speicher vorhanden sein müssen!
 
Also ich muss ehrlich sagen, dass ich mir kaum vorstellen kann, dass man auf GDDR3 zurückgreift, lt. den Specs im Bench oben war der Takt bei 2250MHz, da würde dieser doch schon am Rande seiner Selbst laufen oder nicht? Würde es nicht auch ein "kleines bischen" Hitze geben, womit die Karte resp. der Kühler noch mehr leisten müsste?

Ich will ja nix an die Wand malen, da ich mir (ja, ich hoffe wirklich) erhoffe das die Karte was taugt, aber seit X1800 und Hd2900 Spekulationen, da bin ich schon ein bischen skeptischer geworden, was wir so präsentiert bekommen. Da denke ich mir manchmal, dass da die Leute es wirklich extra versemmeln um den gleichen Weg zu gehen wie 3dfx damals mit der Voodoo5 und 6.

Die Sache da mit dem "addierbarem Speicherinterface", hast Du da eine Quelle Berni?

Der einzige Vorteil währe die vollen 1024MB Speicher für jede GPU.
Das wäre für mich dann auch ein Kaufgrund, denn mit effektiven 512MB wäre diese Lösung für mich > keine Lösung!
Schliesslich hauen die mittlerweile schon auf den grützigsten Karten in der Low-End-Klasse 1024MB rauf aber auf der 3870 oder der neuen GTS, da sind dann nur 512MB und ein reduziertes SI, soll das Luft nach oben lassen, damit man erstmal diese Karten kauft und 1 Monat später die Karten, die gepimped sind mit grösserem SI (siehe alte GTS und neue GTS[die immer noch nicht richtig für Crysis ausreicht]) und mehr Speicher ???
 
Zuletzt bearbeitet:
Es gibt anscheinend zwei Karten, eine mit GDDR3 und 775MHz GPU Takt und eine mit GDDR4 und 825MHz GPU Takt. Die letzte kommt angeblich diese Woche nicht raus, oder sogar überhaupt nicht...

Ich denke es macht für AMD auch gar keinen Sinn, da man wohl nicht an eine 9800GX2 ran kommen würde.

Ich finde die 3870X2 eh sinnlos, heut ist ja mit fast jedem MB CF möglich und somit ist man mit zwei 3870 Wahrscheinlich am ende besser dran.

Die 9800GX2 wird aber richtig einschlagen, schon nur weil man dann auf einem Intel Chipsatz auch zwei NVIDIA GPU verwenden kann.
 
Ich finde die 3870X2 eh sinnlos, heut ist ja mit fast jedem MB CF möglich und somit ist man mit zwei 3870 Wahrscheinlich am ende besser dran.
Nicht jeder hat ein X38, derher ist die X2 eine gute Lösung für mehr Leistung ohne noch ein neues MB zu kaufen (für die 975, 965, P35 usw. User)


Die 9800GX2 wird aber richtig einschlagen, schon nur weil man dann auf einem Intel Chipsatz auch zwei NVIDIA GPU verwenden kann.

Die Karte hat 2 Nachteile die das verhindern 1. SLI bringt erst bei höher Auflösung und Qualitätseinstelungen (AA+AF) gute Ergebnisse.
Und 2. dank 512mb Vram+schlechter Speicherverwaltung wird sie ab 1600x1200 4-8xAA und 16xAF komplett einbrechen.
 
Ich dachte die 8800GT ist durch das 256 Speicherinterface eingebrochen, und nicht durch die 512MB ?
 
Zu 1. totaler Quatsch ich hab selber SLi und hatte davor 2 3870er im CF. SLi bringt in jeder Auflösung was.

Zu 2. Noch größerer Quatsch. Die 3870er sind 100mal mehr eingebrochen als meine SLi System. Da merke ich nix von Einbrüchen und ich spiele nativ auf 1920x1200 mit 8xAA + 16AF. Seit wann hat die 8800er Serie ne schlechte Speicherverwaltung ?? wenn hat das die HD Serie von ATI wie man überall lesen kann.

Erzählt nich immer irgendwelche Geschichten vom Bären bitte wenn ihr selber noch keine Erfahrung damit habt. Vermutungen sind nicht gleich Realität.
 
Zuletzt bearbeitet:
@annixp beschreib doch mal bitte deine erfahrungen mit crossfire...
 
Meine Erfahrung mit nem 4GHz Quad war wie in meinem Review gegen die Ultra auch zu lesen, dass die 2 Karten sehr stark eingebrochen sind bei 1920x1200 8xAA und 16AF da gings unter das Niveau einer getunten 8800Ultra bei COD4 und COH z.B.

Bei den Max FPS lagen sie zwar höher ja, aber bei den MIN FPS gings manchmal auf nahezu 0 runter was sehr schlecht war. Extreme FPS Drops manchmal. Deswegen mag ich CF auch nicht so.

Im 3dmark sind die Dinger sehr schnell aber sonst bei Gamez war ich mit der Ultra im Endeffekt besser dran. Deswegen hab ich mich auch nach ner Woche von den beiden Karten wieder getrennt schweren Herzens :(
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh