ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
Toll, 10-20% mehr Leistung gegen eine Karte die eine GPU drauf hat der schon 15 Monate alt ist...
Jupp das mag stimmen, aber man erinnere sich an nVidia, die wussten sich damals auch nur mit einer Dual GPU Karte zu helfen ;)

Strom Verbrauch etwa wie eine 2900XT, wenn nicht sogar etwas mehr...
Immer schön dran denken das es sich hier um eine Karte mit zwei GPUs handelt ;)

Alles in allem, eine feine Karte für den Preis :)
Und auch fein, das es geschafft wurde das ganze auf einem PCB in der Größe zu bauen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wieso hat die karte bei FPS so komische Taktraten? Der Gpu soll doch 825 haben und der Ram 1800 oder?
Das ist mir auch aufgefallen, zudem wenn man sich mal die 3D06 Werte betrachtet (13852 bei Defaultsettings mit einem Quad) etwas hinten und vorne nicht stimmen kann! Nicht das ich Wert auf 3D06 lege, aber durch mein ehemaliges CF mit 2x 2900Pro 512Bit @ XT weiss ich, dass dieser Wert deutlich zu wenig ist und ich hatte keinen Quad sondern nur einen E6600 @ 4,2ghz...
 
Stimmt, bei einer Sache sind wir uns einig. Für DEN Preis ne anständige Leistung :)

Aber wer ne 88GTX oder Ultra hat, sollte niemals zur 3870 X2 wechseln....Entweder unmerkliche 10-20% schneller, oder 10-30% langsamer (oder wieviel bei Crysis? :d)
 
Dann frage ich mir warum Du keine Single CPU hast?
Wenn man so nen shice schon schreibt, dann bitte mit Begründung ;)
 
Jupp das mag stimmen, aber man erinnere sich an nVidia, die wussten sich damals auch nur mit einer Dual GPU Karte zu helfen ;)

Immer schön dran denken das es sich hier um eine Karte mit zwei GPUs handelt ;)

Alles in allem, eine feine Karte für den Preis :)
Und auch fein, das es geschafft wurde das ganze auf einem PCB in der Größe zu bauen.

Der G71 wahr damals aber schneller als der R520, erst der R580 konnte das wieder ändern. Da lagen aber nie 15 Monate dazwischen...

Mir ist es so ziemlich egal wie viele GPUs da drauf sind, die Leistung / Verbrauch stimmt einfach nicht :hmm:

Und was ist das den für eine blöde Begründung? Die Karte hat zwei GPU, also darf sie mehr Strom brauchen als eine Single GPU Karte? Es zählt nun mal nur die Leistung und der Verbrauch zusammen, alles andere ist egal!
 
Zuletzt bearbeitet:
Stimmt, bei einer Sache sind wir uns einig. Für DEN Preis ne anständige Leistung :)

Aber wer ne 88GTX oder Ultra hat, sollte niemals zur 3870 X2 wechseln....Entweder unmerkliche 10-20% schneller, oder 10-30% langsamer (oder wieviel bei Crysis? :d)

Bei crysis liegt es an den treiber da bringt ja crossfire im moment nix. Jedenfalls ne gute Karte für den Preis.

mal gucken wann Karten mit de richtigen Taktraten getestet werden und ob ne Version mit DDR4 kommt das könnte noch etwas Leistung bringen
 
Dann frage ich mir warum Du keine Single CPU hast?
Wenn man so nen shice schon schreibt, dann bitte mit Begründung ;)

Eine Dual Core CPU bingt aber bei heutiger Software auch gut 80-90% mehr Leistung...

Besser wäre hier der Vergleich Dual mit Quad Core ;)
 
Bei crysis liegt es an den treiber da bringt ja crossfire im moment nix. Jedenfalls ne gute Karte für den Preis.

mal gucken wann Karten mit de richtigen Taktraten getestet werden und ob ne Version mit DDR4 kommt das könnte noch etwas Leistung bringen

Tja Treiber sind aber auch ne wichtige Sache. Klar kann sich alles noch verbessern, aber auf die Zukunft bau ich nicht mehr. Die Karte ist jetzt mindestens so schnell in Crysis, in Zukunft schneller, oder sie ist eben momentan langsamer und das ist mir zu heiß ^^
 
ja ist richtig aber bei crysis bricht ja alles ein obwohl meine Ultra das ein paar Bilder mehr gemacht hatte. Ich finde die Karte jedenfalls nur interessant wenn sie so um die 350€ kosten sollte und Quadcrossfire nochmal ordentlich was bringt
 
@Dural: Eine Dualcore-CPU bringt bei optimierter Software nicht nur 80-90% Mehrleistung. Weiß ich zufällig, weil ich die letzten zwei Jahre an einer Arbeit darüber geschrieben habe. ;)
@Tectrex: Das ist nicht ganz so einfach. In erster Linie liegt das mal an der anderen Position der GPU im System, sowohl software- als auch hardwareseitig. Der Workload bei GPUs entwickelt sich seit Jahren sehr einseitig, sodass es keinen Sinn macht (unter ökonomischen Gesichtspunkten), wertvolle Transistoren für funktionelle Einheiten zu nutzen, die nicht so direkt wie möglich in Mehrperformance umgesetzt werden können. Es ist bedeutend effizienter, eine sub-superskalare Lösung zu etablieren, d.h. einzelne Stages der Pipeline (Render-, nicht Grafikpipeline) zu parallelisieren, nicht aber die gesamte GPU.
Außerdem sind GPU-Architekturen schon heute bedeutend entkoppelter als CPUs, und da gehts mir nicht nur um Features wie OOOE, sondern um verschiedenartige Rechengenauigkeit einzelner Stages, die Möglichkeit, partielle Multipasses durchzuführen und solche Sachen.
Alles in allem sind GPUs in ihrem Konzept bereits so parallel, dass es nicht effektiv ist, die Dinger im ganzen nochmal zu parallelisieren.

Hoffe, das reicht dir als Erklärungsansatz.

mfg
Lord
 
@Lord Stimmt natürlich das die je nach Anwendung bis zu 100% mehr haben.

3870x2compareep1.gif


77374279jj3.jpg
 
bleibt beim topic und hört mal mit dem Fanboymist auf..
hier über irgendwelche spekulationen irgendwas zu debattieren bringt nix..
wenn die irgendwelche fps da hinschreiben is auch gut..kann eh keiner überprüfen!

also warten wir ma den CB test ab dann kann jeder sein urteil bilden..
ob zuviel stromverbrauch, zu hässlicher kühler, falsche pcb farbe, zu wenig leistung usw..

und wer sagt dass alle karten diesen einen referenzkühler drauf haben?
vielleicht gibts ja silent varianten oder 2 kühlkörper etc...
vielleicht ist die karte ja doppelt so schnell wie ne 3870 viellciht viel schneller als ne ultra vielleicht auch nicht?
wer weiß es?
 
Zuletzt bearbeitet:
also die karte geht doch gut! bis auf crysis..! jeder weis das die x2 nur zwei hd3870 ist! Und ich glaube mich zu dran erinnern das 2 hd3870 sehr gut bei crysis laufen! Also ich glaub ich liegt es an den treibern!
 
ich sage nur - frametimes (mikroruckler) und zuwenig vram
hoffentlich wurde ersteres mit treibern beseitigt (mal aufs DB review warten) und hoffentlich kommt ne 2x1GB variante
 
Auf dem Karton steht GDDR3?!

attachment.php
 

Anhänge

  • 2.jpg
    2.jpg
    27,8 KB · Aufrufe: 240
dafür bekommst du ja auch immer nen fettes Software Packet
 
ja des sieht doch gut aus!!! überall schneller außer bei crysis!!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh