ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
hmm ... also mich interessieren auch mögliche negative sachen der X2, nur lobeshymnen ... dazu braucht man nich diskutieren.

dennoch stimme ich Shadow zu ... das geht etwas zu weit ;)

ich frage mich echt nach dem test der gecube ... ob ich wirklich den mehrpreis für die asus zahlen soll ... um dann vielleicht den speicher gut/besser übertakten zu können ... davon aber rein garnichts habe.

außer ne weiteres loch im po ...

raberduck, ich freu mich schon auf *hust* crysis 1680x1050 ohne aa/af *hust* benches :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Muss man im Treiber eigentlich was besonderes einstellen oder so oder kann man die einfach einbauen wie eine normale Karte sprich: Karte rein, Strom an, Treiber installieren und los ?
 
jo genauso gehts^^
also ich hab nix anderes gemacht, und funzt alles
ausser blödes css will nicht? ka warum aber es weiß auch keiner den grund?
cod 4 läuft mit der karte aufjeden vom feinsten!!
 
Lol wie unnötig die Gecube hat nen halbes Frame mehr !!!1111 das lohnt sich ja mal richtig der Aufpreis^^
Naja cod4 vom feisnten ich weis ja net also so dolle find ich die performance net aber ma testen wenn morgen mein Maximus Formula kommt ob es durch PCIE2.0 besser läuft soll ja bei COD4 besonders reinhauen
 
Zuletzt bearbeitet:
hmm ... also mich interessieren auch mögliche negative sachen der X2, nur lobeshymnen ... dazu braucht man nich diskutieren.

dennoch stimme ich Shadow zu ... das geht etwas zu weit ;)

ich frage mich echt nach dem test der gecube ... ob ich wirklich den mehrpreis für die asus zahlen soll ... um dann vielleicht den speicher gut/besser übertakten zu können ... davon aber rein garnichts habe.

außer ne weiteres loch im po ...

raberduck, ich freu mich schon auf *hust* crysis 1680x1050 ohne aa/af *hust* benches :d

Der einzige Vorteil der Asus könnte der Kühler sein.Man müßte nur wissen ob er auch wirklich besser kühlt und dazu auch noch leise ist.
 
Juhu! Hab soeben ne Mail von Mix-Computer erhalten. Meine X2 von Gecube is aufm Weg. :bigok:
 
ich glaub ich holh mir eine normale für ca. 355 € und takte die auf 878/955 und fertig
 
Obwohl ich schon die dritte Nvidia in Folge drin habe, freut es mich, dass ATI mit der 3850, der 3870 und jetzt der X2 mal wieder was richtig gutes im Rennen hat.
 
Servus !
hat eigentlich schon jemand von euch auf nem X38 chip zwei karten verbaut würd mich mal interessieren, hab noch nichts gefunden zweck dem Crossfire X
Des Crossfire X ist ja ers ab drei karten wenn ich des richtig verstanden habe also dürfte es kein problem sein zwei dieser kartn auf dem X38 Chip zu betreiben vorausgesetzt die treiber würden mal kommen ?
 
Servus !
hat eigentlich schon jemand von euch auf nem X38 chip zwei karten verbaut würd mich mal interessieren, hab noch nichts gefunden zweck dem Crossfire X
Des Crossfire X ist ja ers ab drei karten wenn ich des richtig verstanden habe also dürfte es kein problem sein zwei dieser kartn auf dem X38 Chip zu betreiben vorausgesetzt die treiber würden mal kommen ?



Also wenn ich das richtig verstanden habe, ist alles ab 3 GPUs CrossfireX :d

Also 2*X2 = 4 GPUs = Crossfire X ^_^

Aber wie du bereits gesagt hast hapert es noch am Treiber :-P Und soweit ich weiß ist CrossfireX erst ab dem P45 offiziell unterstützt :) Ob es trotzdem geht weiß ich leider nicht :haha:
 
vom surren war/ist nur die von sapphire betroffen oder?!

werde dann wohl auch zum referenz design greifen ... von gecube.

am liebsten ja von club dingens ...
 
@ Shadow 0874

Naja ist auslegungssache !

mann kann des ganze auch per slot wie mit dem 3-SLI auslegen
ab dem 3 slot CrossfireX so inetwa denk ich das des zu verstehen ist wär ja sonst a schmarn bleibt ja eine karte ein kumpel hat die grad auf nem alten bord ohne crossfire unterstützung eigebaut und funktioniert auch genauso wie damals des mit der GX2 funktioniert auch auf bords mit einem PCIe slot ohne SLI unterstützung ?!

Weiß einer schon was genaueres Kuck seit Tagen im internet Rum find aber nix und asus Streubt sich auch was zu sagen hab bisher keine mitteilung bekommen sind da aber sonst recht schnell !
Hinzugefügter Post:
Naja hab ja noch 4 Wochen zum kucken zeit bis alle meinen restlichen teile da sind vorallem die noch nicht lieferbar sind ! :-((((((((((((

zB. Wasserkühler für Graka und Prozessor !!!!!!!!!!!!!!
 
Zuletzt bearbeitet:
vom surren war/ist nur die von sapphire betroffen oder?!

werde dann wohl auch zum referenz design greifen ... von gecube.

am liebsten ja von club dingens ...

Wenn sich da nicht groß was geändert hat produziert Sapphire immer noch alle ATI Karten. Unwahrscheinlich das nur die Sapphire summt da alle Karten im Prinzip Sapphire Karten sind.
 
Wenn sich da nicht groß was geändert hat produziert Sapphire immer noch alle ATI Karten. Unwahrscheinlich das nur die Sapphire summt da alle Karten im Prinzip Sapphire Karten sind.

hmm klingt einleuchtend ... vor allem würde ich doch darauf achten, dass gerade die eigenen "fehlerfrei" sind.

aber ganz ehrlich, der grafikkartenmarkt ist zu zeit wirklich nicht sehr verbraucherfreundlich.

erst die entscheidung ati/nvidia ... und wenn man sich so wie ich für die x2 entschieden hat ... sind gerüchte um GDDR4 und was weiß ich was im umlauf die wieder zum nachdenke anregen ...

werde mir gleich nochmal ne artikel zur 3850 durchlesen ... vielleicht finde ich einen vergleich zwischen GDDR3/4 bei gleichem takt :d
 
@ Shadow 0874

Naja ist auslegungssache !

mann kann des ganze auch per slot wie mit dem 3-SLI auslegen
ab dem 3 slot CrossfireX so inetwa denk ich das des zu verstehen ist wär ja sonst a schmarn bleibt ja eine karte ein kumpel hat die grad auf nem alten bord ohne crossfire unterstützung eigebaut und funktioniert auch genauso wie damals des mit der GX2 funktioniert auch auf bords mit einem PCIe slot ohne SLI unterstützung ?!

Ne sorry ist nicht so! Denn 2 x 3870X2 geht nur mit CrossfireX und da hierzu die Treiber noch fehlen geht das momentan noch gar nicht. Aber wie du bestimmt bemerkt haben wirst sind bei 2 x 3870X2 nur 2 PCIe Slots belegt. Also hat das nichts mit den belegten Slots zu tun (z.B. mind. 3 Slots oder so) Sondern mit der Anzahl an GPUs, wie ich bereits sagte :)

Also alles ab 3 GPUs = CrossfireX (2*3870X2; 4*3870; 3*3870; 1*3870X2+1*3870; 3*3850 etc etc)

Kann natürlich sein das ich Schmarn rede und 2*3870X2 nicht CrossfireX ist, aber dann würde mich interesieren warum die mit den derzeitigen normalen Crossfire Treibern nicht funktionieren sondern erst mit den CrossfireX Treibern. Und warum bei dem Test der GeCube DualOrb, beide Karten (GeCube als auch die standard HD3870X2) in der Übersichtstabelle mit dem Kommentar : CrossfireX aufgelistet wurden ;)

Das die 3870X2 auf jedem Board funktioniert ist auch klar, wurde im diesem Thread auch schon mehrmals erklärt. Der Crossfire Chipsatz ist auf der Karte selbst verbaut, daher ist kein Crossfire Motherboard notwendig und crossfire muss im ATI CCC auch nicht extra aktiviert werden :d

Hoffe das habe ich jetzt richtig erklärt :d

Grüßle
 
Jede CPU bremst theoretisch eine Graka, das heißt aber noch lange nix. Wichtig ist ab wann die Graka gas geben kann! Das man mit 4GHZ mehr Frames hat, als mit 3GHZ ist jawohl klar :-[

Weiterhin ist die 3870 X2 nur die schnellste Karte, wenn das Spiel gescheit für CF gemacht ist UND CF aktiv ist. Wenn das nicht der Fall ist, ist die Karte Affenmüll:mad:
Und was sagst du zu diesen Mikrorucklern? Auch ne neue Generation die die 88 ohne Probs ablösen kann?:banana:


Nur mal so nebenbei. Eine NVIDIA-GPU hat auch Mikroruckler und wenn der Treiber bei NVIDIA schlecht ist ist auch die Performance schlecht. Falls es DIR noch nicht aufgefallen ist, die nachfolgenden Generationen von Grafikkarten sind immer besser (wäre auch schlimm wenn es nicht so wäre). Es sollte jedem selber überlassen sein auf die nächste Generation zu warten. Jedoch gibt es die X2 jetzt zu kaufen. Fals es bei einigen Spielen zu Mikrorucklern kommen sollte so wird man dies si schnell wie möglich beseitigen. An der Hardware wird es auf jedenfall nicht liegen.

Nur mal so nebenbei Multi GPU-Systeme sind die Zukunft. Selbst NVIDIA wird in diese Richtung entwickeln. Die 1. Karte berechnet die geraden Frames und die 2. Karte die ungeraden Frames oder die 1. Karte die geraden Zeilen und die 2. Karte die ungeraden Zeilen. An dieser Technik gibt es nichts auzusetzen.
 
@ Shadow0874

bin mir da ja auch noch net so sicher aber des wärma scho bald seng
Laut Gigabyte unterstützt der X38 chip ja CrossfireX

dann is mas ja eigentlich wurst !

Mal schauen spekulieren könn ma ja in beide Richtungen
 
@ ulukai: 4xgelb=12v+
4xschwarz=masse
 
die freien 2 einfach kurzschließen?
billige "abfrage" obn 8x stecker dran is *g*
 
Und schon gibts den ersten Quad-Crossfire Test!

http://www.fpslabs.com/reviews/video/a-brief-look-at-crossfirex-scaling/page-6

Fpslabs ist an den "Quad Evaluation" Beta-Treiber rangekommen, der gestern auf der AMD-Website zu sehen war.

Mein Link leitet bewusst zu der letzten Seite des Tests hin, weil dort grafisch dargestellt wird, wie 2x 3870X2 vs 1x 3870X2 skalieren. Dazu braucht man keine Englischkenntnisse.

3DMark06: 15%
Call of Juarez DX10: 50%
FEAR: 80%

Anmerkungen:

Die Tests wurden auf einem X48 Mainboard gemacht. CPU war ein QX9770 @4.2.

3DMark06 wurde nur in 1280x1024 getestet. Für mehr war keine Zeit. Leider. Höhere Auflösungen mit viel AA und AF hätten mich mehr interessiert und dort würde Quad-CF sicher viel besser skalieren.

Call of Juarez wurde in 1920x1200, alles max, 4xAA getestet. Die avg fps stiegen von 32 fps auf 48 fps. Bei den min fps dagegen schaute es mit diesem Beta-Treiber unter Quad-CF äußerst mau aus. Deswegen rückt ihn ATI ja noch nicht raus.

FEAR wurde in 1600x1200, alles max, 4xAA, 16xAF getestet. Obwohl ich bin überzeugt, SoftShadows waren nicht wirklich in Kraft. Trotzdem finde ich die Skalierung sehr gut und sie macht Hoffnung. Anscheinend skaliert Quad-CF genauso gut wie CF. Wie stiegen die fps? Von avg 117 fps auf avg 207 fps.

Wann kommt der offizielle Quad-CF/Tri-CF Treiber raus? Laut ATI Ende März! Oh, oh, das heißt, Cat 8.3 kommt erst Ende März raus oder sie bringen Ende März den Quad-Treiber als Hotfix raus.

Und nicht vergessen: Das sind nur Beta-Treiber!!!
 
Zuletzt bearbeitet:
das passt bis märz fallen noch die preise für die karten und dann bau ich mir mein triple:shot:ein quad würde wahrscheinlich mein netzteil eh nit packen:banana:
für 150 euro noch ein 3870 dazu und ab gehts:)
 
Zuletzt bearbeitet:
das passt bis märz fallen noch die preise für die karten und dann bau ich mir mein triple:shot:ein quad würde wahrscheinlich mein netzteil eh nit packen:banana:
für 150 euro noch ein 3870 dazu und ab gehts:)

Die Idee kam mir auch schon, als Zusatz in ein paar Wochen eine 3870 ;), das müsste nochmals bissel Speed geben.
 
Weiß schon jemand woran es liegt das unt Vistax64 mit GPUZ die Bandbreite falscha angezeigt wird ?

Grüße
Sascha
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh