ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
eine 3870 x2 wäre vermutlich etw. schneller, als ein 3870 CF.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also ich habs mal gehört! bei crossfire hat man die leistung von 1,5 karten! bei der hd3870xs sind ja auch 2 grafikchips aber die könnnen besser genutzt werden und dann hat man halt die leistung von 2 karten(hd3870)! So is bzw. war des doch auch bei der 7900gx2 die schneller is als 2x 7900!
 
mannoman... die HD3870 hab ich mir shconmal ins auge genommen aber wenns die X2 so für ~300-350 dann werde ich mir wohl eher eine davon als 2 normale holen :-) happy new year xD
 
also ich habs mal gehört! bei crossfire hat man die leistung von 1,5 karten! bei der hd3870xs sind ja auch 2 grafikchips aber die könnnen besser genutzt werden und dann hat man halt die leistung von 2 karten(hd3870)! So is bzw. war des doch auch bei der 7900gx2 die schneller is als 2x 7900!

Die GX2 war aber auch höher getaktet! Aber das Problem, dass man ohne CF Support nur eine Grafikkarte in diesem Fall nur einen Chip nutzen kann, besteht aber weiterhin?!
Hinzugefügter Post:
wegen geringeren Latenzen und besserem Speichermanagment.

Woher kommt das? Ist das gewollte Optimierung oder hängt das einfach damit zusammen, dass die beide Grafikchip auf einem Board verbaut sind?
 
Zuletzt bearbeitet:
erstmal gucken wie die normale HD3870 abgeht gegebenenfalls kann ich sie wieder verkaufen und mir ne X2 holen ^^
 
Die GX2 war aber auch höher getaktet! Aber das Problem, dass man ohne CF Support nur eine Grafikkarte in diesem Fall nur einen Chip nutzen kann, besteht aber weiterhin?!
Hinzugefügter Post:


Woher kommt das? Ist das gewollte Optimierung oder hängt das einfach damit zusammen, dass die beide Grafikchip auf einem Board verbaut sind?

beides würd ich sagen.
 
immer vorsichtig mit den Superlativen FGB, Hardwarekenner oder wie auch immer ;)

Ich rede vom Kupferblock.
Schon mal den Kupferblock einer 1950xtx in der Hand gehabt? Der spielt in einer ganz anderen Liga, genauso wie die Kühlkörper der dicken 8800er, mal ganz abgesehen von Drittanbietern und WaKü.
Ich bezweifle auch nicht das dieser niedliche Block auf der 3870 in gewisser Weise effizient ist. Aber er ist vorallem eines, nämlich günstig. Und das ist was in dem Preissegment zählt. Ein größerer Kupferblock mit mehr Fläche wäre bestimmt besser für die Temps, würde sich aber auch negativ auf den Preis der Karte auswirken.

ich bezog mich auf "momentan" und im verhältnis zur "bewältigenden verlustleistung". und diese war bei der XTX höher ;)
 
ich seh schon, du willst es nicht einsehen. soll mir egal sein. Der Twin Kühler auf der 3870X2 geht ja noch, aber unter dem Plastik der 3870 single sieht das Ding total verloren aus. Meinetwegen können die am Kupfer sparen so viel sie wollen, Hauptsache der WaKü ist nicht teurer als die X2, bzw es wird überhaupt einen solchen geben :-[
 
Zuletzt bearbeitet:
Woher kennst du den Twinkühler der x2?
schonmal eine in der HAnd gehabt?
 
Anpassung Seite1 / Post #1

Hier scheint ja noch alles beim Alten zu sein!
Schön, das es sowas noch gibt! ;)
 
Zuletzt bearbeitet:
Wow das Engineering Sample sieht ja mal mächtig aus. Erinnert stark an die OEM Version der HD2900XT.
 
Wie viel länger könnte denn die Karte werden als die Original HD-2900XT?
Wird in etwa den selben Stromhunger besitzen, und einige optische/ technische Verbesserungen des RV670 beinhalten.
 
Ich würde mal sagen, dass die im IDLE weniger verbraucht als eine 2900XT, da ja auch schon 2 3870 im CF weniger verbrauchen. Unter Last sieht es dann aber wohl wieder anders aus.
 
aber wird auch nicht viel mehr denke dass die da noch was an der stromversorgung machen dass es nicht zu viel wird
 
Aber mal ehrlich gesagt, wer Strom sparen will, der ist mit so einer Karte sowieso völlig falsch beraten. Für mich wäre der Idle Verbrauch ohnehin viel ausschlaggebender als der Last Verbrauch.
 
Nichtsdestotrotz bleib abzuwarten wie die Performance wird. Die entgültige technischen Daten stehen ja auch noch nicht fest und es ist da immer noch der Unsicherheitsfaktor, wenn Games CF nicht richtig unterstützen, steht auch die X2 mit stumpfen Waffen da.
 
Fakten zu der Karte gibts ja imho schon ein paar. Mehrere Seiten sprachen von HD3870 X2 und deuteten darauf hin, das der Chip zumindest mit den gleichen Werten wie die HD3870 daherkommen soll, wie glaubhaft das ist, weis ich nicht, aber ich würde sagen, es klingt logisch bei gleichem Namen auch gleiche Daten zu integrieren ;)

Zum Leistungsthema CF, das ist halt so ne Sache, solange ATI nicht irgendwie ne Möglichkeit schafft, ähnlich SLI solche Profile erzeugen zu lassen, dann wird denk ich mal die X2 Karte wenig Spaß machen...

Mir war aber so, als würde ich irgendwo mal aufgeschnappt haben, das ATI an so ner Profilmöglichkeit arbeitet...

Ich finde die Karte irgendwie sehr interessant, vor allem da ggf. die Möglichkeit bestehen würde, der pro GPU 1GB Speicher zur verfügung zu stellen. Klar das wäre mächtig teuer, aber in Sachen Zukunftssicherheit würde das gut ankommen ;)

Da nächstes Jahr irgendwie nahezu keine Games angekündigt sind, welche man unbedingt haben müsste, könnte ich mir sogar vorstellen, das die Karte sehr lange in meinem Rechner weilen könnte...
 
Vielleicht heißt die Karte ja auch HD 3890. Habe ich auch schon gelesen.
ATI hat keine Profile? Wie wird dass denn dann geregelt? Auf gut Glück?
Im Prinzip ist es aber doch eine Verarschung am Kunden, wenn diese Doppel-GPU Karte (egal ob von ATI oder nvidia) als DAS Highendmodell angepriesen wird, u.U aber langsamer als eine aktuelle Mittelklassekarte sein könnte. Ich finde, auf den Verpackungen müsste ein entsprechender Hinweis sein, wie bei den (Offline-)Games, die eine Interverbindung benötigen. Aber, das ist nur Träumerei. Wird wohl so nicht (profitabel) realisierbar sein. Und irgendwie scheint die alte 7950GX2 mittlerweilw auch viel von ihrem Glanz verloren zu haben. Hoffentlich passiert der X2 nicht dasgleich in ein paar Monaten
 
Neja Treiberintern oder wie auch immer wird wohl so ne Art Profilverwaltung vorhanden sein, welche sich wohl bei ATI auf den Namen der ausgeführten Datei bezieht... Daher funktioniert unter umständen auch das umbenennen der Ausführbaren Files in 3DMark06.exe oder Oblivion.exe...

Es wird dann wohl das Profil für 3DMark06 bzw. Oblivion genommen.

Für den Kunden ist das aber eher schlecht... besser wäre es ne Möglichkeit zu schaffen die Profile ändern zu können oder sowas. Halt wie bei SLI.
SLI funzt ja idR mit fast allen Games wenn man irgendwie dort so ein Profil auftreiben kann/selbst erstellen kann.

Die GX2 war aber auch bei einigen Games langsamer als ne 7900GTX, halt dann wenn SLI nicht funktionierte.

Des weiteren ist der vorteil von SLI, das man nicht zwingend immer den neuesten Treiber brauch um neue Games mit SLI zocken zu können, bei ATI ists ja eben so, ohne neuen Treiber kommen die Profile nicht an die Karte und es funkt nicht (bzw. nur mit einer GPU)

PS
so viel glatz hatte die GX2 damals aber auch nicht, die einzellne X1950XTX kam an bestimmten stellen ja sehr nahe an die GX2 ran, des weiteren kam die schlechtere BQ hinzu und wohl auch der exorbitannt hohe Preis damals noch.
Die GX2 war wohl auch damals eher auf lange Sicht gesehen. Die X2 hier wird wohl nur kurz auf dem Markt vorhanden sein, da mit Sicherheit ATI irgendwie im Mai oder Juni den R700 nachschieben wird und somit die X2 Karte ihre Daseinsberechtigung verlieren wird (aus Sachen P/L). Es sei denn ATI packts net ne ordentliche Single GPU Karte zu bauen
 
Nein, eben nicht!
Vor allem der R700 soll eine Dual, Quad-Core GPU werden, in dem alle Versionen integriert sein sollen und durch die Nicht/ Verwendung der einzelnen GPU (defekte GPU) so der Markt gesättigt wird.
Die X² 3870 wird der Vorreiter werden, nicht das Schlusslicht.
Und ATI arbeitet fieberhaft an Crossfire Support,- und denke sie sind sehr nahe am Ziel auch und vor allem zwecks der X² Karte.
Daher würde ich selbst zur X² 3870 tendieren oder gar erst zum komplett Neu erscheinenden Multi GPU R700.
 
Ach ja stimmt ja, da war ja was mit den R700... Ich vergaß :fresse:

Neja aber ich sagte ja auch schon, das das im Grunde der falsche Weg ist, da diese Multi GPU Lösungen eher ineffizient sind im Sinne von Leistung/Watt.

Wir warten mal was kommt.

Berni schau mal im HD2900XT Thread, vllt interessiert dich dort was ich schriebt, wegen den Temps zu deiner HD2900XT
 
Naja, vielleicht läuft es mit dem R700 ja auch so ab, dass das Bild je nach Anzahl geteilt wird und alle Chips nur ein Teil rendern und ein letzter Chip fügt dann alles zusammen und gibt es auf dem Monitor aus.
 
@TopAce888
??
das ist doch derzeit mit CF und SLI auch so, bzw. gibts schon so nen Modi, welcher das Bild dynamisch aufteilt um nahezu die gleiche Rechenlast zu erzeugen und dann am Ende wird das Ergebniss beider Chips zusammengefügt.

Mein Problem, was ich sehe, ist das man mit verdopplung der GPUs nie doppelte Leistung haben wird. Heist so viel, um so mehr Chips vorhanden sind, um so ineffizienter wird die Karte und das ist wie ich finde genau der falsche Weg den man geht ;)
 
Wäre ja was, wenn ATI diesen Mehrkernweg einschlägt und unter ungünstigen Bedingungen das absolute Highend Modell nicht schneller ist als die Billig-Variante. Das kann wohl so nicht sein, irgendwas wird ATI da wohl noch drehen.
 
Hi,
wollt mal fragen ob jemand schon Infos zum ungefähren Preis der Karte hat.
 
Nein, dies nicht. Würde aber zu sehr großer Sicherheit um die 320-340 Euro ausgehen. Die Neue GTS 512 MB wird diese Karte in der Luft zerreisen, und bis NV kontert ist schon das Flagschiff R700 am Start.
NV hat sich zu lange ausgeruht, bzw. so einen Wurf wie mit dem G80 gelang Ihnen selbst nicht mehr so schnell... und nun ist es reichlich spät.:(
 
Geh einfach mal von dem Preis zweier 3870 aus, von daher wirds definitiv nicht mehr als 400€ und bis sie auf den Markt, kannste sogar von noch weniger ausgehen, wei die 3870er dann auch noch billiger sind, weil wer kauft sich schon ein X2, wenn CF günstiger ist.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh