ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
Bei Computerbase ist ein sehr ausführlicher Test mit sehr vielen Spielen und unterschiedlichen Auflösungen. Dort schlägt die X2 eine Ultra in 1600x1200 Azflösung sehr oft um 50%

Es gibt zwar einige Spiele wo die X2 genausoschnell ist wie eine eifache 3870, dort müssen aber noch die Treiber optimiert werden.

Ich kann nur sagen schaut Euch mal Anno 1701, UT3, HL2 und viele Spiele mehr an. Dort ist die X2 überragend (wenn man diesem Test glauben kann). Heute bekommt man schon einen 20" LCD für ca 200€ da spielt eh nur die Auflösung 1680x1050 eine Rolle. Einer mit einem 17" braucht sich so eine Karte nicht kaufen denn da reicht auch eine 3870 oder eine 8800gt

Warum die X2 bei Hardwareluxx so schlecht ausfällt weiß ich nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warum werden denn solche Test bei Hardwareluxx veröffnetlich. Wie man an vielen anderen Testbereichten sehen kann funktioniert der CF-Betrieb schon bei UT3. Ich finde dies ist nicht besonders fair ATI gegenüber, da aufgrund dieses Test sicherlich viele Leute keine X2 kaufen werden. Gerade von Hardwareluxx hätte ich viel mehr erwartet. Dann lieber keinen Review erstellen als Test die nur verunsichern.

Das ist wie bei der Bildzeitung "Heute wurde der Mörder von X gefasst". Der Mensch wird verurteil, obwohl er eventuell nicht schuldig ist. Wenn er aber freigesprochen wird, schreibt die Bildzeitung selten darüber.
 
@joedoe1979
warum führen wir nicht gleich eine zensur ein wie in china? alles was negativ ist wird entfernt. so kann der kunde nicht durch cons verwirrt werden :rolleyes:

klarer fall von ATI fanboy
 
Warum werden denn solche Test bei Hardwareluxx veröffnetlich. Wie man an vielen anderen Testbereichten sehen kann funktioniert der CF-Betrieb schon bei UT3. Ich finde dies ist nicht besonders fair ATI gegenüber, da aufgrund dieses Test sicherlich viele Leute keine X2 kaufen werden. Gerade von Hardwareluxx hätte ich viel mehr erwartet. Dann lieber keinen Review erstellen als Test die nur verunsichern.

Das ist wie bei der Bildzeitung "Heute wurde der Mörder von X gefasst". Der Mensch wird verurteil, obwohl er eventuell nicht schuldig ist. Wenn er aber freigesprochen wird, schreibt die Bildzeitung selten darüber.

das war ein schlechtes beispiel ;)

der test stimmt ja schließlich :hmm:
 
Auch bei Anno 1701, HL2, FEAR, Stalker ist die X2 deutlich stärker als eine Ultra.

Bei Rainbow Six Vega ist die X2 sogar doppelt so schnell wie die Ultra :-)

Selbst bei World in Conflict 1600x1200 4xAA/16xAF ist die Karte sage und schreibe 30% schneller

Bei Crysis muss ATI noch am Treiber arbeiten, aber sie sind schon deutlich dichter rangekommen

Bei 1600x1200 ohne Kantengllättung geht die X2 sogar an der Ultra vorbei. Sofern aber die Kantenglättung an ist fällt die Karte leicht zurück
 
So wie ich das sehe kann ich bei meinen zwei 3870 bleiben, die 3870 X2 bringt nichts mehr an Leistung, ein crossfire gespann bringt doch mehr und ist sogar noch stromsparender. Und Overclocking siehts auch noch schlecht aus, gut das ich nicht auf die gewartet habe. ;)
 
Wie kann denn der Test stimmen wenn bei Computerbase bei UT3 das CF super funktioniert und bei Hardwareluxx halt nicht. Das muss doch jemand was flasch gemacht haben und denn solche Testergebnisse zu veröffentlichen hlte ich für falsch. Man muss die eigenen Fehler nicht auf ATI schieben. Und wenn ich dann lese das einige schreiben das die GTX schneller ist als eine x2 und dann als Kommentar schreiben "da kriege ich ja das kotzen" dann beinflusst dieser Test schon das Kaufverhalten.
 
besitzt du die Karte? Dann mach mal Screens von den Sachen die du genannt hast!

Oder beruhst du dich auf irgendwelche Tests, die im Internet zu finden sind und eh alle was anderes sagen
 
@ hIiO beim X2 brauche ich aber nur einen Wasserkühler kaufen und darauf habe ich gwartet (denn so ein Wasserkühler kostet auch mal eben 80€
Hinzugefügter Post:
Die Werte sind unter compterbase.de nachzulesen habe ich doch geschrieben
Hinzugefügter Post:
Dort ist ein sehr ausführlicher Test mit einer Core 2 der auf 3,4GHz übertaktet ist, so dass die CPU das System nicht so schnell ausbremst
 
Zuletzt bearbeitet:
natürlich hat luxx nichts falsch gemacht,hätten aber gleich den test sein lassen können,hat null aussagekraft da 3 popelige benchmarks gemacht und dann noch mit dem älteren treiber da die ati 3870x² nicht im cf arbeitet wie man sieht.
 
Ich geh von den Ergebnisse von http://www.hartware.de/review_785_1.html aus und die sind sehr real, alle anderen können wohl nicht mit CF umgehen oder wollen es nicht. ;)

@ hIiO beim X2 brauche ich aber nur einen Wasserkühler kaufen und darauf habe ich gwartet (denn so ein Wasserkühler kostet auch mal eben 80€
Das stimmt schon aber denke mal der Dual Kühler für die 3870 X2 kostet bissel mehr als 80€, weil er ja schon ein stück länger sein muss. Im ganzen hat man aber trotzdem gespart.
 
Zuletzt bearbeitet:
Den Test von HWL nehme ich nicht so ernst!, ich warte lieber auf die Tests von den Usern, ausserdem ist der Test fürn Popo weil Betatreiber!
Es kann ja nicht sein das 2900XT bei manchen Spielen schneller ist als ein X2.

MfG
 
Ich finde den Test bei Computerbase besser als bei Hartware, da viel mehr Spiele getestet wurden. Insgesamt wurden bei Computerbase 16 Spiele getestet, daruter auch 6 Spiele mit Direct X 10
 
ich finde nur diese beiden Karten interessant: Nur der Preis ist ne frechheit besonders bei der Gecube

Asus: 825/900

310099.jpg


Gecube: 850/960 find ich noch am Besten :bigok:

310118.jpg
 
Zuletzt bearbeitet:
Ich finde den Test bei Computerbase besser als bei Hartware, da viel mehr Spiele getestet wurden. Insgesamt wurden bei Computerbase 16 Spiele getestet, daruter auch 6 Spiele mit Direct X 10

leider hat computerbase für die GTX / Ultra uralte treiber verwendet Nvidia ForceWare 163.75 (G8x) ... einzige fudzilla hat den neuen 169.28 verwendet und PCGH 169.21
 
Zuletzt bearbeitet:
Crossfire mit normaler HD 3870 möglich?
 
Wie siehts eeigendlich mit dem neuen Treiber aus??
Ist der released???
Find den nrigendwo....


Alex
 
leider hat nvidia für die GTX / Ultra uralte treiber verwendet Nvidia ForceWare 163.75 (G8x) ... einzige fudzilla hat den neuen 169.28 verwendet und PCGH 169.21


Uralte Treiber? Nun lass aber mal die Kirche im Dorf.

98.xx wäre Uralt gewesen....
 
ich habe mir die Club3D für 379 Euro bestellt, hoffe sie ist morgen da.
 
Gut auch wenn die Treiber bei der Ultra bei Computerbase schon etwas älter sind aber zaubern kann NVDIA auch nicht. 2 Grafikchips sind einfach besser als einer. Sicherlich mag die Leistung der X2 in vielen Test "nur" 20 % schneller sein als eine Ultra jedoch kostet die X2 auch 20% weniger als eine Ultra.

Die nächste Karte von ATI wird auch 4 Kernen in einem Die bestehen. Somit baut ATI Grafikkarten für den Einsteigermarkt mit 1 Kern, für die Mittelklasse mit 2 Kernen und für die gehobene Klasse mit 4 Kernen. Dies hat den Vorteil das nur 1 Kern entwickelt werden muss und somit die Kosten deutlich gesenkt werden. Also kommt das gute alte Baukastensystem wieder zum Einsatz. Bin mal gespannt wie gut diese dann in der Praxis funktionieren wird. Die X2 war ja nur ein 1. Versuch und ich finde das ist auch sehr gut gelungen. Sicherlich ist der Stromverbrauch etwas höher aber ein Porsche verbraucht auch mehr Benzin als ein Golf
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh