ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
@ rolandb166: na logisch ;)

@ roughneck: jo, das ist voraussetzung.. ich hab sogar die erfahrung gemacht, jeglichen treiber vorher deinstallieren..
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei manchen Usern sieht man auf den GPU-Z Screens ATI CrossFire "enabled". Bei anderen (auch bei mir) steht disabled.
Grund zur Sorge?

Gruß Kappa
Hi,
Das Problem mit ATI Crossfire "Enabled" oder "Disabled" hat mich gestern auch den ganzen Tag beschäftigt. Jetzt habe ich die Lösung: es liegt an dem verwendeten Betriebssystem. Bei Win XP zeigt er "Enabled (2 GPUs)" an und bei Vista eben "Disabled". Gleichzeitig halbiert sich unter Vista auch die angezeigte Bandbreite 28,8 GB/s zu 57,7 GB/s bei Win XP. Auswirkungen hat dies höffentlich nicht...
 
Zuletzt bearbeitet:
@ roughneck: naja wenn man den 8.1 + hotfix draufhatte, musste der vorher runter bei mir.. drüberinstallieren hat nicht geklappt..

@ dana: ich hab auch im cf-thread gepostet wegen deinem crysis prob..
 
@ roughneck: naja wenn man den 8.1 + hotfix draufhatte, musste der vorher runter bei mir.. drüberinstallieren hat nicht geklappt..

@ dana: ich hab auch im cf-thread gepostet wegen deinem crysis prob..

aso

drüber bügeln kommt meistens eh nicht wirklich gut.
 
So hab mir jetzt eine 3870x2 von Sapphire bestellt für 357 Euro sollte die Tage kommen, werde dann berichten, vor allem wie sie auf meinem 30" TFT läuft ;)
 
geht mir ehrlich gesagt zu weit, trotzdem danke :d

sowas verkürzt doch ungemein die lebensdauer, oder bin ich nur schlecht informiert ... und es gibt soetwas wie ein bereich wie bei cpu´s den man unbedenklich auschöpfen kann?!
 
Der Benchmark ist mit dem Spiel nicht vergleichbar. DX10 funktioniert im Spiel viel besser als beim Benchmark.
Hä? Wie soll das denn gehen? Wenn schon, dann könnten die fps aufgrund der z. B. im Benchmark nicht notwendigen Berechnung der Audioeffekte vielleicht ein wenig nach oben gehen. Erklär das doch bitte mal.

Also ich weiß ja nicht. Immer wenn die BMs nicht zu den Wunschergebnissen passen, sind sie auf einmal nicht mehr aussagekräftig. Da heißt es dann "ach - 3DMark06 ist ja wohl völlig daneben. Nimm lieber den BM [xyz]". Und wenn weder [x] noch [y] noch [z] glauben wollen, was man doch für ein hochperformantes System hat, sind sie halt alle nix.
 
Hi,
Das Problem mit ATI Crossfire "Enabled" oder "Disabled" hat mich gestern auch den ganzen Tag beschäftigt. Jetzt habe ich die Lösung: es liegt an dem verwendeten Betriebssystem. Bei Win XP zeigt er "Enabled (2 GPUs)" an und bei Vista eben "Disabled". Gleichzeitig halbiert sich unter Vista auch die angezeigte Bandbreite 28,8 GB/s zu 57,7 GB/s bei Win XP. Auswirkungen hat dies höffentlich nicht...

Ist wohl nicht ganz richtig. Trotz AI auf standard zeigt GPU-Z "Crossfire disabled" und Bandwidth 57,7 GB/s. BS ist Vista32.

http://img152.imageshack.us/img152/5646/gpuzvistafe0.jpg

Gruß Kappa
 
Tja, bei Vista 64 teilt er dann nochmal durch 2 :)

Hab da nämlich schön 28,8GB und disabled.


@ RoughNeck

Habe selbstredend 1.1 drauf.
Treiber ist auch drauf.

Bin dankbar falls mir jemand noch einen Tip geben kann....

Grüße
Sascha
 
Hä? Wie soll das denn gehen? Wenn schon, dann könnten die fps aufgrund der z. B. im Benchmark nicht notwendigen Berechnung der Audioeffekte vielleicht ein wenig nach oben gehen. Erklär das doch bitte mal.

Also ich weiß ja nicht. Immer wenn die BMs nicht zu den Wunschergebnissen passen, sind sie auf einmal nicht mehr aussagekräftig. Da heißt es dann "ach - 3DMark06 ist ja wohl völlig daneben. Nimm lieber den BM [xyz]". Und wenn weder [x] noch [y] noch [z] glauben wollen, was man doch für ein hochperformantes System hat, sind sie halt alle nix.

Es ist so.
Es hat nichts damit zu tun, dass mein System oder das System vom zocker28 oder das vom Öse nicht die gewünschten FPS liefert ( und der 3D Mark ist sowie so nur zum Schwanzvergleich und spiegelt nicht im geringsten die Realität )
Der Benchmark läuft im 1. Level und genau da habe ich erheblich mehr FPS im Game als im Benchmark. Warum das so ist weiß ich nicht ( bin ja keiner der Programmierer vom dem Game )
Aber da das hier nicht Thema dieses Thread ist
:btt:
 
Die neue Everest beta zeigt beie GPU´s an, da liegen 20 Grad unter idle zwischen, da sieht man mal das das Design etwas dämlich ist weil über den 2ten Kern die warme Luft des ersten noch drüber muß ^^.

Aber es läuft ja :)

Grüße
Sascha
 
Oh man

Tut das eigentlich weh, wenn man so ..... ist? Wie ATI oder Nvidia die Performance erreichen ist völlig egal.
Die 8800 ultra war ein knappes Jahr lang die Beste Karte, doch jetzt kommt die ablöse in Form einer 3870X2 und der 9800GX2.
Beide Karten sind schneller, kosten weniger ( Nvidia wird die 9800GX2 denke ich zum gleichen Preis ansetzen wie ATI ), verbrauchen weniger ( die X2 verbraucht im idle deutlich weniger ).
Wer in 1920 x 1200 und so viel AA und AF wie möglich zocken will, kommt an den Karten im Moment nicht vorbei.

Und eine 8800GTX oder Ultra wird ebenfalls von einen 3GHZ Core 2 Duo gebremst. Es ist egal wie hoch du die Auflösung einstellst, je mehr MHZ auf der CPU desto mehr min. FPS wirst du haben.
Das entscheidet ob eine Scene dann flüssig oder ruckelig ist.

Da du kein Multi GPU System hast, poste deine Weisheiten wo anders.

Jede CPU bremst theoretisch eine Graka, das heißt aber noch lange nix. Wichtig ist ab wann die Graka gas geben kann! Das man mit 4GHZ mehr Frames hat, als mit 3GHZ ist jawohl klar :-[

Weiterhin ist die 3870 X2 nur die schnellste Karte, wenn das Spiel gescheit für CF gemacht ist UND CF aktiv ist. Wenn das nicht der Fall ist, ist die Karte Affenmüll:mad:
Und was sagst du zu diesen Mikrorucklern? Auch ne neue Generation die die 88 ohne Probs ablösen kann?:banana:
 
werden den im Everest die 2 karten mit 16x angesteuert oder mit 8x8 ?




Bustyp PCI Express 2.0 x16 @ x16
 
Jede CPU bremst theoretisch eine Graka, das heißt aber noch lange nix. Wichtig ist ab wann die Graka gas geben kann! Das man mit 4GHZ mehr Frames hat, als mit 3GHZ ist jawohl klar :-[

Weiterhin ist die 3870 X2 nur die schnellste Karte, wenn das Spiel gescheit für CF gemacht ist UND CF aktiv ist. Wenn das nicht der Fall ist, ist die Karte Affenmüll:mad:
Und was sagst du zu diesen Mikrorucklern? Auch ne neue Generation die die 88 ohne Probs ablösen kann?:banana:

CF funkt in so ziemlich jeden Game. Wenn nicht kann man das ganz einfach mit exe renaming ändern.
Das du etwas gegen ATI zu haben scheinst ist nicht zu überlesen. Also entweder argumentierst du sachlich oder behalte das ganze für dich und geh in den Sandkasten spielen.

Zum Thema Microruckler
Mikroruckler treten auf beiden Multi GPU Systemen auf ( Nvidia und ATI ).
 
CF funkt in so ziemlich jeden Game. Wenn nicht kann man das ganz einfach mit exe renaming ändern.
Das du etwas gegen ATI zu haben scheinst ist nicht zu überlesen. Also entweder argumentierst du sachlich oder behalte das ganze für dich und geh in den Sandkasten spielen.

Zum Thema Microruckler
Mikroruckler treten auf beiden Multi GPU Systemen auf ( Nvidia und ATI ).

Ja genau, ich habe was gegen ATI. Seit über nem Jahr nix mehr gescheites und jetzt nur ein Multi GPU Teil mit Mikrorucklern, JA die auch bei SLI vorkommen, aber Multi GPU Systeme sind ja leider auch beschissen :(
 
@raberduck

sollte sich das bestätigen, könnteste dann gleich mal ne paar benches machen :d

das wär soft :)
 
@Raberduck

Dann geht bei dir aber die Lutzi wenn de denn Treiber hast^^

@all other

Meint ihr es lohnt sich von einer GTX auf ne X2 umzusteigen, gespielt wird in 1680x1050...

MfG
 
Rechne mal stark mit nä. Mittwoch abends, also 13.ter Februar, aber kann gut auch früher kommen.

@Öse:
Wie gut läuft denn CF mit deinen 2x 3870 und dem A64 3Ghz?
 
Zuletzt bearbeitet:
Ja genau, ich habe was gegen ATI. Seit über nem Jahr nix mehr gescheites und jetzt nur ein Multi GPU Teil mit Mikrorucklern, JA die auch bei SLI vorkommen, aber Multi GPU Systeme sind ja leider auch beschissen :(


Boah langsam nerft es echt immer wieder den selben Müll von dir zu lesen.

Wenn du über Microruckler labern willst geh in den -> Microruckler Sammelthread

Für Nvidia gelaber geh in nen -> Nvidia Sammelthread

Und wenn du die ATI 3870X2 schlecht labern willst ..... halt doch einfach mal die :fresse: Klappe!

Denn :wayne: hier dein gelaber? Niemand. Du hast hier über die letzten Seiten bestimmt schon 10 mal geschrieben : Die Karte ist Dreck, den Kauf nicht wert, Müll, Affenschei**e etc!
Könntest du einfach mal sachlich bleiben und beim :btt:

Ausserdem bin ich bestimmt jetzt schon der Dritte der dir sagt das dein Geheule :heul: und Gemotze :grrr: und deine Unsachlichkeit :-[ einem echt tierisch auf den Zeiger gehen.

Also nimms dir zu Herzen und ..... mowl! :hmm:

Danke für dein Verständnis!

@all: Und sorry das musste mal raus! :d
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh