ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
was verbraucht denn eine allein?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
dann passt das doch mit 2 Karten und 190 watt
 
Jo, das ist korrekt.

Mich stört der Verrbauch nciht. AMD bietet ja auch bald eine Hybrid-Lösung ähnlich wie nVida für Triple-Systeme an.
 
Mal sehen wie Quadcrossfire geht
 
Hab gerade den Triple SLI Test auf Computerbase gesehen! Was ein Dreck....

Einmal ist die 88Ultra sogar etwas schneller als drei Karten, also iss auch ne Limiterung dabei....

Weiterhin sind zwei 88er Karten tatsächlich oft doppelt so schnell ab 1600*1200 mit 4AA, aber ne Triple Scheiße ist nicht 3 mal so schnell, oh nein :d

Also Quad CF....omg ^^

Ich schätze bei Quad CF habt ihr nicht 100% Mehrleistung gegenüber CF, sondern 10-30% :d
 
Computerbase naja guck die die Crossfire test an das sagt alles
 
Ja jetzt muss sie nur noch nen guten Kühler haben und gutes OC Potential
 
Klar war es zu erwarten, aber 190W sind einfach viel zu viel (und bei Grafikkarten wohl ein absoluter Negativrekord).
 
Wieso wenn man sli oder crossfire nutzt ist es doch das selbe
 
Bad Santa:
Was völliger Blödsinn ist da du wenn du dir n Crossfire 3870 Gespann aufs Board haust du ne TDP von 218 Watt hast, das wären au 2 GPUs, bitte erst denken. :cool:
 
190W sind mal garkein Negativrekord. Nie eine 2900XT betrieben?

Der Computerbase-Test ist natürlich auf bestimmten Auflösungen und Settings nicht repräsentativ. Die Pure Renderpower, die in 3x G80 steckt, muss erstmal mit Geometrie und Rohdaten versorgt werden. Da stirbt auch der verwendete Penryn ab.
 
Leute bei Dual GPU Karten kann man das SI immer addieren, ist ja auch logisch da bei den 2x 512MB auch 2x die selben Daten drin sind.

2x GPU haben 2x 512MB mit 2x 256 Bit

Bei der 7950GX2 wurden auch immer 512 Bit angegeben...
 
ja außerdem wenn die X2 sogar noch etwas schneller ist dann wäre sie sogar sparsammer. Also ich weiß nicht von was ihr träumt. Wollt ne schnelle Karte die dann nur 80 Watt verbraucht oder was?
 
190W sind mal garkein Negativrekord. Nie eine 2900XT betrieben?

Der Computerbase-Test ist natürlich auf bestimmten Auflösungen und Settings nicht repräsentativ. Die Pure Renderpower, die in 3x G80 steckt, muss erstmal mit Geometrie und Rohdaten versorgt werden. Da stirbt auch der verwendete Penryn ab.
 
Bad Santa:
Was völliger Blödsinn ist da du wenn du dir n Crossfire 3870 Gespann aufs Board haust du ne TDP von 218 Watt hast, das wären au 2 GPUs, bitte erst denken. :cool:
Und wenn ich kein Crossfire haben will sondern die Highend-Karte von ATi, dann muss ich 190W in Kauf nehmen, das ist noch bedeutend mehr als die letzte Generation hatte.
AMD/ATi ist da in einer Sackgasse, imo ist diese Karte Blödsinn.

Deine dämlichen Sprüche darfst du dir gerne sparen.


Edit@Lord: Sorry, hatte 150W im Gedächtnis.
 
guck mal was ne Ultra verbraucht. Wenn du hier ATI schlecht machen willst dann wechsel lieber den Thread
 
guck mal was ne Ultra verbraucht.
Weniger (und trotzdem zu viel).
Wenn du hier ATI schlecht machen willst dann wechsel lieber den Thread
:stupid:
Ich will hier keinen Hersteller schlecht machen, für mich geht die Entwicklung der Grafikkarten in eine falsche Richtung. Der Verbrauch ist bei vielen Karten einfach nur noch inakzeptabel, und da gehört die HD3870X2 dazu.
Da hätten sie lieber einen neuen Chip entwickeln sollen. Das der R600, auf dem die Karte ja letztendlich noch basiert, extrem ineffizient war ist ja nun nicht gerade neu.
 
Zuletzt bearbeitet:
Geh spielen, Richie. Niemand macht hier ATI schlecht. 190W sind zweifelsohne eine ganze Menge Leistung, vollkommen egal, ob nun eine 2900XT oder eine 8800Ultra noch mehr verbraucht. Das macht es nämlich noch lange nicht besser!
 
Und wenn ich kein Crossfire haben will sondern die Highend-Karte von ATi, dann muss ich 190W in Kauf nehmen, das ist noch bedeutend mehr als die letzte Generation hatte.

Die letzte Generation war die 2900 und die verbraucht alleine schon so viel wie die 3870x2
ATI kann nicht zaubern , die holen nicht auf einmal ne SuperHyperKarte aus der Schublade welche wenig strom braucht und sauschnell ist. Wenn du Stromsparen willst, dann bist du im Highend zurzeit falsch aufgehoben. . Die müssen doch jetzt diese Karte bringen, weil NV das gleiche macht.
 
Zuletzt bearbeitet:
Jo mein Rechner braucht bei standard settings ~ 270 Watt.... wenn ichd ie graka auf 900MHz übertakte zeigt mein messgerät gewaltige 400Watt an :fresse: da wären die 190Watt für zwei karten doch vollkommen ok? das ist für eine karte unter 100Watt... das man bei SLI/Crossfire nichts sparsames erwartemn kann sollte klar sein...
 
Zuletzt bearbeitet:
was soll den Ati machen der Trend geht halt immer mehr zu hohen Verbrauch... solange die Karten leise sind ist das doch ok
 
Der Zocker hat schon gepostet was 2 Karte so in einem Rechner verrbauchen.

Waren mit Quad OC und 2x3870 Karten ca. 210 Watt IDLE komplett mit Platten und Wakü. Also ist doch okay.
 
was soll den Ati machen der Trend geht halt immer mehr zu hohen Verbrauch... solange die Karten leise sind ist das doch ok
Der Trend geht zu mehr Leistung (logisch), wobei es beide Hersteller nicht schaffen, dabei den Verbrauch zu senken bzw. konstant zu halten (wie das bei CPUs nun schon eine ganze Weile der Fall ist).
Weder ATi noch nVidia entwickeln eine neue Generation Grafikkarten unter der Prämisse, den Verbrauch zu erhöhen (eher im Gegenteil, schließlich müssen dann immer aufwendigere Kühler konstruiert werden), aber sie schaffen es halt auch nicht, ihn zu senken.
Vor ein paar Jahren waren 60W Verbrauch bei einer Highendkarte normal, jetzt sind wir beim 3-fachen. Wären die Entwicklung zu dieser Zeit bei den CPUs die gleiche gewesen würden die jetzt um die 300W TDP haben.
 
Zuletzt bearbeitet:
Leute was meckert ihr den?

ATI oder Nvidia bringt diese Dualkarten auch nur als Übergangslösung bis zu den wirklich richtigen Karten. Da geht es jetzt bestimmt nicht darum den Stromsparmeschanismus zu optimieren. Das hat Ati schon sehr gut gelöst im Gegensatz zu Nvidia. Also Füße still halten und dann einfach noch ein paar Monate warten wem die KArten zu viel Strom verbrauchen. Wobei ich Quark finde, da 2 ATI 3870 Karten weniger Strom ziehen als 1xGTX :rolleyes:
 
dann frag ich mich warum du dir überhaupt nen computer kaufst, denn alle computer brauch en viel strom. hast du schonmal nen porsche mit 5L verbrauch gesehen, der über 250km/h fährt ?
 
also wenn man die 3870 sieht merkt man doch das Ati wert auf Stromsparen legt. Der verbrauch ist ja viel niedriger als bei der X2900... Wenn Ati gewollt hätte könnte man den 3870 Takt locker auf 900 MHz bringen mit höheren Vcore aber das machen sie nicht wegen dem verbrauch
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh