ATI R680 (HD 3870 X2) [News- & Sammelthread] (Part 2)

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg




NEU: Radeon HD3870 X2 mit GDDR4-Speicher und kürzerem PCB

Der GDDR4-Speicher wird dabei mit 1.125 MHz getaktet, die restlichen Spezifikationen entsprechen der HD3870 X2.
Desweiteren kommt ein neuer Kühler zum Einsatz, der von der Bauart stark an nv´s legendären QUADRO-Kühler erinnert.​

r680x2quadrozw8.jpg



Treiber:






r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
Wie gut arbeitet bei dir Triple? Merkst du einen Unterschied oder eher nicht?

MfG Kabelmaster

Natürlich merkt man einen Unterschied, ab 1920 aber erst, alles darunter ist verschenkte Leistung ;)
Bei mir rannte COD4 auf 1920 alles auf max...nie unter 91FPS egal welche Szene, mit einer X2 oder mit 2 3870 war das nicht möglich.

Gruß
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hört sich gut an und bei 1680 und AF und AA auf max., merkt man nichts?

MfG Kabelmaster
 
@zocker

Ist das ein ViewSonic 27.5 mit TN Panel.....? Falls ja....wieso kaufst du dir Hardware im Wert von mehreren hundert Euro und sparst bei einem Monitor ein?

Nana, das tut weh :>!
 
hi

habe das game und alle patches drauf und es flackert was kann ich da machen treiber ist 8,3 das game ist Frontlines Fuel of War
 
jetzt darf ich schlaumeier machen :)

Schatten aus machen, und/oder angeblich ( bei mir geht es nicht) AI deaktivieren, was aber blöd ist weil hast nur noch halbe Fps

Ich spiele ohne schatten das passt schon ansonsten läufts gut und ist sehr geil
 
Zuletzt bearbeitet:
@zocker

Ist das ein ViewSonic 27.5 mit TN Panel.....? Falls ja....wieso kaufst du dir Hardware im Wert von mehreren hundert Euro und sparst bei einem Monitor ein?

Nana, das tut weh :>!

Du verwechselst da jemanden und auch wenn was ist an den ViewSonic schlecht, schon getestet?
 
@MarcW

Wo bekomme ich denn einen Solchem 30-Zoll Dell Moitor wie Du hast her in Italien, oder gar aus Österreich?
Wie gut ist der Monitor (habe derzeit LG 1920B mit S-Ips Panel) und vor allem reicht das Corsair 550 Watt NT und wie leise ist es. Bitte gerne auch über PN.
Danke!
 
Du verwechselst da jemanden und auch wenn was ist an den ViewSonic schlecht, schon getestet?

Verwechseln? Der TFT von zocker ist doch nen ViewSonic ;).

Also für mich ist der VS schlecht ja, wenn ich ihn mit meinem Monster Gerät vergleiche, obwohl ich sagen muss, der damalige Vergleich zum 2407 WFP von Dell war auch schon genug. Es ist nunmal nen 500 Euro Monitor und mehr darf man net erwarten!

Wieso schreiben Leute meinen Namen mit C, es steht doch hier dick und FETT mit !K!
So und nun BTT :d
 
Zuletzt bearbeitet:
Verwechseln? Der TFT von zocker ist doch nen ViewSonic ;)

Also für mich ist der VS schlecht ja, wenn ich ihn mit meinem Monster Gerät vergleiche, obwohl ich sagen muss, der damalige Vergleich zum 2407 WFP von Dell war auch schon genug. Es ist nunmal nen 500 Euro Monitor und mehr darf man net erwarten!

Wieso schreiben Leute meinen Namen mit C, es steht doch hier dick und FETT mit !K!
So und nun BTT :d

wieso schreibst du das zocker28 ein viewsonic hat wenn ganz dick da mein name steht?

tja zum monitor selbst,ich bin begeistert,keine schlieren,keine lichthöfe,keine pixelfehler,gute Blickwinkel,sehr viele eingänge.einfaches gesagt tolles bild zum erschwinglichen preis.Hab ich schon gesagt?Riesenteil:)

man muss sich schon erst mal dran gewöhnen,größe ich schon heavy.aber wie gesagt hauptargument war größe und auflösung von 1920*1200.ich würde mir niemals z.b. den dell kaufen,vom preis her sowieso nicht aber vorallem wegen der auflösung nicht,denn 2560x1600 ist einfach zu heavy zum zocken da bricht mir das zuviel ein auch in zeiten von sli und cf.ich brauche fps und das kann mir kein system bieten bei der auflösung.für mich gilt auch nur die native auflösung ,von interpolation halte ich garnichts bei tft´s.Und bei der Preiskategorie vom Dell würde ich mir den eh nicht kaufen da gibt es weitaus bessere;)

und ja jetzt wissen wir das du ein dell hast,hast jetzt deine aufmerksamkeit bekommen:haha::haha::lol:
 
Zuletzt bearbeitet:
Also ich hab seit gestern UT3 (Steam sei Dank) und bin ein bissl enttäuscht. Stellenweise lauft es echt flüssig, aber dann hab ich wieder enorme Einbrüche (1920x1200 - alles high). Vorallem wenn Gegner im Blickfeld sind, oder die Sicht etwas weiter geht, ruckelts ganz schön. Ich werd heut Abend mal versuhen die config zu tweaken, hat in der Demo auch ganz gut geklappt (hatte aber noch keien X2 da).

cpu hab ich nen 5000+@3.2ghz, 4gb ram
 
Ich denke mal deine CPU ist einfach zu langsam für die Karte. Wenn ich schon sehen das meine CPU(da sprech ich aus Erfahrung ;) ) oder von anderen der Quad nicht ausreichen, dann reicht deine erst recht nicht aus(ist nicht böse gemeint).

MfG Kabelmaster
 
wieso schreibst du das zocker28 ein viewsonic hat wenn ganz dick da mein name steht?

tja zum monitor selbst,ich bin begeistert,keine schlieren,keine lichthöfe,keine pixelfehler,gute Blickwinkel,sehr viele eingänge.einfaches gesagt tolles bild zum erschwinglichen preis.Hab ich schon gesagt?Riesenteil:)

man muss sich schon erst mal dran gewöhnen,größe ich schon heavy.aber wie gesagt hauptargument war größe und auflösung von 1920*1200.ich würde mir niemals z.b. den dell kaufen,vom preis her sowieso nicht aber vorallem wegen der auflösung nicht,denn 2560x1600 ist einfach zu heavy zum zocken da bricht mir das zuviel ein auch in zeiten von sli und cf.ich brauche fps und das kann mir kein system bieten bei der auflösung.für mich gilt auch nur die native auflösung ,von interpolation halte ich garnichts bei tft´s.Und bei der Preiskategorie vom Dell würde ich mir den eh nicht kaufen da gibt es weitaus bessere;)

und ja jetzt wissen wir das du ein dell hast,hast jetzt deine aufmerksamkeit bekommen:haha::haha::lol:


Wo liegt dein Problem? Dass der ViewSonic nicht wirklich etwas im Vergleich zu einem Dell ist, ist keinerlei Geheimnis. Und das beste, mir gibst du für die Preiskategorie beim Dell Ratschläge und kaufst einen 27.5 mit 1920 Auflösung? Das passt doch irgendwie net oder?#
Zum Thema interpolieren, eine 1920x1200 Auflösung entspricht einem 24" TFT, also ist diese für einen (28") eigentlich schon zu wenig....! Gibt leider auch noch genug Games, wo Hardware in die Knie geht bei 1920x1200! Solltest du noch nie einen Dell oder vergleichbare TFT Klassen getestet haben, ist dies sowieso irrelevant hier zu diskutieren.
Aber egal, ich will hier keinen Streit anzetteln oder irgendwelche Flames posten.
 
Zuletzt bearbeitet:
Ich denke mal deine CPU ist einfach zu langsam für die Karte. Wenn ich schon sehen das meine CPU(da sprech ich aus Erfahrung ;) ) oder von anderen der Quad nicht ausreichen, dann reicht deine erst recht nicht aus(ist nicht böse gemeint).

MfG Kabelmaster

Naja das kann ich mir kaum vorstellen :eek: Lief damals mit meinem e6750 @ 3.6 GHz 2gb ram und einer g80 GTS mit ~100fps!

Da muss ein andres Problem vorliegen, als dass seine CPU die Karte SO SEHR bremst :eek:

(oder hat sich von der Demo zur Full so viel geändert? :d
 
hm komische disko hier .... wegen lumpigen 24-30zoll tft mist .... OT ist das .... ;) wegen so mist disko anzufangen ich weis nicht .... kann ich gleich anfangen mit leinwand 24p oder 46zoll tft der oben bei verwanten steht.... man man .... jeder kauft das was er sich leisten kann bzw für richtig hält. und erlich gesagt der viewsonic ist nicht schlecht für den preis ... der dell spielt in einer anderen liga den würd ich mir aber auch nicht kaufen. zu teuer, steht dell drauf, würde nicht auf mein tisch passen ;)
 
Wo liegt dein Problem? Dass der ViewSonic nicht wirklich etwas im Vergleich zu einem Dell ist, ist keinerlei Geheimnis. Und das beste, mir gibst du für die Preiskategorie beim Dell Ratschläge und kaufst einen 27.5 mit 1920 Auflösung? Das passt doch irgendwie net oder?#
Zum Thema interpolieren, eine 1920x1200 Auflösung entspricht einem 24" TFT, also ist diese für einen (28") eigentlich schon zu wenig....! Gibt leider auch noch genug Games, wo Hardware in die Knie geht bei 1920x1200! Solltest du noch nie einen Dell oder vergleichbare TFT Klassen getestet haben, ist dies sowieso irrelevant hier zu diskutieren.
Aber egal, ich will hier keinen Streit anzetteln oder irgendwelche Flames posten.

1.kein spiel wird bei mir bei 1920*1200 in die knie gezwungen
2.wie schon gesagt wenn ich soviel ausgeben würde dann bestimmt nicht für den dell:)
3.der einzige depp der vergleichen tut sitzt vor dem dell moni:lol:
 
Zuletzt bearbeitet:
@schakistaR ich vermute das UT3 sehr CPU limitiert ist, dann schau mal deine und seine CPU an. Da liegt ein riesen Leistungsunterschied zu Grunde. Er müsste mal ein Grafiklimitiertes Game testen und zu sehen ob die Karte ordnungsgemäß funktioniert.
@MarkW und derguru hier geht es um was ganz anderes, wenn ihr euch "streiten" möchtet, tut dies per pn. Beide Monitore haben ihre Vor- und Nachteile. Das beide in einer ganz anderen Liga spielen brauch ich glaub ich nicht zu erwähnen. Ihr vergleicht einfach Birnen mit Äpfeln, da kommt man auf keinen gemeinsamen Nenner.

MfG Kabelmaster

P.S. mir wäre der Dell auch zu teuer und ich würde den ViewSonic nehmen :)
 
Hi

Mal ne frage bringt ne 2 3870X2 Karte was sprich Crysis, UT3, usw.?
Oder kann mann sich das Sparen CPU ist Q6700@3,6Ghz 4 GB 1600DDR3 Ram Graka Asus 3870X2.

Grüße Rocco75
 
Naja das kann ich mir kaum vorstellen :eek: Lief damals mit meinem e6750 @ 3.6 GHz 2gb ram und einer g80 GTS mit ~100fps!

Da muss ein andres Problem vorliegen, als dass seine CPU die Karte SO SEHR bremst :eek:

(oder hat sich von der Demo zur Full so viel geändert? :d

Glaub ich auch net - wenn ich die cpu auf 2.6 runtertakte läufts eigentlich ganz gleich, und das sind immerhin 600mhz pro kern.
 
Hi

Mal ne frage bringt ne 2 3870X2 Karte was sprich Crysis, UT3, usw.?
Oder kann mann sich das Sparen CPU ist Q6700@3,6Ghz 4 GB 1600DDR3 Ram Graka Asus 3870X2.

Grüße Rocco75

in welcher auflösung spielst du?

@Freef
spielste mit oder ohne AA? ohne aa hab i selbst auf den größten karten stets über 40fps minimum, ab 4xAA gehts aber auf grossen mobs mit vielen gegnern/bots mal gern in die knie, aber trotzdem noch flüssig.
 
in welcher auflösung spielst du?

@Freef
spielste mit oder ohne AA? ohne aa hab i selbst auf den größten karten stets über 40fps minimum, ab 4xAA gehts aber auf grossen mobs mit vielen gegnern/bots mal gern in die knie, aber trotzdem noch flüssig.

Feef ;) - ohne AA, werd heut abend aber mal mehr testen und berichten. Mal Anleitungen fürs benchen suchen.....
 
So ich habe meinen Q6600 / B3 Heizkraftwerk mal n bissle höher getaktet.
Jetzt sehen die Punkte in 3DMark 06 schon anders aus.
penismarkuw2.jpg
 
hier nen Bild vom Bench bei CoH (Alles an höchster Stelle in den Optionen, 8xAA
im Spiel eingestellt - Treiber auf Use ....)

am Anfang wenn das Level geladen wurde hab ich auch 80-70 FPS und ürplötzlich sinken die auf 40 FPS ab
 

Anhänge

  • RelicCOH 2008-03-18 18-18-39-92.jpg
    RelicCOH 2008-03-18 18-18-39-92.jpg
    59,9 KB · Aufrufe: 59
Ich hab das Problem immernoch das die X2 einfach freezt auf dem Desktop :-[

Vista neu gemacht und ist immernoch so in dem Krüppel XP ist dagegen alles iO :(

Edit: lol mit dem R680 Sample Treiber gehts, mit dem Final 8.3 nicht x_X
 
Zuletzt bearbeitet:
Ich hab das Problem immernoch das die X2 einfach freezt auf dem Desktop :-[

Vista neu gemacht und ist immernoch so in dem Krüppel XP ist dagegen alles iO :(

Edit: lol mit dem R680 Sample Treiber gehts, mit dem Final 8.3 nicht x_X

Ich denke dein NT ist a wenig schwach oder irgend welche USB Geräte???, aber bitte nicht hauen, mir hat jemand erzählt der 8.3 würde mehr Strom ziehen als der Sample Treiber :haha:
Hoffe du bekommst den Fehler bald hin....


GRuß
 
in welcher auflösung spielst du?

@Freef
spielste mit oder ohne AA? ohne aa hab i selbst auf den größten karten stets über 40fps minimum, ab 4xAA gehts aber auf grossen mobs mit vielen gegnern/bots mal gern in die knie, aber trotzdem noch flüssig.

Ich habe einen 26 Zoll TFT also Spiele ich in 1920x1200
 
Zocker 28 was hat du für ein Netzteil? Mein Antec 550W reicht locker aktuell ;).

MfG Kabelmaster
 
lol ich hab nen Tagan 800 Watt :fresse:

Mit 3xHD 3870 und nem 4Ghz Quad rennt es ja ohne Probleme, soabld die X2 allein drin ist ist das Problem da.
Aber der Sample Treiber funzt jetzt.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh