ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
also ich hab kein zischen??

was versteht ihr denn unter dem *zischen* ??
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Zischen soll vom Lüfter kommen, habe den Link nicht parat aber es scheint so als würden zur Verwunderung echt verschiedene Lüfter bei den
HD3870 X²-er Karten verbaut werden, vor allem auch der 2900XT Lüfter .... so wie es echt scheint!

Let's examine the reference cooling system on the card made by HIS, because almost all graphics cards of this class will be equipped with such coolers.
It's a usual turbine design: a long heat sink covered with plastic housing to direct the airflow. There is a turbine at one end, which pumps the air through the heat sink. The other end has a socket to throw the heat out of a system unit.

We've already seen such coolers on the HD 2900 XT and the HS 3870. This very device is very long, so there are two heat sinks inside, one on each GPU.

Note that the plate and the heat sink near the turbine are made of aluminum, while the others are made of copper. Here is the idea: the first heat sink to meet the airflow gets cooler air, so aluminum works well here. The second heat sink is cooled by the air, warmed up by the first heat sink. It must be more efficient, so it's made of copper. We'll see the results below.

In conclusion of our examination, I want to note that different heat sinks are used ONLY in the first batches of such coolers. Products made by MSI and PowerColor come with copper heat sinks (BOTH), so they are heavier. Perhaps, HIS was one of the first partners to get the cards from AMD, so their coolers have different heat sinks.

The turbine is slow, so there is practically no noise. The fan rotates fast only for several seconds at startup.



Link nun da!
http://www.digit-life.com/articles3/video/rv670-3-part2.html
 
Zuletzt bearbeitet:
ja aber wenn ich den lüfter per hand anhalt ist das geräuch immernoch present....
also muss es ja von der karte selber kommen oder?
was man darunter versteht ein durchgehendes zischen halt......
Hinzugefügter Post:
und ja was auch komisch ist hab die karte gerade geozed mit dem ccc alles auf maximum also 860/955 und ja mit ati tool 15min artefakt scan gemacht ohne fehler!
und dann hab ich mal 3dm06 laufen lassen und hab dann nur noch 14k punkte ist doch auch komisch, und ja die temp ging nich über 85°C
 
Zuletzt bearbeitet:
Das Geräusch kommt aus denn Spannungswandlern und Elkos, wie bei allen Elektrogeräten. Dann kann man nichts tun, entweder kommt es vor oder nicht, alles kleine Abweichungen aus der Fertigung. Nicht alle Bauteile können fehlerfrei sein. Und bei dem Saft der durch die kleinen Platinen strömt, ist das völlig im Toleranzbereich.
 
Also ich habe dieses zischen bei meiner Sapphire HD3870 auch, aber nur wenn ich die Grafikkarte mit z.B. ATiTool (Scan for Artifacts) auslaste. Aber das ist normal oder?
 
also hat das so gut wie jede karte?

Das hat er nicht gesagt :d Er sagte das es normal ist das aus einer Fertigung eventuell ein paar Karten dieses Verhalten aufzeigen. Und daß dies immer noch im Toleranzbereich liegt. Sollte es dich stören, würde ich dir sehr ans Herz legen die Karte umtauschen zu lassen under per Widderuf dein Geld wiederholen und ne Neue bestellen. Ansosnten sitzt du in 3-4 Wochen da und ärgerst dich das du den Widderuf verpasst hast.

Kann dir ein Lied von Singen :( Grad ne 8800 GTX verkauft die gerade mal max 45 Tage alt war, und hab von den 413.- die Ich gezahlt habe nur 330.- wieder bekommen. Dabei wusst ich schon nach der ersten Woche das meine Freundin die Karte nich haben will, aber durch die Feiertage etc. den Widderruf vertrödelt. Und schon hab ich fast 100 Euro innen Sand gesetzt :wall:

Also entweder mit leben können, oder schnellst möglich tauschen lassen :d
 
Hy,

mein Lüfter von der hd3870 X2 dreht nicht mehr hoch. daher wird die Karte ca. 114°C warm.
Kann mir jemand sagen wie das mit dem Umtausch läuft.
Habe die Karte am Freitag bei Computeruniverse gekauft. Habe alle Treiberversionen getestet. Irgendwie hat die Karte einen Schalg abbekommen. Am Freitag Abend lief der Lüfter noch hoch, heute nicht mehr. Komisch!
Kann mir jemand was dazu sagen?


Gruss
 

Interesant :) da sieht man es wieder ohne potente CPU wird eine menge Leistung verschenkt.

Ich würde ein C2D@3,6ghz oder Quad@3,0ghz schon mindestens empfehlen.




Gleich mehrere WR :eek:

Bin mal auf ein CF aus X2 unter LN2 gespannt
 
Zuletzt bearbeitet:
Hab nen normalen q6600 @default und B3 stepping lohnt es sich den zu verkaufen und nen G0 zu kaufen und übertakten?
 
Hab nen normalen q6600 @default und B3 stepping lohnt es sich den zu verkaufen und nen G0 zu kaufen und übertakten?

Wenn der B3 gut zu OC geht brauchste nicht unbedingt ein G0

Wenn nich dann warte auf die Pennys die gehen auch besser wie die "alten" wegen 45nm
 
Moin !

In GPU-Z hab ich bei mir nur 28,8GB bei Bandwith stehen, sollten das nicht 57,6x2 sein ?

Version ist 0.15.

Grüße
Sascha
 
Interesant :) da sieht man es wieder ohne potente CPU wird eine menge Leistung verschenkt.

Ich würde ein C2D@3,6ghz oder Quad@3,0ghz schon mindestens empfehlen.

Bullshit! Die meisten Spiele unterstützen en Quadcore so sehr wie Hundekot, also gar nicht! Wenn C2D@3,6GHZ, dann auch Quad@3,6GHZ!

Aber 3,6 GHZ für so ne anale Karte? Ne da muss ich ja mal dicke kotzen! Wer kann denn en 3,6er aufbringen? Sogut wie keiner!

Aber ab 1680*1050 mit 4AA und 16AF braucht man eh nicht mehr als ne C2D@3GHZ....
 
Dein Text is zwar kritikwürdig, aber zumindest den letzten Satz bestätige ich. Hatte ja selber schon nen Quad und mittlerweile läuft der E8500 mit seinen Standard 3,16Ghz und alles läuft angenehm. ;)

Aber nu btt bitte :)
 
jungs bitte helft mir mal

css will bei mir einfach nicht funzen????
es flimmert einfach nur derb!

hat jemand ne idee? jedes andere game funktioniert einwandfrei
mfg
 
Bullshit! Die meisten Spiele unterstützen en Quadcore so sehr wie Hundekot, also gar nicht! Wenn C2D@3,6GHZ, dann auch Quad@3,6GHZ!

Aber 3,6 GHZ für so ne anale Karte? Ne da muss ich ja mal dicke kotzen! Wer kann denn en 3,6er aufbringen? Sogut wie keiner!

Aber ab 1680*1050 mit 4AA und 16AF braucht man eh nicht mehr als ne C2D@3GHZ....

Aja

Du bist ja ein Experte gell :lol: Es wird nicht zum 1. mal erwähnt das man für Multi GPU Systeme eine Potente CPU braucht, sonst langweilen sich die Karten.
Ich merke bei meinen Games deutlich, ob die CPU nur mit 2,4GHZ oder mit 3GHZ oder höher taktet und selbst mit hohen Auflösungen merkt man es, da die Minimum FPS steigen.

@FoXdeLuXx

Welches OS verwendest du?
Und wo soll es bei CSS flimmern?
 
Zuletzt bearbeitet:
kommt auf die spiele darauf an. hitman blood money kann man auch mit 1Ghz spielen, in crysis merkt man den unterschied von 2ghz und 3ghz - es ruckelt weniger.
 
kommt auf die spiele darauf an. hitman blood money kann man auch mit 1Ghz spielen, in crysis merkt man den unterschied von 2ghz und 3ghz - es ruckelt weniger.

mauhaha Crysis den crap sollte man nicht als vorzeige Model nehmen, ich kann dir Screens zeigen da macht die CPU NICHTS, sie ist 2 % belastet und die Grakas schwitzen sich ein ab.


Es gibt soviel Spiele die ein Quadcore sehr gut nutzen, und soviel Spiele wo nen DC schon am ende ist.
 
deswegen fragte ich ja welcher hersteller die hochwertigsten karten macht? und wie hoch ist die warscheinlichkeit das ich wieder so eine bekomme wenn ich sie tauschen lass?
 
das haben so ziemlich alle Karten, obs ne 8800GTX/GT ist oder ne x1900XTX o. 3870er, sobald die anfängt Strom zu ziehen fängst halt an zu zirpen also keine Angst da ist ganix billig dran so ein gelabbere.
 
ja die machts aber auch im idle, ist ja nicht meine erste karte und ich hatte sowas echt noch nie gehabt....
gut die 3870er die ich hab, macht auf last geräusche das ja nicht schlimm aber das geräusch ist ständig da und stört...
nur wenn ich die jetzt 1:1 tauschen lass und hab das wieder war aller stress umsonst....
 
Zuletzt bearbeitet:
ist das die Powercolor die so komische geräusche macht?

ist das doe PCS OC Editon ?
Wenn ja die Dinger bleiben immer im 3D Takt da kann das schon vorkommen :(
 
GPU-Z zeigt dir den 2D-Modus an im 3D sind es dann 57,6.
Das stimmt aber so net ganz!!!

Meine 7900GTO/GTX läuft im 2D auf 200/400MHz und im 3D auf 700/800MHz.
ABER trotzdem zeigt GPU-Z im idle die 3D Werte an, also bei Bandwidth 51.2 GB/s.

...siehe hier:
G71 Memory.jpg
. (klick mich)
 
Naja, woran mag es liegen ?

Zumal die Karte ja richtig performt, also eigentlich egal.......


Grüße
Sascha
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh