ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@derguru: Dann hoff für all diese neuen, kommenden Karten, dass man eine effizientere Technik zur Vernetzung der Kerne findet als SLI und CF. Das ist nämlich nicht besonders elegant. Ich stell mir so eine Art integriertes Mehrkernsystem vor, mit Crossbar oder was in der Art, was insgesamt als einzelne GPU fungiert. Was mich wieder zu meiner bereits mehrfach getroffenen Aussage bringt:

Mehrkern-GPUs sind Schwachsinn!

das ich lieber eine single gpu hätte ist klar aber wenn nix anderes auf dem markt ist und in nächster zeit auch nix kommen wird bleibt einem nix anderes übrig.

nicht nur mehrkern gpu´s sondern auch cpu´s sind schwachsinn,da es immer komplizierte wird.

@eLwood

ich muss ganz ehrlich sagen ich glaub fraps auch nicht zu 100%,wäre interessant wenn jemand einmal im cf und dann im einzel das machen würde.

@Le_frog99
die gts g92 ist natürlich schneller aber im cf kommen die ati karten einem sli sys nah dran,meiner ansicht nach weil cf besser skaliert als sli.
 
Zuletzt bearbeitet:
@le_frog99: Und zwar ein ganzes Stück. Die Rohpower der G92-GTS ist, vorallem in Arithmetikfragen, 'ne ziemliche Hausnummer. ;) Ändert aber nichts daran, dass natürlich auch SLI unter fehlenden Profilen und Mikrorucklern leidet.

@derguru: Nein, du hast das Prinzip nicht verstanden. CPUs sind hochspezialisierte Prozessoren, die verschiedenste, unterschiedliche Befehlstypen verarbeiten können müssen. GPUs hingegen sind aufgrund ihrer Natur (der möglichst schnellen Verarbeitung vieler sehr ähnlicher Daten, also Vektoren/n-Tupel) hochgradig parallel. Da ist es einfach nicht sinnvoll, gewisse Dinge wie Steuerlogik usw zu parallelisieren. Die Architektur ist ohnehin darauf ausgelegt, parallel zu sein. In einer Zeit, in der die Realisierung von Moore's Law auf eine Mauer zuläuft, sollte man sich also durchaus drum kümmern, WAS man zur Performancesteigerung hinzufügt, und da wird sich ein Ingenieur hüten, Dinge mehrfach zu integrieren, die er nicht mehrfach integrieren muss.
 
Zuletzt bearbeitet:
@eLwood

ich muss ganz ehrlich sagen ich glaub fraps auch nicht zu 100%,wäre interessant wenn jemand einmal im cf und dann im einzel das machen würde.
Das hört sich ja wieder freundlicher an. :)

Guck dir mal die Konstanz der Messergebnisse an. Zufall ist das sicher nicht.
Und dass es anders geht, bzw. fraps auch gleichmäßige frametimes ausgeben kann, sieht man ja am Beispiel 3DMark.

edit: Bezüglich Vergleich Single-GPU - MultiGPU bei fraps: Alles schon längst geschehen.

btw: Danke Le_Frog!
 
Zuletzt bearbeitet:
Das hört sich ja wieder freundlicher an. :)

Guck dir mal die Konstanz der Messergebnisse an. Zufall ist das sicher nicht.
Und dass es anders geht, bzw. fraps auch gleichmäßige frametimes ausgeben kann, sieht man ja am Beispiel 3DMark.


tja was sagt es dann aus wenn es beim 3d mark sauber ist;)
 
Jungs -> Ton bewahren ;)

*aufgeräumt*
 
Zuletzt bearbeitet:
Durch die Annahme unserer (§ 3) Allgemeinen Regeln garantieren Sie, dass Sie

[...]





c) keine Themen oder Beiträge erstellen, deren Inhalt:
  • Spam enthält,
  • Beleidigend,
  • Feindselig,
  • neben dem Thema sind (Offtopic),
  • ohne inhaltlichen Wert und/oder Hintergrund,
  • volksverhetzend oder radikal,
  • gesetzeswidrig,
  • sexuell oder pornographisch
sind.

Wäre schön, wenn sich in diesem Thread auch an die allg. Regeln gehalten würde! :hwluxx:

Jungs -> Ton bewahren ;)

*aufgeräumt*

@ Le_frog99:wink:: THX!
 
jea mit etwas glück kommt meine karte morgen oder am samstag geil!
hab per nachname bestellt!
bin mal gespannt
 
was bringt eigentlich CF, wenn man mit 2 Karten bei 30FPS mehr ruckeln empfindet, als nur mit einer Karte bei 30FPS, zumindest war es so bei meinen 2 HD2900Pro´s, dann muss ein Spiel ja mit über 30FPS laufen damit man es als Ruckelfrei empfindet...

normalerweise sollten 25-30FPS zum spielen ausreichen, da aber da die meisten Spiele etwas verzögert wiedergegeben werden empfinden wir das als ruckeln...
 
Ich hab grad die ersten Zahlen gelesen und dachte nur: "Shit, übelste Mikroruckler..."
Schau doch einfach mal hin!

Schade...
Hinzugefügter Post:
Code:
Frame, Time (ms)
    1,     0.000
    2,    16.599 [COLOR="Red"]16,5ms[/COLOR] 
    3,    29.774 [COLOR="YellowGreen"]13ms[/COLOR] -> enstpricht über [B]75 fps[/B] !
    4,    55.956 [COLOR="Red"]26ms[/COLOR] -> enstpricht unter [B]40 fps[/B] !
    5,    67.100 [COLOR="YellowGreen"]12ms[/COLOR]
    6,    94.667 [COLOR="Red"]27ms[/COLOR]
    7,   108.130 [COLOR="YellowGreen"]14ms[/COLOR]
    8,   137.954 [COLOR="Red"]29ms[/COLOR]
    9,   153.353 [COLOR="YellowGreen"]16ms[/COLOR]
   10,   178.534
   11,   191.696
   12,   217.950
   13,   230.213
   14,   258.020
   15,   278.289
   16,   303.268
   17,   318.538
   18,   350.789
   19,   368.045
   20,   391.438
   21,   408.178
   22,   438.324
   23,   448.874
   24,   472.912
   25,   489.288

Und so weiter...

Das waren immer noch keine 30fps...
Aber trotzdem schön zu sehen wie flott die Karte in den Einstellungen ist. :)

edit: Verstehst du jetzt warum ich Wörter wie "naiv" oder "nicht objektiv" benutzt habe? ;)


Ich versteh nicht was du hast, solange die Frametimes gleich bleiben ruckelt garnichts, bei SLI sind es 20 -50-20 also doppelt so hoch wie Crossfire.

PS: muahhaha bei einer einzelnen karte sidn die Frametimes genauso was sagst du nun ? ruckelt jetzt auch mit einer karte wa xD

wie gesagt, mit Fraps kann man das Messen, merken tut man davon NICHTS.
 
Zuletzt bearbeitet:
hallo hab ein problem seit heute hab ich eine HD3870x2 im treiber menü erscheint kein crossfire option

please help bin an verzweifeln

os vista 64Bit

hier mein system
Q6600
4GB ram
P5k Deluxe
 
@zocker28: Die Frametimes bleiben aber nicht gleich :fresse: oder sind ~13ms und ~27ms bei dir gleich? Es geht hier auch nicht darum, ob CF jetzt besser mikroruckelt als SLI oder nicht, sondern darum, DASS es Mikroruckler produziert.
 
Crysis. Motion Blur machts möglich. :d Aber du hast schon recht, generell sind Shooter mit niedrigen (inkonsistenten) FPS-Raten nicht der Brüller. Ich heul ja auch immer, wenn mein CS unter 100FPS rutscht (was aber zum Glück nie vorkommt :P ).
 
Wie rechnet man die (ms) in fps um?
 
Zuletzt bearbeitet:
ja, gut ABER da sind wir in Italien ja noch billiger,
Sapphire für 357 Euro bis heute 16 Uhr lieferbar gewesen.
Preis wird die 350 Euro Hürde noch durchbrechen und bei dem Preis der damaligen HD 2900XT liegen bleiben,-----> Ca. 330-340 Euro,
erst recht wenn die HD 3870-X² GDDR4 Modelle folgen.#
Was will man mehr zu dem Preis/ Leistungskracher....
 
Crysis. Motion Blur machts möglich. :d Aber du hast schon recht, generell sind Shooter mit niedrigen (inkonsistenten) FPS-Raten nicht der Brüller. Ich heul ja auch immer, wenn mein CS unter 100FPS rutscht (was aber zum Glück nie vorkommt :P ).

Stimmt schon CRYSIS läuft ab 35Fps schon ganz gut im SP :)

Naja den MB find ich aber zum......
 
ich warte auf nen Vergleich zwischen der Asus "Top" , Gecube X-Turbo und der "neuen" Powercolor mit neuem Lüfter
 
auch eine interessante variante ist,saphire bringt eine 3850 raus mit 1024mb ram.da man sogut wie alle 3850 karten auf 3870 chiptakt kriegt und der ramtakt nicht so wichtig ist siehe 3870x² wäre das der hammer in cf-modus und billig noch dazu:) ich tipmal dann mit ca. 300 euro für 2 karten und die hauen sogar mit bissel taktung auch eine 3870x² weg.
boah scheisse alle 5 min kommen neue karten raus.:))))

http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/januar/ati_radeon_hd_3850_1024_mb/
 
Zuletzt bearbeitet:
Eine Sekunde hat 1000 ms, ein Frame hat eine Frametime von 30ms -> 1000:30=33,33fps. Klar? :d
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh