ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
Zu 2. Noch größerer Quatsch. Die 3870er sind 100mal mehr eingebrochen als meine SLi System. Da merke ich nix von Einbrüchen und ich spiele nativ auf 1920x1200 mit 8xAA + 16AF. Seit wann hat die 8800er Serie ne schlechte Speicherverwaltung ?? wenn hat das die HD Serie von ATI wie man überall lesen kann.

Du hast 2x ULTRAS im SLI

Gute MBs mit X38 gibt es schon für ca. 150.- Euro, wehr sich so eine Karte kauft, kann sich das glaub auch Leisten..

Stimmt aber ICH würde mein P5B DLX noch gerne weiter nutzen.


Der VRAM Bug ist doch schon seit Monaten behoben worden, die G92 sind übrigens nicht davon betroffen, hat ich bei meiner 8800GTS 512MB noch nie!

Stimmt nicht! Ich rede auch nicht vom "Vram Bug" weil es einfach eine schlechtere Speicherverwaltung gibt bei der 8ert Serie.
Ich hab die 8800GT 512mb bei DIRT in 1920x1080 und 4xAA richtig einbrechen gesehen und das schon nach wenigen Minuten.

:)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
nicht dirt ist schrott triple ist schrott:)

kann ja dirt nix dafür das 3 ultra abkacken weil cb nicht benchen kann da die nur die demo zum benchen genommen haben :)

aber ja dirt ist schrott ne;)
 
@Dural

boah kleiner fanboy ich sagte schon mit der demo kann man die benchmarks eh nicht ernst nehmen.

nur benchmarks lesen bildet nicht mein kleiner freund:) ach mal ab und zu selber testen:)

mit der full version und aktuellstem patch

Dirt 1680*1050 4AA alles max.

29fps


61fps
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Die Demo benutzt dieselbe Engine wie die Final. Die Legende von tausendprozentigen Leistungssteigerungen von Pre-Release-Versionen zur finalen Version ist absoluter Unfug. Die Demo rennt genauso wie die Full. Wenn CF oder SLI da nicht funktionieren, gibt es a) noch kein Profil oder man ist b) zu blöde, die .exe richtig zu benennen.
Und, nur btw: Die Engine von Dirt ist, unter Gesichtspunkten einer effizienten Performance, wirklich Schrott. ;)

@Jake_Dunn: 1920er Auflösungen mit 4xAA fressen dermaßen viel Videospeicher, da möchte ich mal sehen, welcher 512MiB-Karte da nicht bald einbricht. Außerdem hätte ich gerne mal von dir ein Whitepaper oder was ähnliches, wo drinsteht, welchen Algorithmus zur (De-)Kompression der G80 nutzt. Denn "Die Speicherverwaltung ist einfach scheiße!" schreien kann wirklich jeder.
 
Falsch, CF geht erst ab Patch 1.2 nix mit Profil oder exe renaming :rolleyes:

Aber da ich ja sehe das du ne GTS hast, hau doch mal DIRT bei dir an, ich geb dir 5 sec dann ist dein VRAM voll, ich zocke das Game auf MAX durch und verbrauche 320-350 MB ;) (bei gleichen Settings)
 
Zuletzt bearbeitet:
Eben, jetzt sind die Ausreden da, wenn man nicht mehr weiter weis :haha:

Gerade selber ins ausgeschossen mit euren Aussagen :shot:

Aber Dirt ist TOP und die ATI Brechen NIE ein, die sind so gut :eek:
 
Schicks rüber. :P

Wenn CF erst ab Patch geht, ist das wohl auch noch ein Argument FÜR Crossfire oder wie?
 
Also wo ist endlich ein gescheiter Test zur 3870 X2?

Und zu Dirt: ich hatte in der Demo bei 1680*1050 und 4AA ca. 30-35FPS und in der Full genauso. Da ist nix anders...

CF, bzw. SLI wird in der Full aber vielleicht besser unterstützt....
 
Eben, jetzt sind die Ausreden da, wenn man nicht mehr weiter weis :haha:

Gerade selber ins ausgeschossen mit euren Aussagen :shot:

Aber Dirt ist TOP und die ATI Brechen NIE ein, die sind so gut :eek:

Ausreden, is klar :hmm:

Los komm hau das Spiel an und zeig ein Screen vom VRAM verbrauch, mal sehen was du dann für ne Ausrede hast.

Der Thread von HISN ist sehr gut, wo er sehr viele Games testen tut wieviel ein Game an VRAM brauchen tut, kannst ja gern mal rein gucken und mal selber checken mit den 2900XTs, aber fang nicht gleich an zu weinen:haha:

PS: und deine 2900XTs davon ist doch keine Rede mehr, das war und ist ein Unfall von ATi naja pech passiert jedem mal.
 
Zuletzt bearbeitet:
Ausreden, is klar :hmm:

Los komm hau das Spiel an und zeig ein Screen vom VRAM verbrauch, mal sehen was du dann für ne Ausrede hast.

Der Threa von HISN ist sehr gut, wo er sehr viele Games testen tut wieviel ein Game an VRAM brauchen tut, kannst ja gern mal rein gucken und mal selber checken mit den 2900XTs, aber fang nicht gleich an zu weinen:haha:

Die Benchmark bei computerbase zeigen ganz Klar, das auch die ATI mit 512MB komplett einbricht, da muss ich nicht selber testen...

Zudem hab ich selber auch nur die Demo...
 
Zuletzt bearbeitet:
ja ne triple macht keine fps in dirt deswegen ist dirt scheisse;),

sagte Dural mr. falschaussage persöhnlich:lol:
 
Nun, so hat er das nicht gesagt. Wenn du es so verstanden hast, bist du irgendwie nicht ganz auf der Höhe.
 
Die Benchmark bei computerbase zweigen ganz Klar auch die ATI mit 512MB komplett einbricht, da muss ich nicht selber testen...

Zudem hab ich selber auch nur die Demo...

ich glaub dir ist die Diskussion entgangen über SLi vs: CF bei CB oder?
Die haben mehr scheisse gebaut als sie richig gemacht haben, also such paar anständige Links oder teste halt selber.(und bitte keine von THQ oder son Müll)
 
bei mir bricht garnichts ein aber ich kann auch nur bis 1680*1050 gehen.aber wie gesagt cb hatte eh ziemlich viel kacke gebaut bei den letzten tests.
 
ja ne triple macht keine fps in dirt deswegen ist dirt scheisse;),

sagte Dural mr. falschaussage persöhnlich:lol:

Was hast du den für ein Problem?

HIER geht es um den VRam Bug und nicht wie SLI oder CF Skaliert!!!

Zudem ist ein 3-Way System mal gerade 240% schneller als eine 3870...
 
Zuletzt bearbeitet:
zocker28 schrieb:
Die haben mehr scheisse gebaut als sie richig gemacht haben, also such paar anständige Links oder teste halt selber.(und bitte keine von THQ oder son Müll)

Klar. Du stehst natürlich über allen Tests. Vielleicht hängst du deinen Job an den Nagel und machst eine eigene Hardwareseite auf, wäre damit nicht vielen geholfen? Und immer schön rote Hintergrundfarbe.

Mal ehrlich, wie kann man nur so eingenommen von einem Hersteller sein?
 
ich glaub dir ist die Diskussion entgangen über SLi vs: CF bei CB oder?
Die haben mehr scheisse gebaut als sie richig gemacht haben, also such paar anständige Links oder teste halt selber.(und bitte keine von THQ oder son Müll)

Noch mal, hier geht es um den VRam Bug und nicht wie SLI oder CF Skaliert!!!
 
Zuletzt bearbeitet:
bei mir bricht garnichts ein aber ich kann auch nur bis 1680*1050 gehen.aber wie gesagt cb hatte eh ziemlich viel kacke gebaut bei den letzten tests.

Dural hat doch bloss die 2900XTs, die brechen halt übel ein auch wenn es bei vielen Benchens nicht so aussehen tut.

Man brauch ja bloss mal InPanic fragen, der hatte vorher 2x2900XTs drin und hat auch gesagt da ändert sich eh nicht viel dran, am ende hat sich das Blatt gedreht als er 2x 3870er hatte und traute seinen Augen nicht.;)
Hinzugefügter Post:
Mal ehrlich, wie kann man nur so eingenommen von einem Hersteller sein?

den lächerlichen Spruch hab ich schonma im 3DC gelesen rennen auch nur Vögel rum da :shot:
 
Zuletzt bearbeitet:
Die Leute im 3DC würden, was Ahnung von der Materie angeht, mit dir den Boden wischen, aber ganz kräftig.
 
Ich habe auch ein 3870 CF System, also pass auf sonst hohl ich mir das Game noch :hwluxx: ;)

und hier geht es übrigens immer noch nicht um CF, na egal... ;)
 
ja seh ich ich

sek jetzt kommen die lacher

2560x1600 8xAA/16xAF,oblivion

cf:43,4fps
trple:54fps
2 ultras:38,2fps

2560x1600 8xAA/16xAF: Prey

cf:41,1fps
triple:53,3fps
2 ultras:37,8fps

2560x1600 4xAA/16xAF coj

cf:26,9fps
triple:33,6fps
2 ultras:18 fps

die rocken aber echt derbe wah dural.hey das ist ja richtig heavy mit dem speicher:) ne;)

jetzt weist du was einbruch bedeutet:)
 
Zuletzt bearbeitet:
Die Leute im 3DC würden, was Ahnung von der Materie angeht, mit dir den Boden wischen, aber ganz kräftig.

von der Theorie vieleicht was jene Graka auf dem Papier kann, in der Praxis hingegen werden sie von hier ungespitzt in den Boden gehämmert :lol:

Und was die auf dem Papier kann Interessiert NIEMANDEN.


Aber da du ja überzeugt bist von dem loligen Forum, geht mal lieber wieder dahin da hört vieleicht jemand auf dein gelabbere:shot:
Hinzugefügter Post:
Ich habe auch ein 3870 CF System, also pass auf sonst hohl ich mir das Game noch :hwluxx: ;)

na aber dalli......
 
Zuletzt bearbeitet:
Doch, irgendwo schon, oder? Schließlich ist es nichts anderes, was die Radeon HD 3870 X2 befeuert.

na es ging ja darum das die NV 512MB einbrechen bei Dirt, ich habe dann gesagt das selbst ein 3-Way SLI System bei Dirt komplett einbricht und die 3870 genau so.

Naja egal, hast recht hier geht es um die 3870X2
 
@zocker28: Ich bin nicht überzeugt vom 3DC. Ich bin nur absolut nicht überzeugt von deinem unsachlichen Rumgeposte.
Vielleicht ist dir auch schon aufgefallen, dass Theorie und Praxis bei Grafikkarten ein KLEIN WENIG zusammenhängen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh