ATI HD4870x2 2GiB alias R700/Spartan + Reviews + Diskussion Part1

Status
Für weitere Antworten geschlossen.
Sind bei den OC Versionen z.B. die von MSI mit höheren Chip MHz das Bios angepasst worden, damit man im CCC auch höher OC kann als 800 MHz max?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Erstaunlicherweise sagt der Test von CB das Gegenteil...

Dort ist eigentlich immer die X2 vor einem CF aus 2x4870.

Mal abwarten, ob weitere Tests das so bestätigen werden.

Die haben das CF mit dem 8.6er gebencht und die X2 mit dem 8.8 Beta ^^

Das mehr an Vram bringt auch etwas.
 
Ich denke auch das der Leistungsunterschied von HD 4870X2 und HD4870 CF darin liegt, dass die X2 2x 1Gb hat und das CF-Gespann nur 2x 512MB.
 
In wie fern???
 
so bis jetzt läuft die karte.

war grad noch kurz in dortmund bei km und hab mir noch ne g9 geholt. :-)
nicht schlecht was da so alles bei ist.

bei lauter vorfreude hab ich sogar die magneten aus der verpackung rausgefummelt und mich ne minute lang gefragt für was diese zwei kleinen dinger sind :-))) *lol*

oh man heut geht ich mal wirklich früher schlafen...


also nochmal es scheint so als ob die erste karte einfach defekt war.

mit dieser karte läuft alles bis jetzt ohne absturz und auch das bios wird von sich aus in 16:10 angezeigt!!! bis jetzt ist alles paletti vorallem die temps sind nach ner halben stunde furmark bei 85grad geblieben also ca 7-8grad kühler wie die andere. kann aber natürlich auch ein auslesefehler sein ;-)
aber so wirds mir halt angezeigt...
Hinzugefügter Post:
dann hol ich mir noch eine 1gb dazu und hab 3gb :-)
 
Zuletzt bearbeitet:
Naja, okay. Aber dann möchte ich mal ein HD 4870 CF 1gb und eins mit 2Gb vergleichen. Der Vergleich würde mich auch interessieren.
Aber wenn es der Speicher nicht ist, dann liegt es nur an der Verbindung zwischen den Kernen.(und das wäre doch schon wieder fast zu langweilig :))
edit: aber 2 mit 512MB sind eben nicht schneller.
 
Naja, okay. Aber dann möchte ich mal ein HD 4870 CF 1gb und eins mit 2Gb vergleichen. Der Vergleich würde mich auch interessieren.
Aber wenn es der Speicher nicht ist, dann liegt es nur an der Verbindung zwischen den Kernen.(und das wäre doch schon wieder fast zu langweilig :))
edit: aber 2 mit 512MB sind eben nicht schneller.

Laut cb manchmal schon :bletter einfach mal entlang bitte :d http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/7/
 
Naja, okay. Aber dann möchte ich mal ein HD 4870 CF 1gb und eins mit 2Gb vergleichen. Der Vergleich würde mich auch interessieren.
Aber wenn es der Speicher nicht ist, dann liegt es nur an der Verbindung zwischen den Kernen.(und das wäre doch schon wieder fast zu langweilig :))
edit: aber 2 mit 512MB sind eben nicht schneller.

seh ich genauso. ;-)

3dmurks vantage auf extreme lief ohne probs durch.
hab aber nichts gemacht einfach nur mal laufen lassen hmm komisch...
hab knapp 8000punkte auf extreme
Hinzugefügter Post:

warte doch erstmal ab wenn ein gescheiter treiber für die x2 raus ist.

die normale hat sicherlich schon gescheite treiber aber die x2 halt nicht.

ich erhoffe mir auch noch einen kleinen leistungsschub...

und hier genau andersrum :-)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/8/

.

und hier mal ganz krass:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/10/


.
 
Zuletzt bearbeitet:
Ich glaubs net, da ATI einfach ein wesentlich besseres Speichermanagement hat.
 
meine erste 3870X2 war auch defekt und ratet mal von welchem Hersteller ASUS

dann ne neue von Powercolor gekriegt und die lief

komisch komisch :hmm:
 
Aber gibt es den einen logischen gund warum die x2 schneller sein soll,1gb vram mehr ist eh bald kein vorteil der x2 mehr wenn dan die normale mit 1gb raus kommt .
 
Naja, okay. Aber dann möchte ich mal ein HD 4870 CF 1gb und eins mit 2Gb vergleichen. Der Vergleich würde mich auch interessieren.
Aber wenn es der Speicher nicht ist, dann liegt es nur an der Verbindung zwischen den Kernen.(und das wäre doch schon wieder fast zu langweilig :))
edit: aber 2 mit 512MB sind eben nicht schneller.

Bei 3D mark06 war das 4870CF Gespann etwas schneller. in Games aber die X2 durch den 2GB Speicher auch mit. Mit 2 4870 1GB CF haste die selbe Leistung wie die X2 aber es gibt noch zu wenige davon und eine liegt bei 230 Eus mal 2 =460Eus ungefähr, also wenn der Preis nicht fällt ist ne X2 billiger und das gleiche und man hat mehr platz im Gehäuse.:) Und Games zählen mehr als son 3D Murks
 
Zuletzt bearbeitet:
Aber gibt es den einen logischen gund warum die x2 schneller sein soll,1gb vram mehr ist eh bald kein vorteil der x2 mehr wenn dan die normale mit 1gb raus kommt .

Allein schon der Vorteil, das zwei GPU´s auf einer Karte direkt angebunden sind, verhindert hohe Latenzen.
Allerdings wird der Unterschied abhängig vom Restsystem sein, sprich ob ein CF-Gespann mit 2x PCIe8x läuft oder 2xPCIe16x, PCIe 2.0 usw. .

Aber mal ehrlich, Dual-GPU is doch Asche. Wieso machen ATi und nVidia nicht einfach zwei GPU´s auf einen DIE? :fresse:
 
Allein schon der Vorteil, das zwei GPU´s auf einer Karte direkt angebunden sind, verhindert hohe Latenzen.
Allerdings wird der Unterschied abhängig vom Restsystem sein, sprich ob ein CF-Gespann mit 2x PCIe8x läuft oder 2xPCIe16x, PCIe 2.0 usw. .

Aber mal ehrlich, Dual-GPU is doch Asche. Wieso machen ATi und nVidia nicht einfach zwei GPU´s auf einen DIE? :fresse:

weil die yield rate oder wie das heisst ( also ausbeute ) -> durch fehler im "riesen" kristall und durch das schlechte verhältnis von dies / wafer zu teuer wäre ;)

also mich würd mal echt intressieren wie lange amd noch braucht um ein CUDA konkurrenzprodukt auf den markt zu werfen welches wirklich nutzbar ist ... denn die 2,4 Tflop würd ich gern zum rendern nutzen

mfg
 
da bis jetzt alles läuft wollte ich an dieser stelle mal jörg von grafikkartenpower recht herzlichen grüßen und für den super service danken!!!

anstandslos die karte getauscht und sich zeit genommen.

sehr nett und mein eindruck ist auch sehr hilfsbereit und zuverlässig...

ALSO HERZLICHEN DANK NOCHMAL


UND NATÜRLICH AN ALLE HWL DIE MIR WEITERHELFEN WOLLTEN BZW: GEHOLFEN HABEN HWL IST EINFACH DAS BESTE FORUM

ps. abgesehen von denen die hier immer nur streit anfangen und derbe das forum kaputt machen. in jedem 3thread wird hier rumgestritten und beleidigt.
irgendwie wird das immer schlimmer naja egal.

SORRY FÜR DAS KURZE OT...
 
@low_bird: Kannst du denn CUDA beim Rendern nutzen? Ich arbeite viel mit Cinema4D und würde das auch gern tun, aber kenne bisher keine Variante.
 
Aber mal ehrlich, Dual-GPU is doch Asche. Wieso machen ATi und nVidia nicht einfach zwei GPU´s auf einen DIE? :fresse:
ist Gerüchten zufolge beim RV870 (also quasi dem 5870) geplant.
Hinzugefügter Post:
also mich würd mal echt intressieren wie lange amd noch braucht um ein CUDA konkurrenzprodukt auf den markt zu werfen welches wirklich nutzbar ist ... denn die 2,4 Tflop würd ich gern zum rendern nutzen
gibt es schon, zumindest auf dem Papier ;)

http://en.wikipedia.org/wiki/AMD_FireStream
 
Zuletzt bearbeitet:
hehehe geile sache !!!! warum ist die 280GTX dann immernoch so´teuer ? wenn ich mir die benches so anschaue wird nvidia wohl kaum noch seine jetzigen kartenbestände loswerden können einschließlich der 200er serie wennn sie nicht noch am preis drehen..... ich denke ich warte noch auf die 5xxx serie aber super thread !!! macht spass mitzulesen :)
 
weil nVidia Chips teurer zu produzieren sind, da sie größer sind, also mehr Material verbrauchen.
 
Leuft die X2 jetz auf dem DFI X38 ? hat das nun schon jemand getestet?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh