ATI RV670 & R670 (HD3800) *Speku-Thread*

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Vielleicht so eine Art verzögerung und daraus resultierende fps drops, würde ich vermuten - aufgrund des namens :freak:
 
Wie der Inquirer berichtet, soll AMD seinen Grafikkarten-Partnern mitgeteilt haben, dass sie bei der Produktion die HD3850 mit GDDR3-VRAM bevorzugen sollen. Die HD3870 mit GDDR4-Speicher und Doppel-Slot-Kühlung sollte nur als ergänzendes Produkt angesehen werden.

Natürlich wirft das die Frage auf, warum sich AMD zu diesem Schritt entschieden hat. GDDR4 (HD3870) hätte vor allem beim Stromverbrauch deutliche Vorteile gegenüber GDDR3 (HD3850). Die Unterschiede zwischen einer HD2900 XT 512 und 1.024 können gut und gerne 30 Watt aus machen.

Es scheint sich darüber hinaus abzuzeichnen, dass AMD mit der HD3850 und HD3870 eine besonders aggressive Preispolitik betreiben wird. Die HD3850 wurde bereits mehrfach mit einem Preis um 150 US-Dollar gehandelt. Sollte die Leistung passen, könnte die Karte die Geforce 8800 GT als beste Preis-/Leistungs-Karte ablösen.
http://www.pcgameshardware.de/?article_id=620625
 
besonders dann mit crossfire

Wenn man sich sofort 2 holt bestimmt. Wenn man aber mit einer anfangen will, sollte man trotzdem zur 88GT greifen, denn wenn man sich eine 2te kaufen will, wird die bis dahin wohl auch gut im Preisgefallen sein. In einiger Zeit wird die 88GT wohl auch nurnoch 170 bis 200€ kosten. Atm gibts ja mehrere Karten für 190-206€ :) Auch wenn nicht lieferbar - für den Preis wartet man gerne 2 wochen.
 
Wenn man sich sofort 2 holt bestimmt. Wenn man aber mit einer anfangen will, sollte man trotzdem zur 88GT greifen, denn wenn man sich eine 2te kaufen will, wird die bis dahin wohl auch gut im Preisgefallen sein. In einiger Zeit wird die 88GT wohl auch nurnoch 170 bis 200€ kosten. Atm gibts ja mehrere Karten für 190-206€ :) Auch wenn nicht lieferbar - für den Preis wartet man gerne 2 wochen.

Und was nützt einem das jetzt mit einem Crossfireboard? Ich will dieses eben nicht wechseln und bin auf Crossfire angewiesen.
 
Ja dann hol dir die Karte! Ich hab das eher im Bezug auf mich gemeint, da ich auch kurz vorm Rechnerkaufe stehe :) Wenn du ein CF Board hast würde ich auch nicht wechseln! Wobei ich mir dann eher die 3870XT holen würde :P
 
in 1920x1200 auf einem 24" TFT und damit wirklich schwer für nahezu alles auf dem aktuellen Grakamarkt :fresse:

mein einziger Vorteil ist, dass ich kein großer Shooter-Fan bin und auch nicht so der Grafikfreak. Aber in Low möchte ich auch ned zocken :rolleyes:. Außerdem läuft mein TFT nativ besser als mit Interpolation.

Die GPU Power von 2x HD3870 ist sicher gut, aber die 512MB sind der Auflösung überfordert wenn man texturlastige Spiele zockt. Wenn der RAM überfüllt ist, ruckelts und in der Auflösung passiert das leider mit aktuellen Games.

Sag dch einfach mal, bei wieviel und welchem AA/AF du zocken möchtest?
 
Sag dch einfach mal, bei wieviel und welchem AA/AF du zocken möchtest?

also ich würde gern mit ner Graka für 200-300€ in so viel Qualy wie möglich in 1920x1200 zocken, dh. wenn möglich alles High usw. mit 4xAA/16xAF. Das schafft nicht mal die GF8800Ultra, die ich Morgen bekomme ;).

Die Ultra aber will ich ned behalten, die ist nur für Testzwecke.
 
also ich würde gern mit ner Graka für 200-300€ in so viel Qualy wie möglich in 1920x1200 zocken, dh. wenn möglich alles High usw. mit 4xAA/16xAF. Das schafft nicht mal die GF8800Ultra, die ich Morgen bekomme ;).

Die Ultra aber will ich ned behalten, die ist nur für Testzwecke.

Ok bei 4x MSAA:

1920x*1200*4*(4+4+4+3) / (1024^2) = ~131 MiB

512-131=381MiB frei für den Rest.
 
Ich habe gerade mal die 8800GT mit den HD38** Serie vergleicht:

Ergebnis

HD 3850 CrossFire @ Lostplanet @ 1600 x 1200 = 28 fps
8800GT Singlecard OC @ Lostplanet @ 1600 x 1200 = 50 fps

HD 3850 CrossFire @ Bioshock @ 1600 x 1200 = 61fps
8800GT Singlecard OC @ Bioshock @ 1600 x 1200 = 112fps

Das ist doch ein schlechter Witz, oder? :stupid: :kotz:
 
Ich habe gerade mal die 8800GT mit den HD38** Serie vergleicht:

Ergebnis

HD 3850 CrossFire @ Lostplanet @ 1600 x 1200 = 28 fps
8800GT Singlecard OC @ Lostplanet @ 1600 x 1200 = 50 fps

HD 3850 CrossFire @ Bioshock @ 1600 x 1200 = 61fps
8800GT Singlecard OC @ Bioshock @ 1600 x 1200 = 112fps

Das ist doch ein schlechter Witz, oder? :stupid: :kotz:

Hast du beide Karten?:hmm:
 
Guck dir doch bitte mal die Werte an, das ist nur wieder einer, der durch Prereleaseabspastung Aufmerksamkeit bekommen will.
 
Ich habe gerade mal die 8800GT mit den HD38** Serie vergleicht:

Ergebnis

HD 3850 CrossFire @ Lostplanet @ 1600 x 1200 = 28 fps
8800GT Singlecard OC @ Lostplanet @ 1600 x 1200 = 50 fps

HD 3850 CrossFire @ Bioshock @ 1600 x 1200 = 61fps
8800GT Singlecard OC @ Bioshock @ 1600 x 1200 = 112fps

Das ist doch ein schlechter Witz, oder?

Oh mein Gott,

erst einmal heißt es verglichen. Dann würde ich gerne wissen auf was für Quellen du dich beziehst.
Sowieso kann man nur Vergleiche aufstellen, wenn die Karten im exakt selben System getestet wurden.

Das ist ein Niveau ...
 
Zuletzt bearbeitet:
Lost Planet eine einzelne GT in 1600x1200 mit 50 fps , das schafft nichmal eine Ultra. In Bioshock 112Fps ganz sicher nicht.

Würde gerne mal wissen , woher du Solche werte hast ?
 
Ich habe gerade mal die 8800GT mit den HD38** Serie vergleicht:

Ergebnis

HD 3850 CrossFire @ Lostplanet @ 1600 x 1200 = 28 fps
8800GT Singlecard OC @ Lostplanet @ 1600 x 1200 = 50 fps

HD 3850 CrossFire @ Bioshock @ 1600 x 1200 = 61fps
8800GT Singlecard OC @ Bioshock @ 1600 x 1200 = 112fps

Das ist doch ein schlechter Witz, oder? :stupid: :kotz:



Dann kauf Dir doch die GT und werd glücklich mit dem Heizofen! :fresse:
 
http://forums.vr-zone.com/showthread.php?t=202510

kleine eindrücke der Karte und 3dmark werte..

Temps sollen verdammt niedrig sein.
Und.
yeap 8800gt still seems the be at the top atm for bang for bucks, but if u cant stand the noisiness and heat of it and wanna be able to have dual cards that arent the same ati is the way to go
 
Zuletzt bearbeitet:
HD3870-3DMark06-4.jpg

12961.jpg


Ich hatte wohl Recht mit Wakü sind sehr wahrscheinlich 900MHz drin.
Immerhin sinds schon 860MHz beim Standartkühler @66°.
Wobei der Speicher auch mit 2600MHz anstatt mit 2400MHz läuft, was sicher auch ein wenig Wärme verursacht.

mit der r680 ist man wahrscheinlich bei 23k und wenn die Treiber besser werden vllt. 25k.
 
Ok bei 4x MSAA:

1920x*1200*4*(4+4+4+3) / (1024^2) = ~131 MiB

512-131=381MiB frei für den Rest.

spielst du mit 0MB Texturen?

Naja also ich spiele gerne mit max. Texturen und die haben mittlerweile Größen von >512MB. Was meinst du wieso es Karten mit 1GB gibt?

Deiner Formel nach könnte man UltraHD mit 256MB zocken :fresse:

PS:
Texturen werden komprimiert, jedoch je höher man Texturdetails wählt, desto geringer ist die Kompression und desto mehr VRAM wird verbraucht.

Deiner Rechnung nach würde ja ne 8800GTS 320MB reichen, aber schau dir mal an wie die gegen eine 640MB GTS, die sonst identisch ist in zb. World of Conflict abkackt :lol:
 
Die SM2 und 3 Werte sind doch endtäuschen nicht, für ne getaktete 3870 is das doch wenig, hab ich ja mit meiner oced pro mehr^^

Dachte die wird stärker:heul:
 
xxx

Ach für das Geld passt dat schon denke ich. 1GHZ Takt bei Watercooling und ich bin happy für den Übergang zu was richtig derben bösartigem super schnellen, vielleicht ne Geforce 9800 mit 1million Mhz.



mfg
 
Was bedeuten diese mid-stops? Erklär mal für Normalsterbliche...

MfG

Das bezieht sich auf den Ringbus, den wir bereits bei der r600 vorfanden.
Den traditionellen MC würden wir mit crossbar bezeichnen, wo alle memorychips(werde ich ab jetzt mit Speicherchips benennen) mit den verschiedenen memory controllers auf der GPU vernetzt sind.
Eine GPU mit 256bit bus hätte 8 32bit memory controllers, und jeder diese muss mit allen Speichermodulen der Videokarte verbunden sein.
Zudem können, abhängig von der Speichergröße, 8 bis 16 Speicherchips vorhanden sein.
Jeder memory controller bräuchte eine Verbindung zu jedem Speichermodul. Eine GPU mit 256bit bus and 12 Speicherchips, hätte 96 (12 * 8) Verbindungen.
Im Extremfall sind bei 512Bit(16 MCs) und 16 Speicherchips 256(16*16) Verbindungen.
Wie ihr seht, steigt Vielzahl und Komplexität der Verbindung bei der Vergrösserung des Crossbarbitbus enorm.

Um die Komplexität und die Verkabelung zu minimieren, kam ATI auf die Idee, einen Ringbus-memorycontroller einzusetzen.
Anstatt jeden einzelnen MC mit einem Modul zu verbinden, entschied man sich für einen MC mit verschidenen Stationen, die diesen umgeben.
Anstatt, wie es in einer "traditionellen" GPU geschieht, Daten, wenn benötigt, unmittelbar, geradewegs über eine seperate Verbindung, aus einem seperaten Speicherchip zu "fetchen"(nehmen, greifen), funktioniert der Ringbusmc eher auf eine zikulierende Art und Weise, bei der der mc jeden stop aller Stationen nach der Reihe auf Inhalt überprüft und diesen zuerst nimmt, wenn er im nächsten vorgesehenden stop benötigt wird.
Danach würde er natürlich den nächste stop überprüfen usw. usw. .......

Kleine Zusatzinfo, AFAIK hat die r600 4 Stationen mit je 11 Stops.

Nun zum Haken der Sache
Auch wenn die GPU zuerst einen Pufferinhalt in Speicherchip Nr. 7 geladen hat , wird der Ringbus erst alle 6 Sationen davor "abklopfen"(Als Indizes: 0 bis n-1).

Dieser Nachteil des RingbusMCs führt dazu, dass Taktzyklen "verschwendet" werden und dadurch Latenzen enstehen.
Dies erklärt auch, warum die r600 förmlich auf jedes "MHz"
(eig. N4psprache aber "jeden Taktzyklus im MHz-Bereich", ist mir zu lang :fresse: )
angewiesen ist.
Wenn bei einem Takt von 5 Hz, einer entfällt, dann ergibt eine Latenz von einer Einfünftel-Sekunde.
Bei 100Hz wären es nur noch eine Hundertstel.

Aber da eine GPU eher vertoriell oder Matrizenartig, mit tausenden Pixeln gleichzeitig, arbeitet, dachte ATI wahrscheinlich, dass es nicht weiter ins Gewicht fällt.
Zumal man dadurch die Möglichkeit hat einen 512bit-bus und höher zu verwenden, was die erhöhte Latenz mehr als nur kompensieren sollte, da die GPU eher für Packetstöße designed ist, und daher Bandbreite wichtiger als Latenz ist.

Wenn ihr euch das anschaut, wird hoffentlich endlich mal einigen von auch klar, dass es einen Unterschied bei der Bitbreite des SI und des Ringbuses gibt.
Hinzugefügter Post:
spielst du mit 0MB Texturen?

Naja also ich spiele gerne mit max. Texturen und die haben mittlerweile Größen von >512MB. Was meinst du wieso es Karten mit 1GB gibt?

Deiner Formel nach könnte man UltraHD mit 256MB zocken :fresse:

PS:
Texturen werden komprimiert, jedoch je höher man Texturdetails wählt, desto geringer ist die Kompression und desto mehr VRAM wird verbraucht.

Deiner Rechnung nach würde ja ne 8800GTS 320MB reichen, aber schau dir mal an wie die gegen eine 640MB GTS, die sonst identisch ist in zb. World of Conflict abkackt :lol:

lies mal genau.
Da steht 3b1MiB für den Rest.

AF wird es sicherlich auch noch knapp überleben und dass mit der fehlenden Komprimierung kann durch höhere Takte ausgeglichen werden.
 
Zuletzt bearbeitet:
Ein ganz wichtigen Faktor darf man auch nicht vergessen die Treiber ;).
Schaut euch die 2900XT an die hat auch gut zugelegt mit jedem neuen Treiber, zwar nicht so viel aber seit Release bis heute ist der Performance gewinn doch schon groß.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh