ATI RV670 & R670 (HD3800) *Speku-Thread 1.2*

Status
Für weitere Antworten geschlossen.

w0mbat

Enthusiast
Thread Starter
Mitglied seit
12.02.2006
Beiträge
7.108
In letzter Zeit häufen sich die Gerüchte über die kommenden GPUs von ATI. Dabei fallen die Codenamen RV670 und R670 sehr häufig.

Bei der RV670 GPU soll es sich um den Nachfolger der RV570 werden, welche als X1950 GT/Pro sehr erfolgreich war. Der RV670 soll in 55nm Produziert werden und Leistungsmäßig zwischen dem RV630 und dem R600 liegen. ATI will aus den R600-Fehlern gelernt haben (RV610 & RV630 sind ja ok) und eine ausgewogenere GPU beringen. Durch den 55nm Prozess kann man auf hohe Taktraten und trotzdem niedrigen Verbrauch hoffen. Der RV670 soll ende Q407 als HD2950 Pro kommen.

Der R670 soll laut den neuesten Gerüchten einer dual-GPU werden (ähnlich der GX2 bei nVidia). ATI will zwei RV670 GPUs auf einem PCB verbauen. Dank 55nm wäre auch diese GPU keine Stromschleuder. Die R670 könnte als HD2950 X2X in die Handel kommen.

Das ist ein Spekuthread, jeder kann seiner Fantasie (solang sie nicht all zu verrückt ist) seinen freien Lauf lassen. Bitte keine gebasche gegen nVidia oder ihre (kommenden) GPUs.

Update 23. August 2007:

Jetzt wurden neue Infos zum RV670 bzw. der HD2950 Pro bekannt. So soll sie in zwei verschiedenen Versionen erscheinen, Revival und Gladiator. Während Revival in etwa so schnell die eine HD2900 XT wäre, soll Gladiator bis zu 10% schneller sein. Beide GPUs werden DX10.1 und PCIe2.0 unterstützen und in 55nm gefertigt.

Gladiator - RV670 55nm - 320sp@825MHz - 512MB GDDR4@256Bit@1200MHz - DX10.1 - PCIe2.0 - 249€
Revival - RV670 55nm - 320sp@750MHz - 256/512MB GDDR3@256Bit@900MHz - DX10.1 - PCIe2.0 - 199€
HD2900 XT - R600 80nm - 320sp@742MHz - 512MB GDDR3@512Bit@800MHz - DX10.0 - PCIe1.0 - 349€

Da der R600 nicht Bandbreitenabhängig ist wird sich eine Halbierung des SI von 512Bit auf 256Bit bei gleichzeitiger Erhöhung des VRAM-Taktes nicht sehr negativ auf die Performance auswirken. Es wird also spannend.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaub ja das die 3870er in Games ziemlich na an der GT dran ist (Wenn nicht sogar besser)

Wäre es eigentlich möglich eine 3870 mit einer 3870X2 laufen zu lassen? Wäre ja sehr vorteilhaft wenn man sich jetzt eine 3870 holt und beim nächsten upgrad durch die 3870X2 kann man die dann einfach im Tri-Crossfire rennen lassen.

in etwa so würd ich sie auch einschätzen
 
Ja damit kann man sich auch noch richtig Geld sparen.
Überlege ich mir auch...mir jetzt die Wochen eine 3870 zu holen und schauen was die so auf dem Kasten hat und dann mir eine 3850 zu Weihnachten schenken lassen :d :fresse:
Dann ist man ca. bei dem Geld einer Ultra und hat knapp 100-150 Euro gespart.
Was dann den Verbrauch betrifft....daran mag ich gar net denken :fresse:
 
Braucht man bei der HD38xx Reihe auch eine Masterkarte um CF nutzen können, oder kann man da jetzt wie bei SLI einfach zwei Karten reinknallen und loslegen?
 
Wäre da die 3870er dann nur eine 3850er, oder wie läuft dass wenn man eine 3850er und eine 3870er zusammen im Crossfire betreibt? :)
 
ich glaub das mit der Masterkarte hat sich schon bei 2900 verabschiedet also müsste das gehen
Hinzugefügter Post:
das mit der 3870 und der 3850 geht zusammen
 
Zuletzt bearbeitet:
ich glaube die laufen mit ihrem eigenem ,das ist nicht so wie mit der GTX und der ULTRA
 
Rendert die eine langsamere dann weniger?

ka aber ich denke die leistet das gleiche wie die obere, die FPS korrigieren sich einfach gegen unten, weil die schwächere mehr zeit für die berechnung ihres beitrags braucht. also wäre 3870 + 3850 und 3850 cf wohl gleich stark... meine meinung...
 
Was soll das bringen, wenn sie mit unterschiedlichem Takt laufen? So oder so müsste dann die schnellere Karte auf das gerenderte Bild der zweiten Karte warten. Vorteil gleich null.
 
Was soll das bringen, wenn sie mit unterschiedlichem Takt laufen? So oder so müsste dann die schnellere Karte auf das gerenderte Bild der zweiten Karte warten. Vorteil gleich null.

Oder die langsamere rendert halt prozentual weniger, warum muss man es den auch immer 50:50 machen, könnte ja auch 70:30 oder 60:40 funzen. :confused:
Mit Split Frame Rendering rendert die schwache Karte einfach die anspruchslosen teile und die stärkere Karte r#ndert den schwierigen teil.
 
Zuletzt bearbeitet:
Wieviel schneller ist die HD3870 denn als die HD2900XT?
Hat da irgend jemand schon eine Ahnung?
Und wie schlägt die Karte sich bei AA und AF?
 
Wieviel schneller ist die HD3870 denn als die HD2900XT?
Hat da irgend jemand schon eine Ahnung?
Und wie schlägt die Karte sich bei AA und AF?

Da musst Du noch ein paar Tage gedult haben. :)

Was DX10.1 betrifft:

Zitat
"Tatsächlich soll DirectX10.1 aber vor allem Verbesserungenf für Entwickler geben, die deren Arbeit effektiver macht. Damit bezieht sich Stam wohl auf die von Microsoft angekündigten Vorgaben für die Unterstützung neuer Features, die den Spieleentwicklern mehr Sicherheit geben sollen, was die Unterstützung bestimmter Effekte durch die Grafikkarten der verschiedenen Hersteller angeht."

dass ist der springende Punkt an der ganzen sache und nicht wie immer behauptet wird boshaftigkeit von MS damit die ganzen Kids auf Vista umsteigen müssen, um Ihre Games zu zocken. :bigok:
 
Oder die langsamere rendert halt prozentual weniger, warum muss man es den auch immer 50:50 machen, könnte ja auch 70:30 oder 60:40 funzen. :confused:
Mit Split Frame Rendering rendert die schwache Karte einfach die anspruchslosen teile und die stärkere Karte r#ndert den schwierigen teil.

Ich bete zu Gott, dass die leute von Ati das so gemacht haben =)

*edit* eigentlich muss es ja fast so sein, spätestens bei tripple fire geht 50:50 nicht mehr so ganz auf und ein 10/3 verhältniss is irgendwie auch nicht clever da das ja nie aufgeht... *edit-end*

Die Schwächere Karte könnte sich aber z.b. ja auch auf eher leichte sachen beschränken, die sie dank der gleichen architektur trotzdem problemlos schaffen kann aber trotzdem last von der stärkeren nimmt. Wäre vorallem interessant, wenn man schon 2 highend modelle im crossfire hat und eine billige schwache dritte übernimmt dann die unwichtigen kleinigkeiten, somit könnte im 2d Betrieb auch nochmal richtig energie gespart werden, wenn die Highend modelle sich dort dann ganz ausklinken. ich fürchte nur, dass das technisch nicht ganz machbar ist oder die leute von Ati daran noch nicht gedacht haben, da ich nicht denke, dass es tatsächlich so funktionieren wird - aber is ja der speku thread :d

cheers
 
Zuletzt bearbeitet:
ATI hat ein speziellen stromsparmodus entwickelt in der die energie drastisch gesenkt wird und vllt wird in CF 2 der 3 karten einfach ''abgeschaltet''
 
ATI hat ein speziellen stromsparmodus entwickelt in der die energie drastisch gesenkt wird und vllt wird in CF 2 der 3 karten einfach ''abgeschaltet''

Wir werden sehen wie effizient ATI PowerPlay arbeitet, dass wäre ein klarer vorteil für Ati da man (ich zumindest) heutzutage ungern unnötig Strom vergeudet. :) Man holt sich ja nicht alles +A Geräte im Haushalt, um dann mit einem Rechner alles wieder zu verheizen! :wall:
 
johndo da bin ich deiner meinung!!! mich kotzt auch an, dass die highendmodelle so viel stromfressen, darum hab ich ja eine 7600gs ^^

aber viele von den forumusern müssen wohl sicher noch nicht ihren strom selber zahlen oder haben den rechner nur 2-3h an.

mir gefällt vorallem das man 3850 und 3870 zusammenlaufen lassen kann, dass klingt echt interessant.

außerdem meine ich gelesen zu haben, dass wenn man ne onboard karte bei ati hat sich die eingebauten karten komplett abschalten und nur noch die onboard an ist!
 
http://www.techpowerup.com/downloads/822/TechPowerUp_GPU-Z_v0.1.0.html

* Added preliminary support for Intel
* Added Shader Model readout
* Fixed ATI RV6xx clocks reading
* Fixed report submission on Windows XP 64-bit
* When submitting a bug report, a problem description is required.
* Improved ATI BIOS reading code
* Shortened BIOS string to fix window in some instances
* Added end ellipses to certain display fields
* Fixed crashes when using NVAPI
* Fixed lost handles when using NVAPI
* Fixed memory type detection for G84, G86, G92
* Improved NVIDIA BIOS reading code
* Subvendor BFG Tech now correctly named
* Numerous adjustments to pipe/shader configurations on both ATI and NVIDIA

Ist also, denke ich, ein Auslesefehler mit den 416shaderunits.

Allerding ist das schonn deshalb, klar, da die rx6xx-Serie auf 5D-shader setzt und 416 nicht richtig durch 5 teilbar ist.
 
Zuletzt bearbeitet:
Meint ihr die Karten sind schon am 15.11 verfügbar oder dauert es dann nochmal 2 bis 3 wochen bis man die letztenendlich kaufen kann?
Denn es war doch mal die Rede von einem Hardlaunch :wall:
 
Meint ihr die Karten sind schon am 15.11 verfügbar oder dauert es dann nochmal 2 bis 3 wochen bis man die letztenendlich kaufen kann?
Denn es war doch mal die Rede von einem Hardlaunch :wall:
Ich glaube das kann Dir so noch keiner sagen, die Frage stellt sich hier ja auch jeder. Freitag / Montag sind wir nen ordentliches Stück schlauer :)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh