ATi R600/RV6xx *Infothread* (Part 3)

Status
Für weitere Antworten geschlossen.
kannste mal bitte nen link zu diesem artikel posten?

@beavis30
lass dein ot gespamme, es nervt nur.
durch sollche leute wie dich wurde der R600 nur zu oft geclosed von mods.
so das leuten wie mir das intresse an speku verloren gegangen ist.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
scheint wohl doch mehr aus zumachen als ich angenommen hatte. besonders die div. zwischen 88 mit x16 und x8 bei cod ist heftigst.
bei der X800/6800 war das noch nicht so krass.

danke für die auffrischung ^^
 
Zuletzt bearbeitet:
Oh mann, Ich konnt mit dem Satz nix anfangen Kampfwurst.
Was ist zu vernachlässigen?
 
siehe meinem Post bezogen auf den Artikel von THG mit der x8 x16 Anbindung
 
PCIe rocks. Deshalb ist auch auf den Mainboards X16 und nicht x1.
So seh Ich das.
 
Rainbow Six: Vegas

2900XT/8800GTS:

1024x768
min:38/27
med:74/60
max:111/95

1280x960
min:26/18
med:53/42
max:83/68

1600x1200
min:19/13
med:37/30
max:70/48
 
Rainbow Six: Vegas

2900XT/8800GTS:

1024x768
min:38/27
med:74/60
max:111/95

1280x960
min:26/18
med:53/42
max:83/68

1600x1200
min:19/13
med:37/30
max:70/48

Gibts auch ne Quelle evt. vergleich zur GTX?
Sind grob überrechnet 25% mehr, sieht doch gut aus bis hierher :)
 
Zuletzt bearbeitet:
siehe meinem Post bezogen auf den Artikel von THG mit der x8 x16 Anbindung

Da hat THG aber Blödsinn gebencht. Der Unterschied entstand nur so stark, weil sie eine Karte mit sehr wenig VRAM für die Leistung genommen haben, konkret eine 8800 GTS 320. Da hier stärker der eigentliche RAM mitgenutzt werden muss, kommt es zu solchen starken Unterschieden. Bei der X1950 XTX mit 512 MB VRAM sieht man gut, das da der Unterschied x8 und x16 gering ist, selbst x8 und x4 nimmt sich noch nicht viel.
 
Thema x8 vs. x16: hat nicht Anandtech in seinem Test vom Asus 650i MB festgestellt, dass selbst bei 2 8800 GTX im SLI x8 noch dicke ausreicht?

mfg
 
wenn der r600 so stark ist, dann verkauft nvidia bald keine einzige 8800 gts mehr.
 
Gibts auch ne Quelle evt. vergleich zur GTX?
Sind grob überrechnet 25% mehr, sieht doch gut aus bis hierher :)

"Gut"?
Ich hab schon im 3DC Forum erwähnt: Die 2900XT hat eine doppelte Rechenleistung als eine 8800GTS. Hier ist sie nur maximal 55% schneller. Für eine 1:1 Xbox360 Portierung, die aufgrund von Xenos stark auf die Rechenleistung setzt, ist das ein enttäuschendes Ergebnis.
Eine GTX ist ebenfalls 50% schneller als eine GTS - eben aufgrund der 50% höheren Rechenleistung

wenn der r600 so stark ist, dann verkauft nvidia bald keine einzige 8800 gts mehr.

Erstmal abwarten, wie hoch der Stromverbrauch sein wird. Danach sollte man in Erwegung ziehen die ein oder andere Karten zu kaufen.
 
Zuletzt bearbeitet:
wenn der r600 so stark ist, dann verkauft nvidia bald keine einzige 8800 gts mehr.

so einfach ist das nicht. da kommt es immer auch auf den preis an. die GTS wird wohl auch weit nach release der XT billiger sein. dann kommt es darauf an wieviel billger, 100euro sind schon viel und gleichen so manchen unterschied wieder aus.

gruß klasse
 
meine 8800gts ist jetzt ca. 2,5 Monate alt. wenn der r600 wirklich so gut ist, dann schmeiß ich die raus. ich will die karte dann einfach nicht mehr.
es kommt auch auf die übertaktbarkeit des r600 an. meine gts läuft so gut im OC, da kommt eine GTX mit standardtakt nicht mehr mit.
 
neeee, auf 648/1512/2106. da hab ich im 3dMark06 mehr ShaderScore als eine GTX@stock.
 
Was wollt ihr eigentlich mit SOO gut??

Die "Frau" hat 2,5k Punkte mehr bei der CPU Score als mein E6600 bei 3,6Ghz.

Wenn ich die 2,5k bei mir zum Ergebnis dazuzähle lande ich sofort bei 13879 Punkten, die ich mit meiner GTS schaffen würde.
Also was ist an deren 12209 Punkten bitteschön sooo gut?
 
Zuletzt bearbeitet:
Hab Ich wo gelesen:
Der Verwaltungsaufwand um Objecte zu rendern, ist in Windows Vista deutlich reduziert worden. Von dieser Entschlackung profitiert zum Teil sogar die in Vista integrierte DirectX-9-Variante. Der volle Leistungsgewinn stellt sich jedoch erst mit DirextX-10 ein - Next-Gen-Spiele werden dadurch eine deutlich höhere Detailfülle bieten.
Vergleich: CPU-Zyclen D3D9/D3D10
Operation D3D9 D3D10 Verringerung CPU-Overhead*
Draw 1470 154 90%
Bind Vs-Shader 6636 416 94%
Set Constant 3297 916 72%
Set Blend Function 787 530 33%

*http://www.proz.com/kudoz/240859
 
bs! :rolleyes:

dann senkt nvidia einfach den Preis der GTS und dann passt das Verhältnis wieder.

Warum glauben immer alle, das eine Firma die Preise ihrer Produkte beliebig senken kann ? Deswegen werden Restbestände immer abverkauft, bevor sie zu stark im Preis fallen. Der G80 ist n ziemlich großer und teuerer Chip, ich glaub nicht das da noch unendlich Luft in der Gewinnzone ist..
 
Mhh einige Tests zeigen, die XT scheint lahmer zu sein als ne 8800GTS. Rainbow Six jetzt z.B. dreht die Sache....also wieder son Durchschnittskampf? Naja egal ^^

@awlmightey: 648/2106 ist nicht schlecht ^^ Da ist der Speichervorteil wohl ausgeglichen....
 
Zuletzt bearbeitet:
Warum glauben immer alle, das eine Firma die Preise ihrer Produkte beliebig senken kann ? Deswegen werden Restbestände immer abverkauft, bevor sie zu stark im Preis fallen. Der G80 ist n ziemlich großer und teuerer Chip, ich glaub nicht das da noch unendlich Luft in der Gewinnzone ist..

Naja,der G80 ist auch immerhin schon fast nen Jahr wieder auf dem markt und bald kommt schon die neue Gereation,dass können die sicher machen;).
 
Warum glauben immer alle, das eine Firma die Preise ihrer Produkte beliebig senken kann ? Deswegen werden Restbestände immer abverkauft, bevor sie zu stark im Preis fallen. Der G80 ist n ziemlich großer und teuerer Chip, ich glaub nicht das da noch unendlich Luft in der Gewinnzone ist..

Im Gegensatz zu AMD hat nVidia mehrere Karten auf den Markt.
Den Verlust der GTS können sie mit der GTX und Ultra abfangen. AMD dagegen stürzt nur weiter in die Misere, da der r600 kaum ein profitables Produkt sein wird.
 
Was wollt ihr eigentlich mit SOO gut??

Die "Frau" hat 2,5k Punkte mehr bei der CPU Score als mein E6600 bei 3,6Ghz.

Wenn ich die 2,5k bei mir zum Ergebnis dazuzähle lande ich sofort bei 13879 Punkten, die ich mit meiner GTS schaffen würde.
Also was ist an deren 12209 Punkten bitteschön sooo gut?

ist so nicht hundertprozentig korrekt.

3DMark06-Score = 2.5 * 1.0/ ((1.7/Spielepunkte + 0.3/CPU-Punkte)/2)

Nehmen wir an wir sind bei 4000 Shader Punkten, fest.
Dann haben wir im 3dMark06 bei
1000 CPU punkten = 6897 3dMark06 ( Abstand nach oben = 1799 Punkte)
2000 = 8696 (828)
3000 = 9524 (476)
4000 = 10000 (309)
5000 = 10309

Also das ist keine einfache Addition!

UND: Diese Frau gefällt mir unheimlich gut!!!
 
Zuletzt bearbeitet:
Lovesucks Amd/ATI wird wohl kaum in die miesere stürtzen da der meiste Gewinn nicht im High End bereich gemacht wird ;)



Flying cpu punkte kann man nich einfach dazurechnen
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh