Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
doch mit na dicken CPU (core) + Single KarteDr. Wakeman schrieb:Weil ich auf 1680x1050 zocke und ohne starke Grafikkarte und SLI geht da gar nichts...
Haro schrieb:ich warte einfahc mal test ab!
man weiss nie was kommt nachher wird das soeiner wie die 5800ultra
Will dann bench zu UT2007 und co sehen und danach richte ich mich dann welche grakka da am besten ist !
Night<eye> schrieb:die 5800Ultra ist das beste was NV jeh gemacht hat,
wäre ein traum wenn der G80 auch so geil und verhasst wäre
ich prophezeie es ja ich nehme jede 3te graka gen von NV
geforce 2
Geforce 5
und jetzt geforce 8
duKee schrieb:doch mit na dicken CPU (core) + Single Karte
Quake4:
1920x1200 4AA/16AF --> Presler 4 GHz + 7900 GTX SLI !! --> 130 FPS
1920x1200 4AA/16AF --> X2 @ 2800 MHz + X1900XTX --> 111 FPS
1920x1200 4AA/16AF --> Core 1 @ 3,3 GHz + 7900 GTX --> 129 FPS
1920x1200 4AA/16AF --> FX 57 @ 3 GHz + X1900XTX Crossfire !! --> 72 FPS
640x480 --> X2 @ 2800 MHz + X1900XTX --> 144 FPS
640x480 --> Core 1 @ 3,3 GHz + 7900 GTX --> 205 FPS
Quake 4 ist das erste game, daß so richtig von Dualcore CPU's profitiert, egal welche Qualitätseinstellungen. im Multiplayer habe ich mit dem Core Duo @ 3,3 GHz 64,3 % mehr FPS als mit dem singlecore P-M @ 3,3 GHz bei gleicher graka
Haro schrieb:das beste naja super hochgepucht von der presse und von NV und dann nicht schneller als die ältere 9700Pro!
Das soltle bei mir auch perfekt laufen, freue mich auch, werd wohl erst beim g 90 mit unified shader aufrüsten.Anarchy schrieb:Ich freu mich scho wie nen Schnitzel inner Pfanne auf "Enemy Territory : Quake Wars" , dafür soll dann auch Conroe und G80 her
Dank id-Software Engine wird die Performance mit DualCore überragend sein
Night<eye> schrieb:lol wie n schnitzel inner pfanne
wird Conroe serien mässig n dual core sein ?
Night<eye> schrieb:die 5800Ultra ist das beste was NV jeh gemacht hat,
wäre ein traum wenn der G80 auch so geil und verhasst wäre
ich prophezeie es ja ich nehme jede 3te graka gen von NV
Wie sieht denn hier überhaupt die Tendenz zum Kauf einer entsprechenden leistungsfähigen CPU aus, die auch mit einem G80 mithält.
Kauft ihr euch alle 'nen Conroe, damit ein G80 auch was bringt?
Man sollte mal wegkommen von dem Wort "ausbremsen". Das paßt einfach nicht.|v|4RV1N schrieb:Nun stelle ich mir aber die Frage, ob ein Athlon 64 wie z.B der X2 3800+ den G80 oder den R600 sehr ausbremsen wird.
xxmartin schrieb:Man sollte mal wegkommen von dem Wort "ausbremsen". Das paßt einfach nicht.
Wenn Du es genau nimmst, bremst die CPU immer aus. Nur passiert das abhängig von der Leistung bei höheren oder niedrigeren Qualitätseinstellungen. Und je graphisch anspruchsvoller die Spiele werden (z.B. TRL läuft im Next-Gen Modus 1600x1200 8xAA, 16xAF selbst mit 'nem 7900 GTX SLI teilweise nur bei 40-50 fps) bzw. je höher man die Auflösung, AA, AF und Supersampling AA setzt, umso schneller ist man wieder am Grafikkartenlimit denn an der CPU-Begrenzung.
Und da gerade die Dual-Core Optimierungen gerade erst im Kommen sind, wirst Du mit 'nem X2 3800+ und einem G80 in entsprechend GPU-lastigen Games und Einstellungen noch lange Deine Freude haben. Und bei älteren Games dürfte es Dich eigentlich nicht interessieren, ob Du nun 150 oder 400 fps hast ...
Was natürlich nicht heißt, daß man z.B. mit 'nem dicken X6800 nicht trotzdem wesentlich flotter unterwegs ist. Aber da ist dann viel Ego und Proll dabei.Mysterius schrieb:das hört man gerne, damit hast du mich auch beruhigt ... danke
Oh, noch gar nicht gesehen. Na das wäre ja dann mal absolut klasse. Der G80 passend zum Conroe. Meine Herren, das gäbe ein Fest ...c³ schrieb:Auf Alternate.de gibts ja wieder einen nVidia-Counter, steht uns der G80 so unmittelbar bevor?!
Ja, zumal es ja auch ein aufwendigeres PCB ist mit den zwei "Lagen". Aber die 7950 GX2 ist es mit ziemlicher Sicherheit.Anarchy schrieb:Es ist die GX2 ... und der Preiss scheint relativ niedrig zu sein wenn man bedenkt das es 1GB an RAM und zwei GPUs sind ...