***8800GTS vs. 2900XT THREAD***

falls es einen interessiert:

Vollversion von World in Conflict

1680x1050 4xAA 16xAF DX9
Graka nicht OC
CF geht (noch) nicht.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
so, bei meiner HD 2900 XT mit 1,2 Volt ist bereits bei 835/935 Schluss mit OC.
Mit 850/950 bleibt der 3D 2006 Mark auf einmal hängen und es kommt ein schwarzer Bildschirm. Rechne aber da da mein Delta DPS 450AA Netzteil versagt, oder die Karte einfach zu heiss wird. Wird aber max. "nur" 85 Grag heiss.... also fast sicher das NT. Aber die 835/835 reichen mir vollkommen.
Mit 1,2 V sollten doch mit LK ca. 960/ 1000 Mhz drinnen sein!?
 
Crysis wird von Nvidia aktiv mitentwickelt, warum sollten die sich bemühen Crossfire zum laufen zu bringen. würdest du deinem konkurenten helfen :hmm:

Ne das ist ja ATIs Part das CF läuft, aber dennoch finde ich das Falsch zu sagen, das ein Produkt Müll ist, nur weil in ner Beta noch net alles funzt...
Klar finden wohl die Jungs welche ein CF Gespann haben und die Beta zocken dürfen es sicher mies, das CF noch net funzt, aber das ist doch egal, Fakt ist das die Vollversion laufen muss. Und das wird sie sicher auch, wenn ATI den Treiber dafür angepasst hat.

So als Beispiel fällt mir da grad ein:
Ein Autohersteller baut ab so fort Serien Wagen, welche jeder kaufen kann, welche eine Höchstgeschwindigkeit von 400km/h schaffen. Leider wird es das Auto erst nächstes Jahr offiziell zu kaufen geben.
Im Beispiel gibt es jetzt mal zwei Reifenhersteller, einer von beiden liefert für den Prototyp des Autos die Reifen. Der andere bringt diese erst nach offizieller Vorstellung des Autos.
Ist dann jetzt der Hersteller der später liefert schlecht?

so, bei meiner HD 2900 XT mit 1,2 Volt ist bereits bei 835/935 Schluss mit OC.
Mit 850/950 bleibt der 3D 2006 Mark auf einmal hängen und es kommt ein schwarzer Bildschirm. Rechne aber da da mein Delta DPS 450AA Netzteil versagt, oder die Karte einfach zu heiss wird. Wird aber max. "nur" 85 Grag heiss.... also fast sicher das NT. Aber die 835/835 reichen mir vollkommen.
Mit 1,2 V sollten doch mit LK ca. 960/ 1000 Mhz drinnen sein!?

Neja also scheinbar hast du ne schlechte Karte erwischt, sehr viele Karten mit 1,2V GPU Spannung laufen mit um die 850MHz bei Stock Kühlung.
An deinem NT liegt aber wohl eher net, vllt bringt es bei zu viel Belastung keine stabilen Werte mehr, aber das ist unwarscheinlich, da dein Restsystem ja eher sehr sparend ist.
Viel mehr als 850MHz ist aber auch nur mit Wakü oder Kokü zu erreichen und nur wenns ne gute Karte ist.
 
Zuletzt bearbeitet:
Nein, getestet unter Win XP ohne SP2
Nun gut, ob nun 860/ 1000 Mhz oder meine derzeitigen 835/935 macht es nun auch nicht wieder fett, da sind max. 2-3% Mehrleistung zu erwarten, wenn überhaupt.
Lieber etwas kühler und nicht ganz am Limit, etwas Luft nach oben hin halt!

PS: Dann sollte mein NT noch reichen für einen Opteron 180/ 185 und der HD 2900XT.
Diese sollen/ werden wohl auf die 100 bis 140 Euro fallen, denn die Verfügbarkleit ist recht gut erneut.
Hoffe im Oktober purzeln die Preise, und so verkehrt ist es dann nicht mehr mit der HD 2900XT und nem 2,4 Ghz Dual Core.
Auf Quadcore udg. werde ich erst Anfang/ Mitte 2008 umsteigen; wennschon.
 
Zuletzt bearbeitet:
Berni, wenn dein NT nicht irgendwie nen Schaden hat, dann reicht das auch für für den Opteron...
Aber ich würde wohl an deiner Stelle eher den günstigeren 170er nehmen. Die laufen zu 95% auch auf 2,4GHz, einige auch drastisch mehr... je nachdem wie gut du mit deinem Board OC'en kannst.

Du kannst ja mal Testen wie viel OC mit der Karte bei 100% Luffi mitmacht, bei mir ist es so, das die 844/1046 bei Std. Luffi Einstellungen immer mal freezen mit 100% Luffi gehts aber ohne Probs...
 
O.K. BTT

Zocker läuft WIC jetzt besser als inder Demo auf der HD2900XT?




Zitat Berni " Mit 1,2 V sollten doch mit LK ca. 960/ 1000 Mhz drinnen sein!?"
Wo haste den das her? So eine Karte hab ich noch nicht gesehen.
 
Zuletzt bearbeitet:
dukee seine unter der Kokü hatte doch auch 960 oder 950MHz...
Weis aber net mehr ob er die Spannung angepasst hat, glaube nicht nur für DX10.
 
hi,

so ich hab auch mal versucht was meine 2900Xt hergibt :)

Erst mal mein System :

C2D E6750 @ 3,46
Asus P5K Deluxe
2* 1024 CellShock
2900XT @ 860/963

das kamm raus

20070920191727558_qoiudaqkbb.jpg


und Worl in Conflict

1280*1024 VeryHigh
20070920192038182_ntapvizarb.jpg
 
@All

Ich verwette mein POPO das Crysis auf den Nv´s Deutlich besser läuft , da nV dort mitgewirkt hat!! (Siehe doom3)

Eagleone19
 
doom3 läfut doch nur besser wegen dem OpenGl was NV karten schon immer besser konnten...
Aber welche ATI meinst :p
viel kommt ja mal ne XTX und denn sehen wir es ja ^^
 
doom3 läfut doch nur besser wegen dem OpenGl was NV karten schon immer besser konnten...
Aber welche ATI meinst :p
viel kommt ja mal ne XTX und denn sehen wir es ja ^^


eben , bei doom wurde das eingebaut was auf nV Karten besser läuft ... Was meinst du was in Crysis Passiert? Meinst du das nV logo kommt umsonnst da drin vor? ;)

gruß

eagleone19
 
ja in soooooo vielen Spielen kam schon ein NV logo wo ATI schneller ist(ATI ist schneller in Direct 3D games und NV in OpenGL) und wenn mich nicht alles teucht ist Crysis Direct 3D ^^
 
NVidia stellt bestimmten Blockbuster-Spielen auf Anfrage Techniker zur Seite, die helfen den Code zu optimieren. Wäre schon peinlich, wenn diese Titel auf den jeweils schnellsten Chip-Varianten nicht hinreichend performen würden. Dazu kommt, dass G80 derzeit mit zum Schnellsten gehört, was in Spiele-Rechnern verbreitet ist - der Durchschnitt liegt noch weit hinter 24 ROPS und 32 Textureinheiten (beim multitexturing ist G80 derzeit konkurenzlos).

Der Crysis-Erfolg (sofern es einer wird) wird maßgeblich von der Performance auf den G80-Chips abhängen - sonst müsste der Release verschoben werden, bis Schnelleres ausreichend verbreitet ist.


Grüße,
Euer George
 
Zuletzt bearbeitet:
NVidia stellt bestimmten Blockbuster-Spielen auf Anfrage Techniker zur Seite, die helfen den Code zu optimieren. Wäre schon peinlich, wenn diese Titel dann auf den jeweils schnellsten Chip-Varianten dann nicht hinreichend performen würden. Dazu kommt, dass G80 derzeit mit zum Schnellsten gehört, was in Spiele-Rechnern verbreitet ist - der Durchschnitt liegt noch weiter hinter 24 ROPS und 32 Textureinheiten (beim multitexturing ist G80 derzeit konkurenzlos).

Der Crysis-Erfolg (sofern es einer wird) wird maßgeblich von der Performance auf den G80-Chips abhängen - sonst müsste der Release verschoben werden, bis ausreichend Schnelleres verbreitet ist.


Grüße,
Euer George

Guter Beitrag!

eagleone19
 
Vollversion von World in Conflict

Vista 64 Bit

1680x1050 4xAA 16xAF DX9 "Very High"
HD 2900XT 512 MB (Graka nicht OC)
CAT 7.9



Vollversion von World in Conflict

1680x1050 4xAA 16xAF DX9 "Very High"
8800GTX 768 MB @ 612/2000
FW 163.69



Wenn noch einer sagt ne GTX ist "schneller" als ne 2900XT dem zeig ich nen Vogel.
 
Zuletzt bearbeitet:
Die GTX ist ja nicht nur schneller sondern lässt das ATI Ding meilenweit zurück!
 
Die GTX ist ja nicht nur schneller sondern lässt das ATI Ding meilenweit zurück!

Im traum vieleicht man, ich hab beide hier :hmm:

Jack

die 80 FPS waren am schluss da wo die camera in die Luft geschaut hat, also da ist garnix passiert :haha:
Bei der NUKE hab ich 1 FPS weniger mit der GTX wie mit der XT:shot:
Und die XT lief auf PCIE 8x und non OC
 
Alles klar :wink:

Es soll hier jetzt auch kein Streit ausbrechen, die GTX ist in Summe schon schneller, aber in einigen Games ist der unterschied nicht sooo groß.
 
so da mich das nun intresirt hat hab ich meine XT

auf 880/999 hoch mit 100% lüfter und 1,25V :stupid:

das kamm raus :

1680x1050 4xAA 16xAF DX9 "Very High"
WinXp 32bit

20070921215242999_amroyhlolz.jpg
 
ich will die Screens oben nicht anzweifeln, aber von einem Spiel auf alle zu schließen ist wohl etwas überzogen, wenn ihr wisst was ich meine.

Und nein ich habe keine GTX.
 
richtig, 1 kann man net vergleichen, in Stalker ist die ATi schneller, in Crysis beta haben sie die gleichen FPS, also rucklet auf beiden (alles MAXED).
3DMark06 hab ich weniger mit der GTX wie mit der ATI, Bioshock werd ich jetzt testen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh