7800gt schneller als x1800xl

mAdSir schrieb:
@Tectrex: die GTX 512MB zieht die XT in jedem bereich ab, schau dir mal bitte die benches der leute ausm forum an. desweiteren haben nur noch ganz wenige XL`s 1.6ns speicher drauf, selbst wenn der händler sagt sie sind drauf, er kann ja schlecht den kühler abmontieren. du ziehst auch immer benches raus, wo die ati`s immer schneller sind, such mal nach richtigen und net immer so fake dinger. aber das thema hatten wir ja schon in einem anderen thread!
Nix da, Ihr zieht Euch die Dinger immer raus wo Beta Treiber verwendet werden oder auch einfach nicht mit HQ gebencht wird! Selbst in der neuen PCGH steht das die 512er GTX nur "etwas" schneller ist und schon am Limit läuft! Aber das ist bestimmt auch wieder nen Fake:hmm: (bei euch ist das so-->ATI schneller=Fake--->Nvidia schneller=alles wunderbar) Fakt ist auch das man bei gleicher BQ testen muß, kein wunder das NVidia so schneller ist...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tectrex schrieb:
Nix da, Ihr zieht Euch die Dinger immer raus wo Beta Treiber verwendet werden oder auch einfach nicht mit HQ gebencht wird! Selbst in der neuen PCGH steht das die 512er GTX nur "etwas" schneller ist und schon am Limit läuft! Aber das ist bestimmt auch wieder nen Fake:hmm: (bei euch ist das so-->ATI schneller=Fake--->Nvidia schneller=alles wunderbar) Fakt ist auch das man bei gleicher BQ testen muß, kein wunder das NVidia so schneller ist...


Und ihr tut immer so als wäre die BQ von nVidia so schlecht das sie bei gleicher BQ zu ATI 20% an Leistung verlieren ;)
 
Riverna schrieb:
Und ihr tut immer so als wäre die BQ von nVidia so schlecht das sie bei gleicher BQ zu ATI 20% an Leistung verlieren ;)

So viel Leistungsunterschied ist natürlich nicht :haha:, aber die BQ ist einfach schlechter bei NV... aber das ist wie die Kühlerlautstärke... denn einen nervt es, denn anderen nicht!
 
Riverna schrieb:
Tja ich weiß nicht was du machst. Aber ich hab TRSSAA und AA/AF aktiviert und habe konstant 50FPS bei 1280*1024.

Tja, da sieht mans mal wieder, ich habe alles auf Anschlag. HQ im Treiber, alle AFOptimierungen aus, 4AA, Supersampling bei TransparenzAA + 16AF. Das ist definitiv nicht ständig flüssig. Karte ist mit 490/1270 getaktet.

Im übrigen werden ATI-Karten in F.E.A.R. über 20% schneller wenn man AI ausschaltet, ist ein Bug mit AI. Mein X800 ist ja schon fast so schnell wie die geocte GT.
Es gibt immer noch XLs mit 1,4ns RAM, das ist Hersteller abhängig. Wenn Grakapower extra 1,4ns RAM hinschreibt, dann stimmt das.

Riverna schrieb:
Und ihr tut immer so als wäre die BQ von nVidia so schlecht das sie bei gleicher BQ zu ATI 20% an Leistung verlieren ;)

In Extremfällen ist das so! In der Regel sinds aber 5%, beim G70, also Unterschied Q zu HQ.

Die X1800XL is in Battlefield trotzdem schneller und da wurde noch mit Cat. 5.9 gebencht. Außerdem benchen die Nvidia nur auf Quality wodurch die GT nochmal paar Prozent verliert. Die X1800XT is ja mit 5.11 schon in Doom3 schneller als die GTX, neue Treiber bringen da einiges.
bfield_candy.gif


http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_10.html

Quake4 Ogl-Game, nichtmal da ist die GT schneller:
q4_candy.gif


F.E.A.R.
fear_candy.gif


Da kann man noch 20% draufrechnen, da nicht mit AI off gebencht wurde. Dann ist auch da die XL schneller.
 
Zuletzt bearbeitet:
Zitat Xbitlabs:

"Testbed and Methods
We installed the NVIDIA GeForce 7800 GTX 512 graphics card into our testbed computer:

AMD Athlon 64 4000+ CPU (2.40GHz, 1MB L2 cache)"

Nichtmal einen FX zum Testen, geschweige denn einen X2, fast wertlos solche Tests, jedenfalls für High End Grafikkarten.
 
Fw Steiner schrieb:
Zitat Xbitlabs:

"Testbed and Methods
We installed the NVIDIA GeForce 7800 GTX 512 graphics card into our testbed computer:

AMD Athlon 64 4000+ CPU (2.40GHz, 1MB L2 cache)"

Nichtmal einen FX zum Testen, geschweige denn einen X2, fast wertlos solche Tests, jedenfalls für High End Grafikkarten.

Für die Werte der X1800XL und 7800GT bei 1280x960 4AA unerheblich, da wollte Katrin Battlefield2 Werte haben. Klar, hat auch jeder ne X2 im Rechner, zudem profitiert nicht jedes Game davon, Quake4 z.B. kaum. Und die Treiber, die ATI mit Dual-Core beschleunigen werden auch kommen. Zumal sind die Testbedingungen für alle Karten gleich.
 
Zuletzt bearbeitet:
hmm.. ich werde wohl Grafikkartepower anschreiben !

Sie haben auch bei Ebay im Moment eine X1800XL mi 1.4ns RAM drin !

Das Problem ist jetzt... kauft man sich die X1800XL kann man es ja ohne OC oder Kühler abnehmen nicht testen.. Ich werde mir eh nen Zalman kaufen und so den Lüfter runter nehmen.. dabei verliere ich aber die Garantie... das heisst Grafikartenpower nimmt wohl die Karte nicht zurück ! :-(

Zur Leistung....

Frage.. warum ist denn die X1800XL bei BF2 schneller als eine X850XT ????

Beide haben 16 Pipelines... die aber X1800XL aber nur 500/500

kati
 
Katrin schrieb:
hmm.. ich werde wohl Grafikkartepower anschreiben !

Sie haben auch bei Ebay im Moment eine X1800XL mi 1.4ns RAM drin !

Das Problem ist jetzt... kauft man sich die X1800XL kann man es ja ohne OC oder Kühler abnehmen nicht testen.. Ich werde mir eh nen Zalman kaufen und so den Lüfter runter nehmen.. dabei verliere ich aber die Garantie... das heisst Grafikartenpower nimmt wohl die Karte nicht zurück ! :-(

Zur Leistung....

Frage.. warum ist denn die X1800XL bei BF2 schneller als eine X850XT ????

Beide haben 16 Pipelines... die aber X1800XL aber nur 500/500

kati


Das sind doch total andere Techniken und Verarbeitungsprozesse, daher isse schneller!
 
Katrin schrieb:
hmm.. ich werde wohl Grafikkartepower anschreiben !

Sie haben auch bei Ebay im Moment eine X1800XL mi 1.4ns RAM drin !

Das Problem ist jetzt... kauft man sich die X1800XL kann man es ja ohne OC oder Kühler abnehmen nicht testen.. Ich werde mir eh nen Zalman kaufen und so den Lüfter runter nehmen.. dabei verliere ich aber die Garantie... das heisst Grafikartenpower nimmt wohl die Karte nicht zurück ! :-(

Zur Leistung....

Frage.. warum ist denn die X1800XL bei BF2 schneller als eine X850XT ????

Beide haben 16 Pipelines... die aber X1800XL aber nur 500/500

kati


Weil die X1800 Architektur effizienter ist, mehr Leistung pro Takt, besserer Speichercontroller.
 
Mumins schrieb:
Für die Werte der X1800XL und 7800GT bei 1280x960 4AA unerheblich, da wollte Katrin Battlefield2 Werte haben. Klar, hat auch jeder ne X2 im Rechner. Und die Treiber, die ATI mit Dual-Core beschleunigen werden auch kommen.

Die Treiber von Ati sind aber nicht da, und der X2 bringt in fast jeder Auflösung einen Vorteil, nur fällt der halt unterschiedlich gross aus. Und da der 3800+ X2 nur noch um 320 Euro kostet, kann den schon jeder haben (zumindest jeder, der auch über 300 Euro für eine Grafikkarte ausgeben kann).
 
Fw Steiner schrieb:
Die Treiber von Ati sind aber nicht da, und der X2 bringt in fast jeder Auflösung einen Vorteil, nur fällt der halt unterschiedlich gross aus. Und da der 3800+ X2 nur noch um 320 Euro kostet, kann den schon jeder haben (zumindest jeder, der auch über 300 Euro für eine Grafikkarte ausgeben kann).

ich werd noch bis zum M2 warten auf DualCore.. bis dahn reicht mein Opteron noch aus...

Wenn es vielleicht doch eine 7800GT werden sollte (falls die X1800XL keine 1.4ns hat) welche sollte ich da nehmen.. ???

Möchte die dann schon OCn.. um ca die Leistung einer GTX zu haben...

Aber ich werd erstmal ne Mail schreiben, wegen de 1.4ns

kati
 
Katrin schrieb:
ich werd noch bis zum M2 warten auf DualCore.. bis dahn reicht mein Opteron noch aus...

Wenn es vielleicht doch eine 7800GT werden sollte (falls die X1800XL keine 1.4ns hat) welche sollte ich da nehmen.. ???

Möchte die dann schon OCn.. um ca die Leistung einer GTX zu haben...

Aber ich werd erstmal ne Mail schreiben, wegen de 1.4ns

kati

Bei Grafikkartenpower verkaufen sie eine höher getaktete 7800 GT mit Arctic Silencer.

Sonst sind die 7800 GT alle recht gleich.

PS. Das 1,4ns steht nicht mehr auf deren Seite.
 
Zuletzt bearbeitet:
Fw Steiner schrieb:
Bei Grafikkartenpower verkaufen sie eine höher getaktete 7800 GT mit Arctic Silencer.

Sonst sind die 7800 GT alle recht gleich.

PS. Das 1,4ns steht nicht mehr auf deren Seite.

http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=29&products_id=77

die meinst du oder ?

Wie hoch muss man denn ca eine GT OCen, das man in GTX Regionen kommt ?

Kati

Edi: doch steht da noch bei mir
http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=30&products_id=78
 
Katrin schrieb:
http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=29&products_id=77

die meinst du oder ?

Wie hoch muss man denn ca eine GT OCen, das man in GTX Regionen kommt ?

Kati

Edi: doch steht da noch bei mir
http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=30&products_id=78

Mal deinen Browsercache löschen? (Oder ich hab was am Auge, kann ja auch sein, bin ja auch schon seit 6 auf der Arbeit).

Was sind bei dir GTX Regionen und wobei, 3dmark?
 
Fw Steiner schrieb:
Mal deinen Browsercache löschen? (Oder ich hab was am Auge, kann ja auch sein, bin ja auch schon seit 6 auf der Arbeit).

Was sind bei dir GTX Regionen und wobei, 3dmark?


hmm.. bei mir steht immer noch da "1,4 ns Speicher !"

GTX Regionen... bei Games.... viele reden davon, das sie ihre GT in GTX Regionen Oced haben.. nur wie hoch ist das ?

kati
 
Ich würde mal schätzen, die meinen dann 450 / 1200. 450 und mehr dürften eigentlich fast alle 7800 GT schaffen, beim Speicher sieht es mit den 1200 nicht so gut aus, manche schaffen es, manche nicht.


edit: Vielleicht guckt ja noch jemand anders mal nach dem Link.
 
Zuletzt bearbeitet:
Fw Steiner schrieb:
Ich würde mal schätzen, die meinen dann 450 / 1200. 450 und mehr dürften eigentlich fast alle 7800 GT schaffen, beim Speicher sieht es mit den 1200 nicht so gut aus, manche schaffen es, manche nicht.


wegen dem 2.0ns RAM oder ? der ist doch nur für 1000Mhz spezifiziert oder ?

Kati
 
Fw Steiner schrieb:
Die Treiber von Ati sind aber nicht da, und der X2 bringt in fast jeder Auflösung einen Vorteil, nur fällt der halt unterschiedlich gross aus. Und da der 3800+ X2 nur noch um 320 Euro kostet, kann den schon jeder haben (zumindest jeder, der auch über 300 Euro für eine Grafikkarte ausgeben kann).

Zwischen einem 3GHz Opteron und einem 2,5GHz X2 besteht kaum ein Unterschied.
Ein Pentium D820 kommt zum Beispiel nicht an die Leistung eines Pentium4 EE heran.
http://www.computerbase.de/artikel/...ual_core-forceware_8xxx/3/#abschnitt_3dmark05

Da sind Werte in 1280x960, kommt nun noch AA hinzu, dann macht das nicht mehr viel aus.


Also meine 7800GT macht mit 490/1270 etwas über 8200Punkte im 3DMark05, das dürften GTX Werte sein. Mit anderer Kühlung geht vielleicht 520 beim Core. Karte is von MSI.
 
Zuletzt bearbeitet:
hmm..

ich denke, ich werde eine X1800XL nehmen.. wenn ich von Grafikkarten die Garantie bekomme, das 1.4ns RAM verbaut ist...

Vielleicht lässt sich noch was rausholen aus der X1800XL mit neuen Treibern und auch OC...

kati
 
Meine MSI 7800 GT läuft mit Luft maximal auf 512 MHz Core und 1260 MHz Speichertakt (zum Benchen).
Stabile Settings sind 500/1260 MHz.
 
Katrin schrieb:
hmm..

ich denke, ich werde eine X1800XL nehmen.. wenn ich von Grafikkarten die Garantie bekomme, das 1.4ns RAM verbaut ist...

Vielleicht lässt sich noch was rausholen aus der X1800XL mit neuen Treibern und auch OC...

kati

im 3Dcenter hat einer mit ner X1800XL die 10k im 3DMark05 geknackt.
 
Mumins schrieb:
Zwischen einem 3GHz Opteron und einem 2,5GHz X2 besteht kaum ein Unterschied.
Ein Pentium D820 kommt zum Beispiel nicht an die Leistung eines Pentium4 EE heran.
http://www.computerbase.de/artikel/...ual_core-forceware_8xxx/3/#abschnitt_3dmark05

Da sind Werte in 1280x960, kommt nun noch AA hinzu, dann macht das nicht mehr viel aus.


Also meine 7800GT macht mit 490/1270 etwas über 8200Punkte im 3DMark05, das dürften GTX Werte sein. Mit anderer Kühlung geht vielleicht 520 beim Core. Karte is von MSI.

Was hat ein Pentium D jetzt in der Diskussion verloren? Na gut, ist ein Dualcore, aber der sieht doch kein Land gegen den X2 beim Gamen.

Und wenn ich nachher zu Hause bin mach ich gerne mal einen Durchlauf mit einem X2 @ 2500 und einer 7800 GT @ 490/1200, mal sehen, wie gross der Unterschied zu deinen 8200 ist.
 
das klingt ja nicht schlecht.. :-)

andere Frage... bestimmt ne ganz Dumme... ich habe gerade bei Alternate ne Bewertung zur MSI 7800GT gelesen. da steht drin

".Nur was mich stört,dass bei den ausführlichen Details 24 Pixel Pipelines steht,denn das stimmt nicht die Karte hat "nur" 20 Pixel Pipelines.Dieser Fehler ist aber leider auch auf der MSI Homepage.Ich habe dort angerufen und die konnten mir versicher,dass das nur ein Tippfehler ist.Aber trotzdem eine Top Karte,wo man die restlichen Shader und Pipelines aktivieren kann ;)"

Seit wann kann man die fehlenden 4 Pipelines aktivieren ???

kati
 
Fw Steiner schrieb:
Was hat ein Pentium D jetzt in der Diskussion verloren? Na gut, ist ein Dualcore, aber der sieht doch kein Land gegen den X2 beim Gamen.

Und wenn ich nachher zu Hause bin mach ich gerne mal einen Durchlauf mit einem X2 @ 2500 und einer 7800 GT @ 490/1200, mal sehen, wie gross der Unterschied zu deinen 8200 ist.

Ich rede davon, dass ein 820er D gegen einen 3,73GHz getakteten EE trotz seines Dual-core verliert. Natürlich hat der X2 mehr Power als der 820D, aber die hat doch der 3GHz Opteron auch im Vergleich zum EE. Da ist doch das Verhältnis selbiges.
 
Zuletzt bearbeitet:
Pentium 820 D Takt: 2,8 Ghz, Pentium EE Takt: 3,73 Ghz Unterschied: Ziemlich genau 1 Ghz

Ausserdem kommt der Vorsprung für Dualcores von der Limitierung der Grafikkarten durch den Prozessor (Singlecore), und das kann man mit einer 6800 GT wohl kaum zeigen (siehe Computerbase).
 
Mumins schrieb:
im 3Dcenter hat einer mit ner X1800XL die 10k im 3DMark05 geknackt.
Hier bei uns auch-->Its a mee
http://www.forumdeluxx.de/forum/showthread.php?t=162612&page=58

Wenn alle Karten mit dem gleichen System getestet wurden, ist das schon ok so! Auch wenn einigen die Ergebnisse nicht passen...
Von einer besseren CPU würden die anderen Karten auch profitieren!
Katrin schrieb:
Seit wann kann man die fehlenden 4 Pipelines aktivieren ???
Nicht möglich, ich hatte sogar das GTX Bios drauf und es waren trotzdem nur 20 Pipes.
Alles andere ist einfach falsch beschrieben;)

Riverna schrieb:
Und ihr tut immer so als wäre die BQ von nVidia so schlecht das sie bei gleicher BQ zu ATI 20% an Leistung verlieren ;)
Hallo, soll ich Dir mal Deine Post raussuchen wo Du noch die X800Pro hattest, was hast Du den da immer über die BQ geschrieben;) Neue Karte und Blind geworden? Ich habe nichts von 20% geschrieben, es können aber im extremfall bis zu 15% sein...
 
Zuletzt bearbeitet:
Fw Steiner schrieb:
Pentium 820 D Takt: 2,8 Ghz, Pentium EE Takt: 3,73 Ghz Unterschied: Ziemlich genau 1 Ghz

Ausserdem kommt der Vorsprung für Dualcores von der Limitierung der Grafikkarten durch den Prozessor (Singlecore), und das kann man mit einer 6800 GT wohl kaum zeigen (siehe Computerbase).

Deiner taktet mit 2,5GHz, Unterschied zu 3GHz single sind 500MHz, das ist nicht so weit weg von den 930MHz Differenz der Intels.
Eine 7800GT is gewiß kaum CPU limitiert, erst Recht nicht bei 1280x9604AA+16AF. Im 3DMark05 haste mit deinem X2 vielleicht ne Steigerung von paar hundert Punkten, nur kannste das nicht auf Games übertragen.
 
gut dann hoff ich mal, das die karte 1.4ns drauf hat bei grafikkartenpower.de

wie hoch bekommt man denn eine X1800XL so ca ? also mit 1.4ns RAM...die chance, das man die 625/750 einer XT schafft, sind wohl gering oder ?


kati
 
Katrin schrieb:
gut dann hoff ich mal, das die karte 1.4ns drauf hat bei grafikkartenpower.de

wie hoch bekommt man denn eine X1800XL so ca ? also mit 1.4ns RAM...die chance, das man die 625/750 einer XT schafft, sind wohl gering oder ?


kati
660 GPU schafft eigendlich jede(soweit ich bisher gesehen habe)
RAM bei 1,4ns sollte ca 700 schaffen(Overclockers sogar 800 wegen den Latenzen)
Meine XL lief mit 660/829......
Bei 660/700 ist die XL schon schneller wie eine XT
 
und die von it's_a_me läuft mit 720/700!
Also ist ein Coretakt von >650 nicht unwahrscheinlich. Der 1,4ns Speicher sollte eig. auch 700MHz schaffen.
Ich kann meine Ergebnisse leider noch nicht posten, da meine Karte gesternnoch nicht gekommen ist :heul:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh