Oblivion High End Graka Vergleich

Gurkengraeber

Legende
Thread Starter
Mitglied seit
10.03.2005
Beiträge
10.338
Ort
Düsseldorf
http://www.firingsquad.com/hardware/oblivion_high-end_performance/

Seht Euch das an, die 7900GTs im SLI ringen sogar das Crossfile XTX Setup nieder bei 1600x1200. :eek:

Ich mein okay, nicht jeder spielt Oblivion... inklusive mir lol... aber das ist schon krass. Da stimmt doch was nicht.


slimtshdr1600.gif
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gurkengraeber schrieb:
http://www.firingsquad.com/hardware/oblivion_high-end_performance/

Seht Euch das an, die 7900GTs im SLI ringen sogar das Crossfile XTX Setup nieder bei 1600x1200. :eek:

Ich mein okay, nicht jeder spielt Oblivion... inklusive mir lol... aber das ist schon krass. Da stimmt doch was nicht.


slimtshdr1600.gif
LoL
Was ich viel erschrekender finde ist wie schlecht die 7900 GT abschneidet.^^Toll und bei allen anderen savegames gewinnt die X1900 XTX gegen die 7900 GTX genau so wie die X1800 XT gegen 7900 GT.Du hast dir dein persön liches Bild rausgesucht hättest aber ruhig sagen können das es bei anderen saves ganz anders aussieht.^^Bei denn SLi werten sieht mann die schlechte effizienz von CF das wird aber bestimmt noch verbessert.
 
Zuletzt bearbeitet:
Die Antwort darauf steht doch in den Final Words.. NVs Treiber sind besser optimiert auf einzelne Games, was ATI garnet bietet... ATIs Treiber haben keine Game Profiles, wie es da steht ;)

Aber bei SingleCard zeigt ATI wo der Hammer hängt !
 
WulleWuu schrieb:
Die Antwort darauf steht doch in den Final Words.. NVs Treiber sind besser optimiert auf einzelne Games, was ATI garnet bietet... ATIs Treiber haben keine Game Profiles, wie es da steht ;)

Aber bei SingleCard zeigt ATI wo der Hammer hängt !

Vielen Dank Captain Offensichtlich! ;) Was ich aber so krass fand war der Unterschied zwischen den beiden Dual Card Systemen. Okay, jetzt werden einige wieder kommen und sagen "aber ATI ist doch noch nicht so lange dabei, gebt ihnen Zeit" und so, aber inzwischen kann man sicherlich sagen dass NVidia in dem Bereich den besseren Job macht.


Allerdings stinken die NVidia Vertreter im Single Card Test ganz schön ab, das muss man zugeben! :d
 
Hauptsache das spiel läuft flüssig! Benches interressieren mich net so sehr!
 
komisch...ich hab ne xfx 7800gt ,a64 3700,ballistix tracer 4k und bei mir ruckelts kein stück...es stürzt nur andauernd ab aber sonst °_°
 
Zuletzt bearbeitet:
Das Spiel ist scheiße programmiert. Teilweise läuft es sogar auf einer X360 ruckelig......zum heulen...
 
Zuletzt bearbeitet:
Judia schrieb:
komisch...ich hab ne xfx 7800gt ,a64 3700,ballistix tracer 4k und bei mir ruckelts kein stück...es stürzt nur andauernd ab aber sonst °_°

Mit welchen Einstellungen spielst du denn?
 
hmmn...
erinnert mich irgendwie an FEAR

super grafik unsauhohe anforderungen :hmm:
und damit n schlechtes grafik/ressourcen verhältniss :fresse:

da find ich zB HL² sehr gut. rennt sogar mit nem P4 1,7 und ner 9600pro besser als oblivion auf nem opti ;)
(naja... vllt nicht so ganz ^^ damals waren mir ruckelnde spiele egal und ich hab nicht drauf geachtet, aber CSS@150fps hat mich extrem verwöhnt ;))
 
Judia schrieb:
komisch...ich hab ne xfx 7800gt ,a64 3700,ballistix tracer 4k und bei mir ruckelts kein stück...es stürzt nur andauernd ab aber sonst °_°

loooool :lol:

dann haste ja echt viel gewonnen! :fresse:
Du kannst ruckelfrei spielen, bis der PC nach kurzer Zeit abnippelt...

Aber den Oblivion Test find ich echt krass.
Die ATI Singlecards rocken ja echt mal übel, es zeigt sich aber auch, dass bei CF noch starker Nachholbedarf ist.
 
Ich schätze ohnehin SingleCards mehr.. bisher habe ich alles zocken können, da ich noch einen "normalen" Monitor habe.. ;) Ein TFT mit 1280er Auflösung ;)
 
tja ich kann mit meiner leadtek 7800 gtx single alles auf maximum zocken (1280*1024) und es ruckelt nicht und es stürzt nicht ab :banana:
 
1024(spiel jedes spiel so) und unter options steht "Video settings have been set for Ultra High Quality" kp was dat heisst aber aa ist aus :) (vielleicht liegts daran..) aber das mir das spiel dauernd abschmiert nervt mich schon...es stürzt meistens ab wenn ich auf viechern rumklopf und wie wild auf meine maustaste hämmer.
 
ich wage mal diese werte anzuzweifeln. wer sich mal in den oblivon-foren unhört merkt schnell, daß derade die nvidea-karten imense perfomance-probleme haben.
 
wage soviel anzuzweifeln wie du willst aber es steht da...es ruckelt nicht(jedenfalls merk ich nix) stürzt dafür ab...

edit: aber da ich noch nicht wirklich in ner großen stadt war sondern nur draussen und in den abwasserkanälen kann ich noch nicht besonders viel sagen...
 
Zuletzt bearbeitet:
Ist das schon wieder ein Nvidia-Karte(n) ist besser Thread...
Ich zocke in 1280x1024 mit HDR inkl. 4xAF alle Details 100% außer Gras und Bäume 75% sowie deren Schatten "aus" ohne ruckeln.
 
xbox schrieb:
Ist das schon wieder ein Nvidia-Karte(n) ist besser Thread...
Ich zocke in 1280x1024 mit HDR inkl. 4xAF alle Details 100% außer Gras und Bäume 75% sowie deren Schatten "aus" ohne ruckeln.

Das ist kein "NVidia Karten sind besser" Thread. Der Test zeigt eindeutig dass NVidia Single Karten übel abschmieren in dem Spiel. Ich hab nur die SLI Performance gepostet weil ich davon so überrascht war. Dass ATI Karten einzeln schneller sind wußte ich auch vorher.
 
Ich wollte nur die Leistung im Singlebetrieb einer ATI bestätigen.
Im Crossfire Modus brechen die FPS nur in hohen Auflösungen ein.Also muss ja ein Fehler im Treiber vorliegen.
 
Das die x1900er im CF schlechter baschneiden als die 7900gt`s find ich eher unglaubwürdig, da Oblivion ein sehr Shaderlastiges Spiel ist und die X1900er davon 48!!! haben.
Das hier steht bei Tomshardware zu Oblivion u. x1900xtx:
"Da Oblivion mit vielen Shader-Effekten arbeitet, sollte der Radeon X1900 XTX einiges bringen. ATI hat die Pixelshader-Einheiten zum Vorgängerchip verdreifacht. Das war der richtige Weg, wie die Bildraten beweisen, die liegen in ungünstigen Situationen zwischen 21 und 34 fps. Reitet man mit dem Pferd durch die Welt, tritt jetzt der Effekt ein, dass die Festplatte beim Nachladen der Landschaften sichtbare Probleme bekommt."
Oblivion Benchmark mit Fraps, 1024 x 768 Pixel, no AA, no AF, Grafikqualität Maximum, HDR-Rendering aktiviert:
Intel 3,2 GHz Dual Core, 7800 GT => 15 Frames
Intel 3,2 GHz Dual Core, X1900 XTX => 28 Frames

Ob dann wirklich Crossfire so reinhaut? Eigentlich sollte es mitlerweile SLI mindestens ebenbürtig sein.
Wie auch immer...
 
Zuletzt bearbeitet:
Das kann man nicht so sagen.. Nur weil eine Karte schnell ist, sind es zwei noch lange nicht.. im Gegenteil. ATI hat keine wirklich guten Treiber, daher sind die Ergebnisse rechtens und korrekt. Lies mal das Fazit des Testes da... dann weißte es,)
 
Also bei mir ruckelts aber ich hab kein problem damit ;)

Wenn ich nur durch die Pampa renne, ist es mir wayne, ob ich 20 oder 40 Fps hab und in Kämpfen oder Städten sinds eh über 50 Fps, also kein Prob! :drool:

Die Verbesserung von durchschnittlich 39 Fps auf 55 Fps ist dann die 2te GTX doch ned wert!!! :bigok:
 
Der Test beweist lediglich das Crossfire immernoch

"What iss Cross and Who iss Fire"

übersetzt heisst.

Der Test ist eben für DualGPU User interessant und legitim , ein
SingleCard Besitzer als ATI-ler interessiert es weniger , da rockt
es bekanntlich viel besser.

Greetz Koyote008
 
citizen_one schrieb:
Also bei mir ruckelts aber ich hab kein problem damit ;)

Wenn ich nur durch die Pampa renne, ist es mir wayne, ob ich 20 oder 40 Fps hab und in Kämpfen oder Städten sinds eh über 50 Fps, also kein Prob! :drool:

Die Verbesserung von durchschnittlich 39 Fps auf 55 Fps ist dann die 2te GTX doch ned wert!!! :bigok:

Das ist ja alles schön und gut aber ich denke dass eine 7900GT (oder 7800GTX) zumindest so gut abschneiden sollte wie eine X1800XT. Ich finde die Performance erschreckend. Zum Glück ists in nem Spiel dass ich sowieso nicht spiele, sonst schneidet die 7900GT ja immer sehr gut ab. Aber wenn die X1800XT in Spielen wie Condemned oder Alan Wake auch so davon zieht, dann werd ich mir in den Arsch beißen, dass ich die nicht gekauft habe. Die Spiele will ich nämlich zocken. :fresse:
 
Da brauchst du dir nicht in den Arsch beißen!!! :xmas: Ich vertrau lieber auf eigene Messungen! Wenn ich irgendwo nen Test lese, dass die 7900GTX schneller als die x1900XTX ist und dann im nächsten Test das Ergebnis umgedreht ist, frag ich mich manchmal doch, wo den Testern das Hirn hängt (sry an alle ehrlichen Tester ;) )!

Wenn natürlich gleich auf der Seite ein "Sponsored by ATI" Logo hängt, ist klar, wer gewinnt...

Ich würd daher sagen, die zwoa sind recht gleichschnell, wobei die 7900GT leicht vorne liegen könnte... :shot: :drool:
 
Crossfire unterstützung kommt erst mit denn CAT.6.4 also abwarten mall gucken wie dann die ergebnisse aussehen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh