X800 XT PE vs. 6800 Ultra

@Fisepeter Full ACK.

Gibts eigentlich auch gute Omegatreiber für nVidia oder existiert sowas nicht?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
gabs mal aber nVidia hats denen verboten, die weiter zu entwickeln lol

Edit: was heißt *Full ACK* :confused:
 
Zuletzt bearbeitet:
@User48: Welche "Optimierungen" meinst du genau?
Und welche haben was für einen Einfluss auf Bildqualität & Leistung?
Mit freundlichen Grüssen, Destroyer
 
und wenn du immer mit deinen kram im hintergrund läuft kommst.....machs doch einfach aus, benche, berichte und nicht sowas halbes wie ich hatte das und das nebenbei laufen und habe die und die punkte, hätte ich das und das aber aus wäre es alles noch viel viel besser,


Ein Computer ist bei mir halt nicht nur zum Spielen da, und was ich laufen lasse das überlass mal schön mir und dafür das ich selbst beim Spielen Z.b den Esel laufen lasse, und selbst meiner Frau bei den Sims 2 auffällt (die nur Bahnhof von Computern versteht) wie sehr die Bildqualität gestiegen ist halte ich das ergebniss schon für ein gutes Preis leistungsverhältniss. Es war ausserdem nicht die Frage welcher Chip hier Technisch raffinierter ist. Sondern welcher die Leistung bringt die man wohl gern versucht zu haben.


Du hörst dich eher wie einer von der Marketing abteilung von NVdia an, ich sagte meine meinung und die ist das ich Lieber ware aus Canada beziehe als aus den Sonnenverbranten Californien. -Basta-
 
@Fiesepeter: Full ACK steht für Full Acknowledgement, also volle Zustimmung in dem Fall
 
Also die beiden Karten verbrauchen in etwa das gleiche an Strom, die neue X850 XT PE braucht ja sogar mehr als die 6800U. Von der Bildquali sieht man als normaler PC Spieler da auch keinen Unterschied und das es bei ATi flackern soll, halte ich auch für ein Gerücht. Da wurden zwar Optimierungen vorgenommen, aber beim Spielen merkt man davon überhaupt nichts.

Es ist eben wie schon gesagt eine Glaubensfrage, wenn sich die Karten so wenig nehmen. Ich würde da einfach auf Verfügbarkeit und Preis achten.

mfg
 
Destroyer schrieb:
@User48: Welche "Optimierungen" meinst du genau?
Und welche haben was für einen Einfluss auf Bildqualität & Leistung?
Mit freundlichen Grüssen, Destroyer

Er meint das mit dem "brilinear" ,da war dochmal ein riesen Bericht bei THG ,das ATI "mogelt" und kein echtes Trilinear kann usw ,deswegen die Bildquali schlechter wäre,hab ich jetz grad nicht den link zur Hand.
Wie gesagt ich hab den Unterschied sehr deutlich bei nfsu2 und HL2 gesehn,is aber wayne jeder wie er meint...

Vom Strom her verbraucht ne 6800 ultra schon mehr als ne x800xt pe,is aber jetz auch nich soo viel.
Und lauter sindse wohl auch,was mir aber sowas von an de Eier vorbeigeht sorry...
Für mich zählen Argumente wie keine Grafikfehler oder sonstige bug/Treiber Probleme ,was ich vorher bei ATI hatte,Leistung satt,bessere Bildquali und ich meine nicht Sattere Farben.Liegt aber wohl eher an den features der Karte oder am Schader 3.0 oder ka ...
 
Fisepeter schrieb:
SM3 hin oder her, wenns zum Einsatz kommt ist die Karte sowieso wieder zu lahm, genau wie ATI *schlagmichtot* mega super Texturkomprimierung die im Enteffekt
weniger FPS macht als vorher.
Komisch. Das selbe hat man bei der R300 (9700 PRO) gesagt.
Meine 9700 PRO hat bis vor kurzem jedes PS2.0 Spiel problemlos mit allem drum und dran darstellen können, ohne ins Schwitzen zu kommen.
Ob die 6800U schnell genug für PS3.0 ist wissen wir in 1. Jahr und sicher nicht früher.
 
Der wird doch schon in FarCry für HDR verwendet, da gehts doch.
Hab zwar ne X800 XT, aber dass der SM 3.0 ein Vorteil für Nvidia ist kann man absolut nicht abstreiten.
 
@hotracer

so wie du singst bist du der fanboy.

wo hat user48 behauptet dass die 6800 weniger strom braucht als die ati?
oder was sagt es schon über eine grafikkarte aus wenn sie 2 stromanschlüsse hat? Die ati benötigt vielleicht 5% weniger
strom, aber weil die nur einen anschluss hat ist die nvidia der stromfresser?? sag das mal einem elektrotechniker,
und der lässt dich in de klapse einschicken. und wo entspricht es der wahrheit, das die nv die elektrische energie die sie aufnimmt
in form von thermischer Verlustleistung wieder abgibt? etwa nur um den benutzer dann mit einem deutlich lauterem kühler zu ärgern.
Nvidia lötet ja auch zum spaß einen lastwiderstand unter den kühler der Graka. lol!!!!!

zitat: "eh ich lönnt mich nur über dich lustig machen, so wie du hier diskutierst..."

zu den treibern.

zitat: "treiber sache.....hmmmm.....erstens kann man sich die "zahlen" der ati treiber viel besser "entziffern" und man weis sofort was der akuelsset ist, ganz anders bei nvidea, wo 4 stellige zahlen verwendet werden, und wo überhaupt kein schme drinn steckt..... "

zu dem was ich entziffern konnte:

was ist so schwer dran, sich 4 zahlen (nv) zu merken im gegansatz zu 3 (ati)???
und wo bittesehr ist es schwer den aktuellsten treiber zu finden wenn diese durchnummeriert werden und der aktuellste immer die höchste zahl besitzt.
nvidia hat schon vor vielen jahren mit mit dem detonator und der tnt (oder tnt2 wars) angefangen.
und die fingen nicht mit 50.00 an nur weil sie mittlerweile die 70 geknackt haben.

so genug

vielleicht fühlst du dich jetzt sehr angegriffen, allerdings habe ich hier auf fakten hingewiesen und nicht so wie DU, der die worte von user48 verdreht.
 
Zuletzt bearbeitet:
1.also das temperatur gelabere ist wirklich amüsant genauso wie die logik zwei anshclüsse gleich mehr strom....

2.guckt doch einfach in eure treiber....da seht ihr wie warm die karten werden. dann schreibt ihrs hier rein und wir können mal mit fakten diskutieren.

3.die übersichtlichkeit der treiber ist bei ati schon besser. ich hatte ne 9800np und daher die ati treiber gewohnt. die umstellung auf die detonator treiber war da schon etwas gewöhnunsbedürftig. wohl sollte aber das für leute eines alters jenseits der 15 kein problem darstellen.

4.die leistung bei dieser grafikkartengen. ist wohl mehr als ausgeglichen. die eine ist bei dem spiel stärker die andere bei nem anderen.

mfg alex
 
full ack, wäre da nicht deine grundsätzliche herabsetzung von minderjährigen drin gewesen, wäre das ein post für die ewigkeit gewesen :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh