***8800GTS vs. 2900XT THREAD***

Nein, einen OC E6600 auf nem Commando mit 4x1Gig Ram.
Aber der Unterschied (und wir sprechen jetzt von IDLE) zum Quad ist jetzt auch nicht so krass. Ich habe jetzt im Idle mit meinem System ohne die Wakü gute 160W an der Steckdose. Würde es gerne mal eben komplett messen, aber dazu müsste ich schnell den Rechner abstecken ;)
Die Ultra macht dann ein paar Watt mehr, also in etwa das, was ich vorher hatte, nämlich so 190W.

Und ich sage nochmal wir sprechen von idle! Da sollten dann auch Stromsparmechanismen aktiviert sein. Wenn die einer ausschaltet kann man dem nicht helfen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann würde ich mal an deinem System arbeiten. :(

IDLE:


LOAD:




Sry für die miese Quali, komm da in die Ecke hinterm Schreibtisch kaum ran.

Ich nutze halt C1E/Eist, die Karte lief aber auch idle mit Standardtakt.
D.h. CPU idle 2,4Ghz/1.16v und load 3,2Ghz/1.30v

Natürlich kann ich jetzt auch die 3,6Ghz und GTS auf 648 laufen lassen, aber dann habe ich halt unter Last etwas mehr... nur idle darf so bei dir nicht sein.

Der Wert bei mir ist auch wirklich der komplette Rechner inklusive Wasserkühlung, 2 Festplatten und die 8 Lüfter.
 
LOL ihr nimmt die Werte die das NT aus der Steckdose zieht nun geh ich mal davon aus das ihr ein gutes NT habt dann Verbraucht euer System ca 80% dessen was ihr da gemessen habt.
zb. bei zocker28 zieht das NT 427 Watt in Load aus der Steckdose da sein netzteil aber nur maximal eine Effizienz von 80% hat verbraucht sein System ca 342 Watt.

Nur weil dein NT vieleicht so viel stromm brauch heist dies noch lange nicht das die Komponeten dies auch brauchen.

und wehr weiss vieleicht hat er ja auch ein netzteil was noch mehr verlustleistung hat.
 
LOL ihr nimmt die Werte die das NT aus der Steckdose zieht nun geh ich mal davon aus das ihr ein gutes NT habt dann Verbraucht euer System ca 80% dessen was ihr da gemessen habt.

Ach neeeee :fresse:
Man, das hätte ich jetzt ohne dich nicht gewusst, hab doch immer gefehlt in der e-technik Vorlesung :d
*ironie off*

Darum geht es doch überhaupt nicht, was du hier schreibst, hauptsache irgendwas zum Thema ablassen...
Es ging darum, dass sein idle Verbrauch m.E. einfach viel zu hoch ist, Wirkungsgrad hin oder her.
 
*lach*

Ich gebe dir mal ein Netzteil mit einer Wirkungsgrad von 10% und dann sage ich dir mein Sys verbraucht im idl 1000Watt aus der Steckdose und was sagt dir das dann ohne den wirkungsgrad des Netzteils zu kennen nichts nur das mein sys angeblich viel strom verbraucht.
Er hat nen unterschied von 100 Watt von idle zu load . Das ist doch ganz ok.
 
Da man aber das bezahlt was aus der Dose an Strom gezogen wird, spielt der Wirkungsgrad keine Rolle ;)

Und doch die G80 Karten sind im Idle ein wenig mies dran, vor allem wenn man Vista einsetzt, denn dort geht die Karte ja net in den 2D Takt sondern bleibt auf 3D Taktraten.
Des weiteren ist ein Vergleich von unterschiedlichen System wenns um den Stromverbrauch geht, total Sinnfrei, da die Graka nicht die einzige Komponente im Rechner ist die Strom brauch.
 
Grrr :shot: was denn für ein 2D Takt? Es gibt unter Vista sowie unter XP keinen bei denn Karten. Es ist beides das gleiche, und erstellt man einen, geht der unter Vista genau so wie unter XP :xmas:
 
Zuletzt bearbeitet:
Der G80 kann doch auch die Spannung nicht absenken oder wie war das?
 
so ich bin jetzt auchmal dazu gekommen 3dmark06 in HQ
zu testen also mit
16x AF
4AA



WOW lief noch im Hintergrund aber das soltle ja nichts zu sagen haben

weis eienr wie man bei der QWET demo benchen kann ?
 
Wieso ist die 2900XT auf guru3D auf einmal über all vorne?
Liegts an dem 7.9 catalyst? oder leigt der ATI einfach nur das Game
Wenn High Image Quality eingestellt ist, ist dann AA und AF automatisch angeschaltet?
 
Wieso ist die 2900XT auf guru3D auf einmal über all vorne?
Liegts an dem 7.9 catalyst? oder leigt der ATI einfach nur das Game
Wenn High Image Quality eingestellt ist, ist dann AA und AF automatisch angeschaltet?
Überall vorne stimmt nicht.
Bei Very High ist 4xAA und 4xAF Automatisch aktiviert. Die haben den 7.9er getestet beim 7.10 Beta kommen nochmal 2 FPS zu.
 
Zuletzt bearbeitet:
Demnach scheint man das einbrechen der Frames bei zugeschaltetem AA und AF mit dem Treiber endlich oder so langsam in den Griff bekommen zu haben;)
LoL, habe mich doch echt verschaut, haben die jedes mal ne andere farbe im BenchScreen für ne karte genommen
Aber trotzdem hat sich die 2900XT laut diesem Test verbessert, wenn man den mit anderen tests wie von CB vergleicht ;)
 
Zuletzt bearbeitet:
Kann doch nicht sein, dass die 8800GTS 320 mit einer 8600GTS gleich aufliegt! :hmm: Und die 640MB-Variante fehlt ganz!

Gruß
:wink:
 
Demnach scheint man das einbrechen der Frames bei zugeschaltetem AA und AF mit dem Treiber endlich oder so langsam in den Griff bekommen zu haben;)

Naja ich sag mal so es ist nicht in jedem Game gleich.;)


Kann doch nicht sein, dass die 8800GTS 320 mit einer 8600GTS gleich aufliegt! :hmm: Und die 640MB-Variante fehlt ganz!

Gruß
:wink:

Bei WIC kommt der Vram Bug der 8800GTS 320mb richtig zum vorschein und dann wird es übel.


wenn man den mit anderen tests wie von CB vergleicht ;)

Die CB Tests würde ich nicht überbewerten die Qualität hat stark nachgelassen ;)
 
Zuletzt bearbeitet:
Kann doch nicht sein, dass die 8800GTS 320 mit einer 8600GTS gleich aufliegt! :hmm: Und die 640MB-Variante fehlt ganz!

Gruß
:wink:

schau mal die auflösung an...grafikkarten sind nicht mein fachgebiet aber ich würde sagen dass die auflösung für die 320MB einfach zu hoch ist. die karte wird also durch mangelnden speicher ausgebremst. da ist dann egal ob du ne 6600GT oder ne 8800GTS hast :bigok:

bitte um korrektur mit erklärung falls es nicht stimmt das 320MB für eine 1600*xxxx auflösung zu wenig sind....
 
Argh, die Auflösung! :fresse:

Dann interessiert mich erst recht, was eine 8800GTS mit 640MB macht!

Gruß
:wink:
 
Habe diese Frage zwar schon öfters in den raum gestellt, aber so richtig hat da niemand drauf geantwortet.
Warum benchendie fast nur noch in so merkwürdigen Auflösungen. Ich meine mind. 90% (oder mehr) der Zocker spielen doch auf der 19´er Auflösung 1280x1024. Denn ein 19´er TFT kann ja nur 1280x1024. Ich sehe aber fast keine Benches mehr in dieser Auflösung.
Also was macht es dann für einen Sinn.
Ein Bench. soll mir doch verdeutlichen was die jeweilige Graka in dem jeweiligen Game auf einem Monitor den die meisten Leute besitzen an Leistung bringt.
So wenn man dann aber einen riesen Monitor dahinstellt den eh kein normaler User zu hause hat, dann hat doch der ganze Bench keine AussageKraft mehr, oder nicht?
Oder ist die Auflösung zu vernachlässigen? Denke nicht.
 
@JiriMan
Die Auflösung spielt keine primäre Rolle in Sachen VRam. Das bissl mehr Verbrauch was durch die höhere Auflösung gebraucht wird lässt sich an einer Hand abzählen.
Viel mehr kommt bei der 320er GTS der VRam Bug zum tragen, der die Karte andauernd Daten zum/aus dem Ram schaufeln lässt und somit extreme FPS Einbrüche zustande kommen...

@[SFB]Joshua
Neja ein Bench ist eher dafür da verschiedene Geräte (in dem Fall Grakas) in bestimmten Einstellungen zu vergleichen, um herrauszufinden welche schneller ist.
Wenn nun der Kunde "X" im Netz nach Benches schaut und sieht High Details bei 1600x1200 und hat selbst nen Monitor welcher nur 1280x1024 macht, dann kann sein Ergebniss nur besser werden :fresse:
So seh ich das zumindest.
 
Zuletzt bearbeitet:
Vram ist Rappelvoll :eek: bei der 2900er hatte ich in keinem Game vorher (ARMA hatte 440mb).

 
Hab das selbe Problem mit F.e.a.r . nach ein paar minuten wirds unspielbar langsam mit der hd2900xt.Installier ich aber mehr arbeitsspeicher läufts länger flüssig.Das selbe gilt für world in conflict.die karte holt sich zusätzlichen ram vom arbeitspeicher, zeigt auch das setuptool von medal of honor airborn an. da hat die 2900xt auf einmal 2gb vram. Unter DX 10 ist meine Karte fast 10 grad kühler in World in conflict,komisch oder ?
 
Zuletzt bearbeitet:
Kann doch nicht sein, dass die 8800GTS 320 mit einer 8600GTS gleich aufliegt! :hmm: Und die 640MB-Variante fehlt ganz!

Gruß
:wink:
Jupp und ne X1950XTX ist nur so schnell wie ne 7900GTX bis 1600x1200 und ab
2560x1600 dann krass der Unterschied von 5 FPS(GTX) vs 13 (X1950XTX).....
 
Ich hab bei meiner GTX max 448MB VRam @1680 very high......

Gruß
Martin
 
wieso komisch, das machen alle Karten wenn ihnen der VRam ausgeht, sprich die lagern in den Speicher aus, ... ;)
 
@fdsonne

ich meinte das die karte unter dx 10 kühler ist und nich mit dem vram auslagern.Das machten schon Agp karten...
 
Zuletzt bearbeitet:
Hab das selbe Problem mit F.e.a.r . nach ein paar minuten wirds unspielbar langsam mit der hd2900xt.Installier ich aber mehr arbeitsspeicher läufts länger flüssig.Das selbe gilt für world in conflict.die karte holt sich zusätzlichen ram vom arbeitspeicher, zeigt auch das setuptool von medal of honor airborn an. da hat die 2900xt auf einmal 2gb vram. Unter DX 10 ist meine Karte fast 10 grad kühler in World in conflict,komisch oder ?
^

Hast du eine Logitek tastatur? Wenn aj in Fear bereiten Logitek tastaturen Probleme vorallem die G15.....



es kommt eben auf die spiele an, manchmal ist eine 7900 GTX schneller.
Naja eine X1950XTX Sollte schon um einiges schnelelr als ne 7900GTX sein!!!!!!



Gruß

Eagleone19
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh