8800GTX SAMMEL-THREAD >> bitte immer erst die erste Seite lesen! (Part 3)

Status
Für weitere Antworten geschlossen.
Du, ich kenn mich da recht gut aus. Und Benches deuten kann ich auch. Selbst mit einem fetten Quad kämen die 2 GTX nicht aus dem Quark. Sieh dir mal die Unterschiede zw. 1920 und 1280 an. Das sind Welten 77% Unterschied an Pixeln. Dementsprechend mehr müssen die Karten auch leisten.
Man kann in etwa sagen, dass eine GTX @ 1280x1024 genauso skaliert wie GTX-SLI @ 1920x1200. Hab ich längst getestet.
Bei Auflösungen ab 1600x1xxx + AA/AF limitieren eher die Grakas statt die CPU.
Bei 1280x1024 ohne AA/AF hast du recht - da bremst die CPU.

Das der Sprung von 1680 zu 1920 nicht so gross ist stimmt nicht ganz. Du kannst es selber ausrechnen. Der unterschied liegt bei 30%.

Also ich kann beispielsweise jedes game mit 1. GTX auf 1680x1280 mit über 60 fps zocken, völlig wayne welches game.

Du meinst vielleicht im Schnitt, aber was ist Min.-FPS? Manche Spiele reißen die Performance um über 70% runter. Dann iss nix mehr mit 60FPS. Teste einfach mal die ARMA-Demo oder Lost Planet-Demo. Wenn Crysis da ist wirst du bei dieser Auflösung + höchsten Details nicht glücklich.
Aber du hast ja ein EVGA-MB. Eine 2. GTX ist gleich drin. Wirste evtl. bald brauchen. Das verspreche ich dir ;)

@ Supermax2003

Ich musste nicht lange nachdenken wie gross der TFT sein soll. 22" aufjeden Fall mal nicht. Der optische Unterschied bei Spielen zw. 19"-Auflösung und die eines 22" ist zwar schon gross, aber ich kann mit 22" nix anfangen wenn ich Filme in Full-HD gucken will. Zumal 24" ja nicht mehr die Welt kostet. Allerdings wäre SLI sehr von Vorteil.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ Roland166: Hab mir dein aktuelles Bios mal angeschaut. Scheint alles OK zu Sein. Hast den Lüfter auf 100% gefixt. Würd das aber dann doch abhängig von Takt machen. sagen wir 60-100%. und die Bootup clocks würd ich manuell auf deinen 2d takt umstellen. wenn du jetzt dein sys bootest, und direkt mit rivatuner deinen takt kontrollierst, dann haste sicherlichnoch nicht den korrekten 2d takt. erst, nachdem du in 3d gehst, haste danach deine 2d takte. ;)
 
hast recht, das ändere ich noch kurz.
Lüfter ist egal, da ja Wakü :),
aber den regel ich auch runter,
danke...:)
 
hat hier noch einer eine Asus Ultra?
hab hier eine,Bios 60.80.18.00.12 ist das aktuell?
wie taktet Ihr die Dinger,mit dem neuen Riva kann man ja den Shader ocen.
In 2D hab ich sie jetzt mal (Riva)303/765/333>69% Lüfter gestellt,da hab ich das AAs erstmal auf 49 Grad GPU Diode bekommen.

oki ich hab den Ultra Tread gefunden :d
 
Zuletzt bearbeitet:
Du, ich kenn mich da recht gut aus. Und Benches deuten kann ich auch. Selbst mit einem fetten Quad kämen die 2 GTX nicht aus dem Quark. Sieh dir mal die Unterschiede zw. 1920 und 1280 an. Das sind Welten 77% Unterschied an Pixeln. Dementsprechend mehr müssen die Karten auch leisten.
Man kann in etwa sagen, dass eine GTX @ 1280x1024 genauso skaliert wie GTX-SLI @ 1920x1200. Hab ich längst getestet.
Bei Auflösungen ab 1600x1xxx + AA/AF limitieren eher die Grakas statt die CPU.
Bei 1280x1024 ohne AA/AF hast du recht - da bremst die CPU.

Das der Sprung von 1680 zu 1920 nicht so gross ist stimmt nicht ganz. Du kannst es selber ausrechnen. Der unterschied liegt bei 30%.


Du meinst vielleicht im Schnitt, aber was ist Min.-FPS? Manche Spiele reißen die Performance um über 70% runter. Dann iss nix mehr mit 60FPS. Teste einfach mal die ARMA-Demo oder Lost Planet-Demo. Wenn Crysis da ist wirst du bei dieser Auflösung + höchsten Details nicht glücklich.
Aber du hast ja ein EVGA-MB. Eine 2. GTX ist gleich drin. Wirste evtl. bald brauchen. Das verspreche ich dir ;)

@ Supermax2003

Ich musste nicht lange nachdenken wie gross der TFT sein soll. 22" aufjeden Fall mal nicht. Der optische Unterschied bei Spielen zw. 19"-Auflösung und die eines 22" ist zwar schon gross, aber ich kann mit 22" nix anfangen wenn ich Filme in Full-HD gucken will. Zumal 24" ja nicht mehr die Welt kostet. Allerdings wäre SLI sehr von Vorteil.

Über SLI hab ich schon nachgedacht, doch lost planet demo läuft bei mir mit 1600x1280@ultra details bei min 59 fps, durchschnitt immer so bei 80-90. Arma (armed assault?) hab ich leider nicht. Ich meine auch das die skalierung vom Quad zum Dualcore einiges reisen kann.
 
Wie jetzt??

profitiert jedes Game von QuadCore???

Dachte die Games müssten das unterstützen.

Greetz
Pistolenstern
 
Über SLI hab ich schon nachgedacht, doch lost planet demo läuft bei mir mit 1600x1280@ultra details bei min 59 fps, durchschnitt immer so bei 80-90. Arma (armed assault?) hab ich leider nicht. Ich meine auch das die skalierung vom Quad zum Dualcore einiges reisen kann.

Und Min.-FPS? Das sind die wichtigsten FPS!!! Durchschnitt und Max. interessieren evtl. nur unerfahrene User. Anzeigen tut die Demo das leider nicht. Man muss da dabei hocken bleiben und die FPS genau beobachten.

Sorry, aber irgendwie glaube ich diesem Ergebnis nicht. Ich weiss nicht, was du genau eingestellt hast. Ich hab mal nur eine GTX @ Ultra genommen + 1600x1200 (1600x1280 gibt es bei mir nicht). Die Settings sind auch alle so hoch eingestellt wie es geht. Heraus gekommen ist (im Schnitt)...

Snow 29/Cave 44

Bitte einen Beweis-Screen ;)
Unter KEINEN Umständen kann es an der anderen CPU liegen. Wir müssten bei gleicher Einstellung ziemlich genau das gleiche Ergebnis haben.

Ach ja, die Min.-FPS bei einer GTX @ Ultra sind bei kurzzeitig unter 14fps!!! ;)
 
weiss einer wie das ist wenn man der Graka n separates NT zwecks Stromversorgung zur Seite stellen will?
 
Und Min.-FPS? Das sind die wichtigsten FPS!!! Durchschnitt und Max. interessieren evtl. nur unerfahrene User. Anzeigen tut die Demo das leider nicht. Man muss da dabei hocken bleiben und die FPS genau beobachten.

Sorry, aber irgendwie glaube ich diesem Ergebnis nicht. Ich weiss nicht, was du genau eingestellt hast. Ich hab mal nur eine GTX @ Ultra genommen + 1600x1200 (1600x1280 gibt es bei mir nicht). Die Settings sind auch alle so hoch eingestellt wie es geht. Heraus gekommen ist (im Schnitt)...

Snow 29/Cave 44

Bitte einen Beweis-Screen ;)
Unter KEINEN Umständen kann es an der anderen CPU liegen. Wir müssten bei gleicher Einstellung ziemlich genau das gleiche Ergebnis haben.

Ach ja, die Min.-FPS bei einer GTX @ Ultra sind bei kurzzeitig unter 14fps!!! ;)

Die fullversion hat den benchmark nicht, trotzdem spiele ich nirgends unter 30 fps (ich meinte natürlich 1600x1200, mehr geht bei mir nicht). Ich kann dir gern nen game screenshot mit fps anzeigen zeigen, doch die demo saug ich net nochmal...

doch lost planet demo läuft bei mir mit 1600x1280@ultra details bei min 59 fps,

Wohl überlesen?! :hmm:
 
weiss einer wie das ist wenn man der Graka n separates NT zwecks Stromversorgung zur Seite stellen will?

Warum willst das machen?
Im Prinzip ganz einfach:
Am 2. NT einen Überbrückungs-Stecker auf das "MB-Kabel" stecken, so daß das NT "an" ist, und dann die Graka damit speisen.
Kannst das NT auch überbrücken, aber so ein Adapter ist normalerweise bei Wakü-Pumpen dabei, um zu entlüften.
 
Die fullversion hat den benchmark nicht, trotzdem spiele ich nirgends unter 30 fps (ich meinte natürlich 1600x1200, mehr geht bei mir nicht). Ich kann dir gern nen game screenshot mit fps anzeigen zeigen, doch die demo saug ich net nochmal...



Wohl überlesen?! :hmm:

Oben schreibst du auch "doch lost planet demo läuft bei mir mit 1600x1280@ultra details bei min 59 fps" Was denn nun - Demo oder Full?
Also wenn du die Demo hast, die ich hab, dann kannst du unmöglich min. 59fps haben. Das wäre ja überirdisch viel. Das schafft nicht mal mein GTX-SLI @ Ultra!!! Viell. hast du eine aktuelle Demo oder irgendwelche Setting nicht hoch genug eingestellt. Bei meinen Settings/Demo hättest du auf jeden Fall wie ich min. 14fps ;)
 
Zuletzt bearbeitet:
Hallo

Sagt habe mal so rumgeschaut und bin dabei auf MVKTech auf ein Bios für die XFX 8800GTX gestoßen. Ist das ein Bios direkt von XFX und was wird bzw. wurde geändert.

Aktuell habe ich auf beiden Karten die 60.80.08.00.038
bei MVKTech gibt es eine 60.80.0E.00.02

Was ist oder mag dieses Bios ändern?
 
wie ist das denn mit dem anderen Bios?
Ich habe eine Sparkle 8800 GTX aber noch nie ein Bios update durchgeführt.
Was bringt das denn und woher bekomm ich eines?
 
hab meinen 223bw tft von samsung und meinen toshiba 37c3001p lcd tv an meiner 8800gtx
kann nur noch clonen und kein dual view auswählen.
hab die neue forceware druff...
was kann ich da nun tun?
 
Kleine Frage/Festellung. Meine 8800GTX ist im idel schon bei 75°C und steigt unter Last bis auf 100°C. Es wäre doch sinnvoll jetzt die Wärmeleitpaste zu wechseln, denn wenn man mal 2 Stunden oder mehr am Stück spielt sind 100°C auf Dauer nicht gut.

Wie sieht es mit der Lüftung des Gehäuses bei Dir aus. Ich würde nicht gleich die Karte zerlegen.

Hier mal ein Screenshot von meinem System nach 5h Betriebszeit und jede Menge Excel-Arbeit:d also Idle
 

Anhänge

  • Temps@Everest.jpg
    Temps@Everest.jpg
    114,9 KB · Aufrufe: 57
mich würd auch mal interessieren was so ein biosupdate bringt?!?
und welche software brauch man dazu?
und noch was da steht bei meiner xfx8800gxt rev1 oder rev2 oder rev3.
sind das nur die unterschiedlichen biosversionen oder bezieht sich das auf die karten?
 
Deine Temps sind völlig okay und über ne Biosupdate braucht man sich keine Gedanken machen bei der Graka , dass ist Unsinn.

Es sein den du bastelst dir gleich nen Modbios oder flasht sie zur Ultra.

Ansonsten ist es absolut Sinnlos. ;)
 
Hallo leute

Ich hab das irgendwie mit den 27 mhz schritten beim OC noch nicht ganz gerafft

ich hab ne 8800 GTX hier, wenn ich jetzt auf die 612 mhz der ultra z.b. takte dann sind die intern ja auch drine?

bringt es dann eigentlich etwas wenn ich sie auf meinetwegen 620 mhz takte oder bleibt dann die leistung gleich wie bei 612 mhz?

Oder müsste ich erst soweit takten bis ich zu den 648 mhz komme das ich zum nächsten leistungs schub duch OC komme

gruß

Paynis

könnte mir heute einer bitte drauf antworten
 
So wir schauen uns als erstes diese wunderbare Grafik an...->

8800cbp6.jpg


In der ersten Spalte siehst du zum Beispiel den Takt welchen du dir selber einstellst. In der 3.Spalte siehst du den Takt der dann wirklich an der GPU anliegt.

Sagen wir du stellst dir 600Mhz ein, dann würde der Kern mit 594Mhz laufen. Das heißt der Kerntakt selber macht immer 27Mhz Sprünge bis zur nächsten Stufe. 540Mhz->567Mhz->576Mhz->594Mhz->621Mhz-> usw. Wenn du einen Takt dazwischen einstellst ,entscheidet der Core ob auf oder abgerundet wird.

heißt:
600Mhz von dir -> auf 594Mhz von Core wird abgerundet.
615Mhz von dir -> auf 621Mhz von Core aufgerundet. Einfach die Hälfte nehmen von 27Mhz = 13.5 Mhz bis 13Mhz abgerundet alles drüber bis 27Mhz wird aufgerundet.

So hoffe du konntest das verstehen :fresse:
 
Zuletzt bearbeitet:
und mir vllt. noch einer auf mein dual view prob?
 
Zuletzt bearbeitet:
ok danke dann lass ich das mal mit dem biosupdate.
ich dachte nur das es vielleicht an den temps was ändert oder weiss der geier mehr kompatiblität oder?!? naja egal...
 
joo danke Le_Frog jetzt hab ichs geschnalt

also bringt es auf deutsch nix wenn einer sagt seine karte läuft mit 650 oder 655 stabil, da er intern eh nur 648 anliegen hat und auch in benches bringt es nichts
 
Komischerweise sind die 684MHz der einzigste Takt, der aus keinem 27MHz-Sprung resultiert.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh