Nvidia 9800GX2 "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen [Part 1]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man wieviele doch wieder nVidia die Kohle in Rachen schmeißen für nix :stupid: Also von Dual GPU, SLI, Corssfire und wie sie alle heissen halte ich eh nichts mehr. Nachdem ich schon 2x 79er GT´s hatte und ne 7950 GX2 ist mir die Lust auf Multi GPU gewaltig vergangen! Hatte durchgehend Profilprobleme und die beliebten Mikroruckler, wo ich hätte fast kotzen können.

Mit der 88er GTX ist nVidia ein Meilenstein gelungen, vor allem wenn man nun die 98er GTX betrachtet, welche anscheinend auch wie zum Sau futtern verkauft wird :kotz: Versteh nicht, warum die Leute sowas auch noch unterstützen!?!?!? Anstatt nen gescheiten Quantensprung abzuwarten (vielleicht GT200 oder so)...

Naja aber den Menschen verstehen ist eh so ne Sache für sich... blöd nur dass ich auch zu dieser Gattung gehöre :fresse:
 
jo genau die Microruckler,ich lach mich schlapp,wenn Tombman nicht nachgestiegen wäre,wüßt es heut noch keiner.
Dummes Gelaaber!
Und wer spielt schon indem er künstlich die FPS auf 30 runtersetzt,manman keine Ahnung und Mikroruckler benutzen.
 
Microruckler wird wohl das Modewort 2008.
Hätte man es nicht zufällig entdeckt, würde keiner Wissen was das ist.
 
Wieso dummes Gelabber... In dieser Situation ist sicher im Spiel die Einzel GPU besser als MultiGPU. Und zwar wegen dem Gelagge im Spiel.

Ich habe selbst einige Erfahrungen in MultiGPU und vor allem bei neuen Games kommt dies häufig vor, selbst nachdem die Treiber optimiert worden sind.

Und zwar deshalb, da die neusten Games trotz neuster Hardware nur um die 30 FPS bringen. Je nach Auflösung ...

@ zuppi > Seit wann sind Tatsachen dummes Gelabber... wohl eher Dein Kommentar... Oder was meinst Du... es wäre niemandem aufgefallen, dass dieser Bench völlige ZickZackKurve in den FPS zeigt.

Auch wenn das Wort "Microruckler" für einige als Modewort gilt, (was es nicht ist), so sagen wir ihm halt FPS-Einbrüche. Oder ist das etwa auch Gelabber... obschon es ganz klar Tatsache ist?

Wir haben doch das gleiche Bild vor Augen... oder? Was meinst Du, wieso brechen denn die FPS gegen null ein. http://www.forumdeluxx.de/forum/showpost.php?p=8818410&postcount=1215
...

Hinzugefügter Post:

Auch auf die Gefahr hin mich jetzt völlig zum Idioten zu machen: Wie soll man Ruckler auf einem Screenshot sehen können?

Screenshot der FPS im Bench. Oder was dachtest Du? Der Post war ja zwei Positionen oben dran und ich habe ja noch extra mit Namen betitelt.

Also so schwierig sollte das doch nicht sein, einen Bezug zu finden. Ich dachte, es ginge ohne dass ich den ganzen Screenshot nochmals in den Post einbaue.... Anscheinend nicht.....

btr. übrigens auch Oliver...

Benchen wie die Wilden... aber Werte lesen...? ... :shot: ...

....

PS. Ne Frage.... Habt ihr schon mal getestet, ob's nen Unterschied macht, wenn ihr den KB-Patch für MultiCore CPU's installiert? Wie's für AMD den DualCoreOptimizer gibt, hat's für Intel CPU's ja auch einige Patches. Einer ist expliziet für Games. Über Google findet man einige auf Microsoft Seiten. Zum Beispiel KB896256, welcher in diversen Versionen nachgereicht wurde. Aktuell ist, glaube ich Version 4. Es gibt aber noch etliche andere. Nicht nur für AMD, auch für MultiCoreCpu's allgemein. Es gibt z.Bsp. noch den KB-909944 und andere ähnliche.

Dazu gibt's hier noch ein paar Infos in Sachen mehrere Cores und Games. Welche Spiele mit welcher Version gefixt wurden. Wobei die Infos sind alt, aber gleichwohl gut, um nen Überblick zu bekommen, worum's geht. Der Hotfix wird ja nicht automatisch mitinstalliert.

Der Hotfix lässt sich über die Registry ein und auschalten. Klar. Der ist ja inzwischen auch schon älter, ist aber nicht nur so immer wieder erneuert worden.

Es gibt ja je nachdem speziell für einige Games von Microsoft Hotfixes btr. MultiCore Systeme. Es muss also nicht immer die Grafikkarte, bzw. an SLI liegen.
...
 
Zuletzt bearbeitet:
gelaaber ist gelaaber!
Erklär mir wo die Miniruckler auftreten und vorallem wann und wie.

Zitat von MrLeopard
Auch auf die Gefahr hin mich jetzt völlig zum Idioten zu machen: Wie soll man Ruckler auf einem Screenshot sehen können?

Screenshot der FPS im Bench. Oder was dachtest Du? Der Post war ja zwei Positionen oben dran und ich habe ja noch extra mit Namen betitelt.

Also so schwierig sollte das doch nicht sein, einen Bezug zu finden. Ich dachte, es ginge ohne dass ich den ganzen Screenshot nochmals in den Post einbaue.... Anscheinend nicht.....

btr. übrigens auch Oliver...

Benchen wie die Wilden... aber Werte lesen...? ... ...

Und vorallem muß "du" mir erklären was du auf dem Bildchen siehst....
 
Zuletzt bearbeitet:
Darstellungsfehler XP

Hallo, hab endlich meine Leadtek 9800 GX2 bekommen, und meine 7950GT in Rente geschikt. Unter Vista X64 Läuft alles zufriedenstellend :p(3DMark06 11000 Points, alles No OC,siehe Sig.)

Allerdings unter XP, (andere Platte) bei meiner Standard Auflösung von 1600x1200, kommt ein Darstellungs-Grafikfehler (siehe Bild). Mit VGA Auflösung ist das Bild noch Normal.

Treiber ist der Aktuelle unter Xp 174.74 und unter Vista 174.74 X64.

Ich weiß, mein System ist nicht die ideale Zusammenstellung.
Aber das unter XP ist doch nicht normal. Will noch nicht auf XP ganz verzichten.:d

Eine Neuinstallation von XP brachte auch nix.

Liegt das am Treiber, oder brauch ich ein neues Board mit PCIE 2.0 ???

Grus Veganos
 

Anhänge

  • XP.jpg
    XP.jpg
    72 KB · Aufrufe: 49
1. Hast Du denn nach der Treiber Installation irgendwelche Veränderungen am Treiber vorgenommen?

2. Hast Du die Platte formattiert oder nur ne Reparatur von Xp gemacht?

3. Wenn nur repariert, dann deinstallier im abgesicherten Modus die Treiber und ggf. Tools des Grafikkartenherstellers der alten Karte. Wenn die noch nicht deinstalliert worden sind. (Aber dies käme nur in Frage, wenn Du nur eine Reparatur vorgenommen hättest, anstatt einer richtigen Neuinstallation).

> Läuft die Karte (btr. dem Screenshot) denn im Standard-Takt? > Ist Multi-GPU in der nVidia Systemsteuerung aktiv? (Aber keine Veränderung am Treiber vorgenommen?)

Wenn ja das Ganze unter Vista gut läuft, auch die Games, dann liegt es eher an irgend nem Fehler in der Installation. Deshalb im abgesicherten Modus Treiber deinstallieren > Sicherstellen, dass keine Tools mehr von der alten Grafikkarte installiert sind > ggf. den ganzen nVidiaCorporationEintrag ind der Registry unter LocalMachine nach der Deinstallation löschen.
 
Zuletzt bearbeitet:
1.Keine Veränderungen vorgenommen

2.ist frisch formatiert worden.

3.Wegen irgend welchen Resten der NV Treiber,hab ich dann Formatiert .
Installiert wurde dan Win XP mit SP2, alle updates und Mainboard Treiber. ohne Veränderung der Auflösung.
Nach treiber 174.74 installation,und frisch booten kamm besagtes Bild wieder. Die Auflösung ist dan 1600x1200.

Wenn ich danach im Abgesicherten Modus boote , dann ist das Bild wieder normal.

Ob die Karte im Standard-Takt läuft ,kann ich leider nicht erkennen (siehe Bild);)

Hab ja erst unter Vista die Karte getestet, Crysis, CoH, CoD4, da ist ja alles OK. Nur XP macht muken.
 
Zuletzt bearbeitet:
Wieso dummes Gelabber... In dieser Situation ist sicher im Spiel die Einzel GPU besser als MultiGPU. Und zwar wegen dem Gelagge im Spiel.

Ich habe selbst einige Erfahrungen in MultiGPU und vor allem bei neuen Games kommt dies häufig vor, selbst nachdem die Treiber optimiert worden sind.

Und zwar deshalb, da die neusten Games trotz neuster Hardware nur um die 30 FPS bringen. Je nach Auflösung ...

@ zuppi > Seit wann sind Tatsachen dummes Gelabber... wohl eher Dein Kommentar... Oder was meinst Du... es wäre niemandem aufgefallen, dass dieser Bench völlige ZickZackKurve in den FPS zeigt.

Auch wenn das Wort "Microruckler" für einige als Modewort gilt, (was es nicht ist), so sagen wir ihm halt FPS-Einbrüche. Oder ist das etwa auch Gelabber... obschon es ganz klar Tatsache ist?

Wir haben doch das gleiche Bild vor Augen... oder? Was meinst Du, wieso brechen denn die FPS gegen null ein...

Äh ja...

Was glaubst du denn, warum die Dinger Mikroruckler getauft wurden, und eben nicht Framedrops? Richtig, weil sie mit einer herkömmlichen FPS Anzeige NICHT sichtbar gemacht werden können. Asynchrone Frametimes ist das Stichwort, denn die FPS sind zwar OK (im Sinne von ausreichend) aber eben asynchron. Deshalb müssen schon Frametimes ausgelesen werden, um die Dinger (Mikroruckler) zu dokumentieren. Ergo, was Du da zu sehen glaubst hat nicht das Geringste mit Mikrorucklern zu tun.
 
Zuletzt bearbeitet:
1.Keine Veränderungen vorgenommen

2.ist frisch formatiert worden.

3.Wegen irgend welchen Resten der NV Treiber,hab ich dann Formatiert .
Installiert wurde dan Win XP mit SP2, alle updates und Mainboard Treiber. ohne Veränderung der Auflösung.
Nach treiber 174.74 installation,und frisch booten kamm besagtes Bild wieder. Die Auflösung ist dan 1600x1200.

Wenn ich danach im Abgesicherten Modus boote , dann ist das Bild wieder normal.

Ob die Karte im Standard-Takt läuft ,kann ich leider nicht erkennen (siehe Bild);)

Hab ja erst unter Vista die Karte getestet, Crysis, CoH, CoD4, da ist ja alles OK. Nur XP macht muken.

...

Dann musst Du mit nem anderen Treiber probieren. Bleibt vorerst nur das übrig.

...
...

Und was die paar Anderen angeht im Bezug die sich so künstlich aufregen. Ihr seid anscheinend ein bisschen seelisch angeschlagen.....

Er hatte, wie er gesagt hatte während dem Gamen Probleme mit den FPS. Im Screenshot der FPS Messung sieht man des Öfteren deutlich, wie die Frames richtig absacken. Und das sieht nun mal aus wie Microruckler.

Wenn's was anderes sein sollte, kann man das sagen, ber natürlich nur, wenn man auch weiss, welches Bild man anschauen muss um überhaupt mitzureden, geschweige denn Entgegnungen, Lösungs-Ideen zu bringen.

Wie meint ihr denn, sieht man in nem Testbenchmark Microruckler... indem man auf den Screenshot des Benches schaut. Oder was schaut ihr denn jeweils in den Internetseiten der Testlabors an... nen Film?

Wenn ich als Vergleich, mit ner SingleKarte ein Game, wie er's gespielt hat, teste, dann habe ich eine sozusagen einheitliche Linie. Aber nicht ein Zickzack von 70 bis 5 FPS. Und das sieht eben aus wie Microruckler. Was ist's denn sonst? Ich hab auch SLI gespielt. Und in neuen Games ist das Verhalten einer SingleGPU manchmal deutlich besser, als das im SLI Betrieb. Und wenn's derart deutlich, wie auf dem Screen zu sehen ist aussieht, dann sieht's eben aus, ... wie Microruckler...

Ich frage mich wirklich ... wenn ihr doch schon so fest Bescheid wisst... woran das liegt... dann lasst Doch Eure Weisheit rüberwachsen... aber das geht natürlich nur, wenn man das richtige Bild vor Augen hat. ;)

Aber ihr habt ja anscheinend ein Problem, wenn man im öffentlichen Forum was auf nen Post antwortet. Wenn ihr nur auf Probleme solch Intensität vorweisen könntet, wie ihr nun auf dieses eine Wort euren Worten Lauf gelassen habt. Aber Prolemik scheint für einige um das Vielfache interessanter...

Es war mir nicht mal vergönnt, daraufhinzuweisen,dass man sehr wohl in einem Screenshot (natürlich einer Messung) Microruckler sehen kann. Daran sieht man ja, wo das eigentlich Problem liegt...... :hail: ... den Allwissenden...
 
Zuletzt bearbeitet:
Und was die paar Anderen angeht. Ihr seid anscheinend ein bisschen seelisch angeschlagen.....

Er hatte, wie er gesagt hatte während dem Gamen Probleme mit den FPS. Im Screenshot der FPS Messung sieht man des Öfteren deutlich, wie die Frames richtig absacken. Und das sieht nun mal aus wie Microruckler.

Wenn's was anderes sein sollte, kann man das sagen, ber natürlich nur, wenn man auch weiss, welches Bild man anschauen muss um überhaupt mitzureden, geschweige denn Entgegnungen, Lösungs-Ideen zu bringen.

Wie meint ihr denn, sieht man in nem Testbenchmark Microruckler... indem man auf den Screenshot des Benches schaut. Oder was schaut ihr denn jeweils in den Internetseiten der Testlabors an... nen Film?

Wenn ich als Vergleich, mit ner SingleKarte ein Game, wie er's gespielt hat, teste, dann habe ich eine sozusagen einheitliche Linie. Aber nicht ein Zickzack von 70 bis 5 FPS. Und das sieht eben aus wie Microruckler. Was ist's denn sonst? Ich hab auch SLI gespielt. Und in neuen Games ist das Verhalten einer SingleGPU manchmal deutlich besser, als das im SLI Betrieb.

Ich frage mich wirklich ... wenn ihr doch schon so fest Bescheid wisst... woran das liegt... dann lasst Doch Eure Weisheit rüberwachsen... aber das geht natürlich nur, wenn man das richtige Bild vor Augen hat. ;)

Es sind keine Mikroruckler. Sieh es ein. Mikroruckler sind ein fest definiertes Phenomän. Was Du da siehst sind ganz normale Framedrops. Schau Dir doch mal die X-Achse an - das Ganze spielt sich in einem Zeitraum von 15 Minuten ab. Daran ist garnichts "Mikro".

Man kann asynchrone Frametimes nicht mit einem FPS-Counter sichtbar machen. Wie soll das auch gehen?
 
Du brauchst leider ein neues Board.

Wieso sollte er ein neues Board brauchen???? Sicher nicht!

...

@ mr.Leopard. Das ist doch mal ne plausible Anwort. Thx.

Wobei diese Einbrüche ja wirklich "abnormal sind". Klar sind sie nicht Micro. Aber genauso sehen Microruckler ja aus. Oder nicht? Jedenfalls sind die Einbrüche derart markant gewesen, dass im SingleGPU Betrieb das Spielverhalten wahrscheinlich besser ist, als mit diesen Abrissen bis gegen null.
 
Zuletzt bearbeitet:
Öhm...
das war COH in 2560x1600 mit Settings auf Anschlag.
Wenn ich einen Klick in die Mini-Karte mache und der Bildausschnitt springt, dann müssen Texturen geswappt werden (nervig), das sind die Framedrops die zu sehen sind.

Microruckler.. gut zu sehen z.b. bei Quake4 im Vorspann wenn die Raumschiffe aus dem Sprung kommen und an der Cam vorbeiziehen.
 
Weil das Board inkompatibel mit der GX2 ist. Ähnlichen Fall gab es in einen anderen Forum dort half nur ein Boardwechsel.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6369666&postcount=58

Wieso geht denn das Ganze unter Vista? Das kann ja nicht sein...

PCI-E 2.0 ist rückwärtskompatibel

Und ansonsten bliebe ev. noch ein Bios Upgrade... Die Karte hat ja eine SLI Bridge drin. Wenn die Boards mit der 7950 GX2 klar kommen, sollten sie doch auch mit der GX2 umgehen können? Und wenn nicht, wieso geht denn alles normal unter Vista?

Die Frage ist nun, ob unter Vista eventuell nur der Multi-DisplayModus gelaufen war. Wenn aber Multi-GPU Modus normal funktioniert, gibt es keinen Grund, wieso es nicht auch im XP gehen sollte.

Wenn aber im Vista nur der MultiDisplay Modus gelaufen ist, oder sogar nur eine der Karten installiert worden wäre, (nur mal angenommen), dann liesse sich das Ganze eventuell mit nem BiosUpgrade auf ein 7950GX2 unterstützendes Bios richten. (Eventuell gibt's ja mittlerweile auch Angaben btr. 9800GX2. Wobei das ja um's Gleiche geht.)

Ich schlage deshalb mal vor, auf's neuste Bios wechseln, welches mindestens die 7950GX2 unterstützt. Ansonsten halt kontrollieren, wie die Karte im Vista erkannt wird. Ob nur 1-ne, oder aber beide im Gerätemanager erkannt werden. Wenn beide, ob sie im Multi-GPU Modus auch normal laufen.

Dann kann man weiter sehen.
 
Zuletzt bearbeitet:
Unter Vista ist der Multi-GPU-Modus eingeschaltet.
Es werden 2 9800GX2 im Gerätemanager erkannt.
Bios ist das neuste 2704 drauf.

Danke für die vielen Antworten und Links.

Noch was,unter Vista hab ich nur einen Monitor in der Anzeigeeinstellung.
Bei XP zwei Monitore, Nview aber ausgeschaltet.
 
Musste Dich drann gewöhnen, ist bei mir auch so mit den Monitoren. Bei XP werden beide Angezeigt, aber man kann den 2. nicht aktivieren wenn SLI aktiv ist. Bei Vista wird nur einer Angezeigt solange SLI aktiv ist. Erst wenn man es abschaltet ist der 2. sichtbar.
 
Öhm...
das war COH in 2560x1600 mit Settings auf Anschlag.
Wenn ich einen Klick in die Mini-Karte mache und der Bildausschnitt springt, dann müssen Texturen geswappt werden (nervig), das sind die Framedrops die zu sehen sind.

Microruckler.. gut zu sehen z.b. bei Quake4 im Vorspann wenn die Raumschiffe aus dem Sprung kommen und an der Cam vorbeiziehen.

Mach doch mal einer ein Video z.B. mit Fraps, für die die noch nie SLI hatten, dass die sich auch was drunter vorstellen können.

Ich würde es selbst machen, hab aber z.Z. kein SLI bzw CF!
 
Das geht nur zu messen im 3DQuarck wenn die Scene exakt mit DREISIG Fps läuft!
Alles was drüber oder drunter ist wird verfälscht!
Das gilt es jetzt fürs Messen
Um es einzuordner wo es stört muß jeder für sich selbst raus finden "Wenn man weiß was es überhaupt ist!"
Nachplappern irgendwelcher Dinge von denen man keine Ahnnung hat macht wenig Sinn und nur Lächerlich.
2 Beispiele
1. Crysis mit Vsyng + SLI ,absolut störend und für mich nicht spielbar.
2. Bioshock genau andersrum.

Fazit was ist es nun...Game abhänig?? Wie soll ATI oder NV darauf reagieren?
Zumal die Masse der Anwender es gar nicht fühlt...
Hinzugefügter Post:
Öhm...
das war COH in 2560x1600 mit Settings auf Anschlag.
Wenn ich einen Klick in die Mini-Karte mache und der Bildausschnitt springt, dann müssen Texturen geswappt werden (nervig), das sind die Framedrops die zu sehen sind.

Microruckler.. gut zu sehen z.b. bei Quake4 im Vorspann wenn die Raumschiffe aus dem Sprung kommen und an der Cam vorbeiziehen.


Jo wird der vram gestreßt
Spiel mal bei Quake mit vsyng + TB
Ich meinte mit den Einstellungen "Rumspielen"
 
Zuletzt bearbeitet:
@ zuppi

Du scheinst hier der Jenige zu sein, der keine Ahnung hat! Diese Ruckler waren bei mir damals schon klar und deutlich zu sehen und sogar laaaange VOR Tombmans Aussage ;) Ich kann gerne den passenden Thread ausem 3DCenter Forum von mir raus suchen. Mir wurde damals nicht geglaubt und genauso wie hier, wurde ich als Schlechtmacher von Multi GPU hingestellt, dabei habe ich lediglich "meine" visuellen Eindrücke schildern wollen.
Jeder Mensch hat ein anderes Wahrnehmungsvermögen, der Eine mehr, der Andere weniger.
Auch das Texturflimmern habe ich unmittelbar nach meinem Kauf der 6800 Ultra geschildert und erst 1 Jahr später wurde es offiziell kommuniziert :fresse:
Also für mich persönlich kommt nur noch Single GPU in Frage... zumindest habe ich dann einen sauberen Bildablauf, wenn auch mit etwas weniger frames...
 
Ich habe das Problem im Frühjahr 2006 schonmal mit meinem damaligen 7900GT SLI Setup erlebt. Der damals aktuelle Hitman Teil (?) hat trotz konstant guter FPS im Bereich 30-40 (Fraps) absolut spürbar und sichtbar geruckelt. Wobei hier geruckelt nicht ganz der richtige Ausdruck ist - eine "zittrige Trägheit" beschreibt es wohl besser. Damals hab ich es auf die Engine geschoben (was ja zum Teil auch stimmt) und nicht weiter recherchiert...
 
Unter Vista ist der Multi-GPU-Modus eingeschaltet.
Es werden 2 9800GX2 im Gerätemanager erkannt.
Bios ist das neuste 2704 drauf.

Danke für die vielen Antworten und Links.

Noch was,unter Vista hab ich nur einen Monitor in der Anzeigeeinstellung.
Bei XP zwei Monitore, Nview aber ausgeschaltet.

Hast Du etwa einen Konflikt, mit den beiden Monitoren und Multi-GPU.

Bei Multi-GPU kann man nur an einem Anschluss den Monitor anschliessen.

Wechsel mal den Anschluss an der Grafikkarte.

@Mr. Leopard. Damals gab's aber das AlternativRendering nicht implementiert im nVidia Treiber. War damals nur mittels nHancer möglich. Heutzutage empfiehlt es sich, bei neuen Games auf AlternativRendering zu spielen. Wenn dann mal der Treiber und Patches nachgereicht werden kann sich das uch ändern. Bei Rainbow Six Vegas, als der Treiber noch nicht angepasst war, hatte ich mit AlternativRendering 2 bis 50 FPS mehr. je nach Szene. Aber sicher zwischen 20 und 30 FPS konstant mehr. Also in den Min.Fps. Und das macht dann deutlich was aus, ob man mit zuwenig Frames dahindümpelt oder aber 20-30 konstant mehr hat. (Auch U3 Games ginngen einiges besser auf AR2.)

Aber es ist schon so... ich seh's bei der GTX nun im Vergleich zu der 7950GX2 Irgendwie ist die Frames-Mess-Linie viel einheitlicher.
 
Zuletzt bearbeitet:
Servus,

kann ich eine GX2 (die ich bald bekommen werde!!!) mit meinem 500W Netzteil betreiben?
Das Ding hat eine Effizienz von 84% und bringt unter Volllast 750W und kann stabil 680W bringen!
Dürfte doch reichen, oder?!
Um die Frage vorweg zu nehmen, einen 8-Pin Anschluss hat das NT nicht, dafür kommt die Graka aber mit Adapter!
 
@Mr. Leopard. Damals gab's aber das AlternativRendering nicht implementiert im nVidia Treiber. War damals nur mittels nHancer möglich. Heutzutage empfiehlt es sich, bei neuen Games auf AlternativRendering zu spielen. Wenn dann mal der Treiber und Patches nachgereicht werden kann sich das uch ändern. Bei Rainbow Six Vegas, als der Treiber noch nicht angepasst war, hatte ich mit AlternativRendering 2 bis 50 FPS mehr. je nach Szene. Aber sicher zwischen 20 und 30 FPS konstant mehr. Also in den Min.Fps. Und das macht dann deutlich was aus, ob man mit zuwenig Frames dahindümpelt oder aber 20-30 konstant mehr hat. (Auch U3 Games ginngen einiges besser auf AR2.)

Aber es ist schon so... ich seh's bei der GTX nun im Vergleich zu der 7950GX2 Irgendwie ist die Frames-Mess-Linie viel einheitlicher.

Ich hab' "damals" (2006) auch schon den Hancer benutzt. ;)
 
@Dancop
Die Grafikkarte alleine wird das Netzteil problemlos schaffen. Aber da hängt noch der Rest vom Rechner drann, oder?

Aber wenn es die Ultra geschafft hat, dann wird es auch die GX2 schaffen. Da ist kein großer Unterschied. (Du hast Dich bestimmt schon mit der Last der Grakas beschäftigt. Die Ultra etwa 180Watt unter Volllast, eine 9800 etwa 100 Watt unter Vollast x2)
Wobei ich mir da echt nicht sicher bin was Du Dir von dem Wechsel versprichst^^ und ähm... hoffentlich sind am Netzteil die richtigen Anschlüsse vorhanden.
 
Zuletzt bearbeitet:
Sers,
habe eben meine GX2 auf WaKü umgebaut und nun das Problem, dass ich nur noch Pixel zu sehen bekomme. Nach Rücksprache mit Aquacomputer sollen die von hinten auf der Karte zu sehenden LED beide blau leuchten; die der oberen Karte ist bei mir aber gelb. Nun habe ich die "SLI-Brücke" der Karte, die beide Platinen verbindet, auch schon überprüft, alles ist eingerastet. Hat jemand eine Idee, was es sein könnte? Wenn nicht, dann bleibt mir nur übrig, die Karte nochmal aus dem Kreislauf rauszunehmen (wozu ich natürlich erst mal keine Lust habe).
Dank euch...
Greetz
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh