nVidia Geforce GTX 295 - Sammel + Info Thread Part 6

Status
Für weitere Antworten geschlossen.
picture.php


Endlich da, nach über einer Woche wartezeit. :p
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
der erste wasserkühler single pcb gelistet 159eu hoffe der preis sinkt noch ... find ich doch sehr hoch wen man weis das er für 130eu angeprissen wurde.
 
hm ja im case wird bisschen knapp dachte tripple radi vielleicht noch aber würd wahrsch auch nit reichen was
 
NVidia führt nun, wie dies EVGA schon ein wenig eher praktiziert hat - kleine SLI - Profile Patches ein. Die Installation des ersten Patches
mit einer Größe von nur 242 KByte soll anscheinend unabhängig von der GeForce - Treiberversion durch einfaches Ausführen von statten gehen.

NV hat dies wohl anhand des GeForce 186.18 getestet.


Download - NVIDIA SLI Profile Patch Beta 1 (XP, Vista, 7 - 32 + 64 Bit):

http://www.nvidia.de/object/nvidia_sli_profile_patch_de.html


Folgende Games kriegen damit ein SLI - Profil:

-Anno 1404 (nur DX 10 Modus)
- ArmA II



News - Quelle - CB:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/juli/nvidia_sli_profile_patches/


Find ich ne gute Sache - auch wenn es mit nHancer auch ganz ordentlich funktioniert.
Zu wünschen wäre nur noch eine automatische Updatefunktion wie etwa bei XP / Vista / 7 seitens NV für alle SLI - Systeme.

MfG
Edge
 
Zuletzt bearbeitet:
na endlich Anno mit SLI Support zocken... los gehts! :)
 
Sieht schon nett aus, die GTX295 im schlanken Single PCB Design... der sieht man die Leistung nicht mehr an... das find ich bei der "alten" GTX295 irgendwie besser... der sieht man trotz Wasserkühler sofort an, das die ordentlich was zu bieten hat ;) *duck_und_weg*
 
Sieht schon nett aus, die GTX295 im schlanken Single PCB Design... der sieht man die Leistung nicht mehr an... das find ich bei der "alten" GTX295 irgendwie besser... der sieht man trotz Wasserkühler sofort an, das die ordentlich was zu bieten hat ;) *duck_und_weg*

Mag die alte auch lieber. :d
 
He Leutz, na wie gehts euch so... ???

Hab da n Problem mit meiner 295er..... nach dem Windowsbalken kein Bild mehr.... :fresse: irgendwer ne Idee ???

Ohne Treiber gehts, mit Treiber nicht, ältere Treiber schon probiert, ohne Erfolg..... wiedermal ich und die 295er..... ich sollt die Finger davon lassen :d
 
He Leutz, na wie gehts euch so... ???

Hab da n Problem mit meiner 295er..... nach dem Windowsbalken kein Bild mehr.... :fresse: irgendwer ne Idee ???

Ohne Treiber gehts, mit Treiber nicht, ältere Treiber schon probiert, ohne Erfolg..... wiedermal ich und die 295er..... ich sollt die Finger davon lassen :d

Wer gut wenne noch dein Betriebssys verraten würdest. ;)
 
Haste einen LCD TV oder sowas noch mit dran hängen?? Falls ja, abziehen, kann sein, das der Treiber den dann als primären Monitor anspricht. Hatte ich auch mal das Problem, hab mir fast n Ast gesucht, bis ich das rausgefunden hatte.

Und: der Primärmonitor sollte am DVI 1 hängen... :)
 
Also OS ist XP ist aber egal weils bei keinem wirklich funzt....

jatzt hab ich das ganze runter vom Rampage auf n i7 Board gepellt, jetzt gehts.... kanns aber auch nicht sein.....

es geht weder mim LCD noch mit nem normalen Monitor.... hab ja auhc schon alles probiert....bin normalerweise keienr der sofort wenn was is gleich postet, aber dadurch das ich schon alles probiert habe probier ich mal ob die community was weiss :d
 
Zuletzt bearbeitet:
Sehr komisch, aber wenns jetzt funzt, is ja gut. Manchmal gibts dinge, die gibts einfach nicht . . . ;)
 
Hallo falls wer mit der GTX295 TF2 Zockt da hatte man immer mit den neuen Treiber bei der Killcam ein uschtes Bildflackern was mit dem NVIDIA SLI Profile Patch jetzt endlich behoben ist :love:. Mal noch eine frage am Rande ist es möglich eine GTX295 und eine GTX260 zusammen laufen zulassen also so als wenn es 3xGTX260 sind???Oder wird die GTX260 gleich als PhysX abgestempelt?
 
Zuletzt bearbeitet:
Die GTX 295 vereint zwar so manche Spezifikation der GTX 260 (Taktraten, 448 Bit SI und 896 MB VRAM), aber teils auch die der GTX 280 / 285 (240 SPs und 80 TMUs & TAUs).

Wäre die GTX 295 wie ihr etwas höher getakteter "kleiner Bruder" - die GTX 275 eine Single GPU Karte, könnte man eine zusätzliche andere Karte wie die GTX 260 als PhysX - Beschleuniger nutzen.

Es ist aber nicht möglich die GTX 295 noch mit einer anderen Karte zu kombinieren, da sich beide GPUs schon die Arbeit der Physkberechnung teilen -mehr als SLI wird dort noch nicht unterstützt.

(und kann dann aber höchstens für reine Berechnungszwecke wie Folding @ home genutzt werden - gibt ja einen, der 23 x GTX 295 und glaube noch ne GTX 260 dafür nutzt. :fresse:).

Auch ein Triple SLI Verbund aus GTX 295 und der quasi identischen Single GPU - Karte - GTX 275 ist nicht möglich, wurde hier auch schon getestet. Würde es funktionieren, so würde die GTX 275 mit den GTX 295 Taktraten laufen.


Bei der GTX 295 geht also höchstens Quad - SLI, vom dem man aber nur abraten kann.


MfG
Edge
 
Zuletzt bearbeitet:
Hat man enorme Performanceverluste wenn man diese Karte nur mit PCIe2.0 8x Lanes betreibt?
 
Wenn man mit PCIe 2.0 x8 wirklich Verluste haben sollte (denke eher nicht - denn das entspricht ja PCIe x16 !) dann wohl im einem Rahmen der absolut vernachlässigbar sein sollte.

Der Leistungsunterschied ist anwendungsabhängig - mal quasi gar nicht, mal einige fps (in der Regel 4 - 10 % Unterschied bei Single GPU):

http://www.pcgameshardware.de/aid,6...ate-in-mehr-Leistung-nieder/Grafikkarte/Test/

Leider ist hier keine 295 gelistet.

Hm...andererseits spürt man mit einer Multi - GPU Karte wie im Artikel steht wohl doch einen höheren Unterschied, da ja beide GPUs den Port nutzen - ich guck mal, ob es noch einen anderen Vergleichstest gibt.

Sieht schlecht aus - finde gerade keinen Test mit einer GTX 295 @ PCIe 1.1 x16 bzw. PCIe 2.0 x8 vs. 2.0 x16.


Fazit von PCGHW: Nur wenige Spiele profitieren von der Bandbreite - allen vorran CoD 2 - 5 und World in Conflict. Selbst in Crysis WH gibts quasi keinen Unterschied !


Von daher dürfte imho auch eine GTX 295 ordentlich auf PCIe 2.0 x8 laufen.

MfG
Edge
 
Zuletzt bearbeitet:
Danke für die Infos.

Allerdings kann ich keinen Verlust bestätigen. Ich habe zum testen gerade Call of Duty4 genommen @1920x1200@max. und habe mit Q9650-Asus Maximus 2 Gene-4890Vapor-X 1024mb an der gleichen stelle mit PCIe 2.0 x16 71fps und mit PCie 2.0 x8 71fps. Ich habe alle Steckvariationen ausprobiert, mal oberen Slot mal unteren und mit Soundkarte über PCIe. Gerade wenn ich die Soundkarte drinnen habe, bekomm ich nur 8x egal bei in welchen Slot ich die Karte stecke.
 
Danke für die Infos.

Allerdings kann ich keinen Verlust bestätigen. Ich habe zum testen gerade Call of Duty4 genommen @1920x1200@max. und habe mit Q9650-Asus Maximus 2 Gene-4890Vapor-X 1024mb an der gleichen stelle mit PCIe 2.0 x16 71fps und mit PCie 2.0 x8 71fps. Ich habe alle Steckvariationen ausprobiert, mal oberen Slot mal unteren und mit Soundkarte über PCIe. Gerade wenn ich die Soundkarte drinnen habe, bekomm ich nur 8x egal bei in welchen Slot ich die Karte stecke.

Man muss natürlich auch sagen, dass bei solchen Tests immer mal Differenzen bzw. teils auch mal Messunsicherheiten exisitieren - ich kann da nur mal auf den Test der aktuellen Single PCB GTX 295 hinweisen:

Hab ein amerikanisches Review gelesen, das besagte, dass die neue 295 unter Idle UND Last mehr als die alte Dual - PCB Version verbrauchen würde
- im PCGHW - Test verbraucht sie dann aber in beiden Situationen WENIGER als die alte. :lol:

Man kann es sich jetzt also zurechtreden, wie es passen soll ! :fresse:


Gut, es mag schon sein, dass du bei einer Dual - Karte im Extremfall einige fps Unterschied haben kannst und der Unterschied hier im Vergleich zu einem Single GPU Modell ein wenig größer sein mag - aber in der Regel wird man da nichts oder kaum was merken.

PCIe 2.0 x8 ist meiner Meinung nach eigentlich schnell genug für alle aktuellen Karten.

MfG
Edge
 
Zuletzt bearbeitet:
Jemand eine Idee wo dieser: Unbenannt.png Fehler im 3dMark Vantage her kommen könnte, oder noch besser wie Ich ihn beseitige?

DirectX ist auf dem neuesten Stand, Treiber ist der aktuelle drauf. Treiber wurde auch shcon neu Installiert, ebenso wie 3dMark.

Edit: problem solved

MfG
 
Zuletzt bearbeitet:
Jemand eine Idee wo dieser: Anhang anzeigen 99711 Fehler im 3dMark Vantage her kommen könnte, oder noch besser wie Ich ihn beseitige?

DirectX ist auf dem neuesten Stand, Treiber ist der aktuelle drauf. Treiber wurde auch shcon neu Installiert, ebenso wie 3dMark.

Edit: problem solved

MfG

Also ich hatte mal diesen Fehler, weil ich versucht habe auf nem Monitor der 1600x1200 Auflösung kann ne Auflösung von 1920x1080 zu fahren beim Vantage Test. Sprich auf Extreme gestellt im Test, was natürlich dann nicht unterstützt wird.
Da kam genau diese Fehlermeldung.
 
Das hatte ich auch mal versucht, jedoch meinte er dann sofort, dass er das nicht kann.

Das seltsame war, das System ist komplett neu aufgesetzt, jungfräuliche Treiber... und woran scheitert es? Das unter C:\ProgramData\Futuremark im Cache irgendwelche kryptischen Dateien liegen, die diesen Fehler verursachen...

MfG
 
Das hatte ich auch mal versucht, jedoch meinte er dann sofort, dass er das nicht kann.

Das seltsame war, das System ist komplett neu aufgesetzt, jungfräuliche Treiber... und woran scheitert es? Das unter C:\ProgramData\Futuremark im Cache irgendwelche kryptischen Dateien liegen, die diesen Fehler verursachen...

MfG

Läuft es den jetzt?
 
Leute, meine Gainward GTX-295 hat 2 DVI-Anschlüsse und einen HDMI-Anschluss. Das Multi-Monitoring-Tool SoftTH kennen wahrscheinlich die meisten. Mich würde interessieren, ob ich gleichzeitig all diese 3 Anschlüsse an meiner GraKa betreiben kann, um folgendes zu erreichen:

An dem HDMI-Anschluss möchte ich einen 37" Full-HD LCD über HDMI-Kabel anschliessen.
Und an den 2 DVI-Anschlüssen möchte ich weiterhin meine 2 Dell-Monitore 24" über das DVI-Kabel anschliessen. Würde das überhaupt funktionieren, oder kann der HDMI-Anschluss nicht zusammen mit den DVI-Anschlüssen betrieben werden? Weiß da jemand was?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh