nVidia Geforce GTX 295 - Sammel + Info Thread Part 6

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
taugt beides nix, da die 4 GPU immer vorsich hin dödelt (inGame :-) ), stellt mal die SLI Anzeige an und dann seht ihr wie SLI mittlerweile in jedem Spiel rennt, auch noch mit 3 GPUs im Gegensatz zu ATI, da rennts wie der Deuwel in Benches...ist für viele ja das wichtigste.

Schon klar, dass Quad-SLI oder CrossFire X mit 2 x X2 in Sachen Alltagstauglichkeit (Stichwort - teils miese Spiele - Skalierung, Treiberprobleme - sprich Profile o.ä.) nicht das gelbe vom Ei ist - der Vollständigkeit halber wollt ich halt auch etwas dazu schreiben. ;)

Imho schickt selbst als HW - Junkie normales SLI oder CF - wem dies nicht schickt, sollte, wie du schon meintest am besten Triple SLI fahren.
 
Ach liebe Leute, die Netzteilproblematik wurde doch viele Seiten vorher schon aufs ausführlichste besprochen!! Für n Quad und ne GTX295 muss ein Netzteil her, was ordentlich "Bums" auf den 12V Leitungen bietet (selbst Marken Netzteile wie ein BeQuiet DarkPower Pro mit 1000 Watt hat es nicht geschafft, einen I7 + GTX295 stabil zu versorgen, weil zu wenige Ampere auf den 12V schienen liegen). Die üblichen Verdächtigen: Corsair HX/TX, Enermax Revolution, die günstigen Coba NT's, Seasonic, usw. Wichtig ist eben, das die 12V Schiene viel Ampere bietet. Und der GEsunde Menschenverstand sollte schon vermitteln, das man mit nen 400 Watt - 500 Watt Netzteil keine Quad - GTX295 Combo betreiben kann / sollte.

Ich denke man muss nicht mehr viel zur Netzteilproblematik sagen...
 
Naja , wenn du es so siehst, haben wir hier so ziemlich alles schon mal durchgekaut. ;)
 
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Natürlich haben wir es schon 10mal durchgekaut... da aber immer wieder Neueinsteiger dazu kommen und zu faul sind um den Thread zu durchsuchen, werden wir es auch noch 10mal durchkauen...

Vllt sollte man die NT Problematik mit auf die erste Seite nehmen, dann brauchen wir nur noch einen Querverweis machen ;D

---------- Beitrag hinzugefügt um 10:47 ---------- Vorheriger Beitrag war um 10:43 ----------

So langsam wird es echt Zeit für den GT300... ich habe ehrlich gesagt keine Lust, dass meine Karte durch die Sommerhitze abraucht :fresse:
Die Tempsunterschiede sind schon krass wenn ich Winter und Sommer vergleiche. Wakü wär nicht schlecht, ist mir persönlich aber zu unsicher.

Crysis 1680x1050,4AA, Ultra
Winter: 82-85°C
Sommer: ~90°C und höher :fresse:

Ja wär nicht schlecht. :)
 
Die Temps unter 90°C zu senken ist ja eigentlich kein Problem.
Am effektivsten ist halt immer noch das Undervolting unter "Extra" - leider hat man dann nicht soviel Taktpotenzial. Ich denke mal mit 1.0 - 1.02V sind aber immer noch 630 - 650 MHz drinnen.

Du kannst halt auch den Lüfter über RT hochdrehen oder ein Sommer- und ein Winter - BIOS für die Lüftersteuerung erstellen.

Mit 1.01V @ default hatte ich zumindest bei CoJ 2 - Bound in Blood maximal so 75°C (1680x1050, max. Details 8xAA/16xAF). ;)

In Crysis wären das vielleicht maximal 10°C mehr.
 
Joar, der Vorschlag, die Netzteilproblematik mit auf die erste SEite zu nehmen ist sehr interessant, das erspart diverse Diskussionen.

Wegen der hohen Temps im Sommer: da gibts nur zwei Lösungen: Entweder man schafft sich eine adäquate Kühlung für seine GTX295 an und kann sie weiterhin mit hohen Taktraten fahren, oder man verzichtet auf die hohen Taktraten so lange es so warm ist und muss sich nicht um zu hohe GPU Temps sorgen machen.

Sorry wenn das jetzt etwas schnodderich klingt: Aber was erwarten hier denn einige Leute?? Die Karte um über 100 MHz übertakten, und sich dann aufregen, das die Temps unter Last schnell an der 100°C Grenze kratzen. Ich kann nur noch einmal wiederholen: Das Standardkühlsystem ist dafür einfach nicht ausgelegt. Leichtes OC vermag der Kühler noch schaffen, aber Gewalt OC mit VCore Erhöhung usw. bei solchen Außentemperaturen ist zu viel des Guten. Da sollte man sich ernsthaft Gedanken über ne Wakü machen, andere Alternativen gibts für die Dual PCB Version der GTX295 leider nicht. Die Leute, die eine in der Single PCB Version besitzen können nur auf einen guten Luftkühler von AC oder Thermalright usw. hoffen.

Die Wakü lohnt sich: Ich kann selbst bei 28°C Zimmertemperatur ziemlich gelassen auf meine 47/45°C GPU Temp unter Last schauen. ;)

Beste Grüße
 
Zuletzt bearbeitet:
Hidiho,

ich hab ein kleines Problem, weis nich ob es schon mal hier beschrieben wurde und finde auch nichts über google.

hab eine manli gtx295 / windows vista 64bit sp2 / E6700 / Asus p5w dh deluxe / 4 gb corsair


hab am HDMI-Anschluss einen Sony Bravia 40" angeschlossen und am DVI einen ASUS 22"

will über beide das selbe Bild haben aber es funktioniert nich, kann im nvidia-steuerung nich clonen wählen ( diesen punkt gibt es nich ).
Wenn Multi GPU aktiviert ist kann ich nichma auf beiden Monitaren etwas anzeigen sondern nur auf einem.
deaktiviere ich es bekomm ich ein verlägertes Desktop über den Sony(HDMI) , mach ich das häckchen von desktop verlägern weg wird beim HDMI das bild schwarz.
CLonen wird auch hier nirgens angeboten.

PLX help

MFG d0Ug
 
Afaik kann die GTX 295 entweder nur über DVI oder HDMI Bild ausgeben, nicht über beide Ausgänge !

Ich betreib sie aber ausschließlich an DVI - andere können da sicher noch mehr zu sagen (Multi Monitoring).




E: Ich hab da auch mal ne Frage in eigener Sache - dient der Ergänzung des Flash Guides:

Mit GT200b Single GPU Karten wie der GTX 285, GTX 275 und GTX 260 ist es ja möglich, trotz analogen SpaWas eine effektive Spannung von minimal 1.05V
zu flashen...

weiß jemand von den GTX 295 Single PCB Besitzern, was die Grenze bei der neuen Revision ist ?


E2: Scheint wohl, dass 1.05V doch schon der Standard 2D VCore bei den Single GPU GT200b Karten ist (1.15V unter Extra).

Dann kann man sicher auch bei den neuen 295ern nicht unter oder über 1.0375V gehen.



MfG
Edge
 
Zuletzt bearbeitet:
Afaik kann die GTX 295 entweder nur über DVI oder HDMI Bild ausgeben, nicht über beide Ausgänge !

Quark! Das geht wunderbar ;) ... ich hab meine Philips LCD Glotze auch an der GTX über HDMI hängen, und n normales Samsung LCD am DVI. Das Display muss am DVI mit der Nummer eins hängen, die LCD Glotze logischerweise am HDMI. Dann in der Windows (!)Systemsteuerung unter Anzeige den Desktop auf den zweiten Monitor erweitern, richtige Auflösung einstellen und auf 24 Hz (für 1080p Movies) oder 60 Hz stellen, fertig. Funzt bei mir wunderbar!! Alles ganz klassisch über Windows geregelt :P
 
NeoCX, ist SLI aktiv?

Edge, sag mal, hast du eine Idee warum die GTX auch in 2D und 3D Standard mit den 1,0375V rennt anstatt die Spannung runter zu schrauben wie bei den anderen Karten?

In die Runde gefragt, kann ein GTX295 Single-PCB User mal schnell GPU-Z anschmeißen und sagen ob es auch bei den neuen noch der Fall ist, dass die immer mit 1,0375V rennen?
 
NeoCX, ist SLI aktiv?

Edge, sag mal, hast du eine Idee warum die GTX auch in 2D und 3D Standard mit den 1,0375V rennt anstatt die Spannung runter zu schrauben wie bei den anderen Karten?

In die Runde gefragt, kann ein GTX295 Single-PCB User mal schnell GPU-Z anschmeißen und sagen ob es auch bei den neuen noch der Fall ist, dass die immer mit 1,0375V rennen?


Stimmt - das hat ich vergessen oben zu schreiben - ich glaub nämlich auch, dass dann kein SLI aktiv sein darf - war zumindest afaik bei Multi Monitoring mit 180er Treibern so.



Meine Vermutung zur Geschichte mit den identischen VCore - Werten bei der GTX 295:

Dass die GTX 295 in allen Taktdomänen mit 1.0375V läuft, liegt wohl an NVidia.
Somit wird sichergestellt, dass ALLE jemals produzierten Karten in ALLEN Taktdomänen stabil laufen (Stichwort Serienstreuung -> Unterschiede bei der Güte der GPUs, was stabile VCore Werte angeht - Beispiel OC: Einer schafft 700 MHz mit 1.06V, ein anderer braucht mit gleichem Modell z.B. 1.08V).


Ich kann mir ehrlich gesagt nicht vorstellen, dass man die Spannung bei der Single-PCB Version in irgendeiner Domäne geändert hätte.


Allerdings find ich es schon schade, dass man nicht die Spannungen unter 2D nicht weiter senkt - vor allem, da es eigentlich jede Dual-PCB GTX 295 problemlos mitmacht.
Außerdem laufen ja auch nur 150/300/100 MHz durchgängig bei allen GT200 und GT200b Karten absolut stabil. Ein weiterer Punkt, der sehr oft verbesserungswürdig ist - hier gibt es aber teils Unterschiede bei den Herstellern, ist die Lüftersteuerung. Meist dort zu laut, wo es gar nicht notwendig ist - nun ja, ich glaube das wird noch lange so bleiben.

Zum Glück gibts ja RT und NiBiTor. ;)


MfG
Edge
 
Zuletzt bearbeitet:
also standardmäßig ist SLI bei mir immer aktiviert. Nun bin ich leider nicht zu Hause und sitz hier nur vorm Notebook, und kann das nicht überprüfen. Vielleicht wird SLI deaktivert, wenn ein Monitor per HDMI angeschlossen wird, und ein weiterer am DVI hängt :hmm:

Werd das mal bei Gelegenheit überprüfen. Vorstellen kann ich mir das nicht. Hab auch schon mal Cod4 aufn LCD gezockt, da waren die Frames nicht geringer...
 
Quark! Das geht wunderbar ;) ... ich hab meine Philips LCD Glotze auch an der GTX über HDMI hängen, und n normales Samsung LCD am DVI. Das Display muss am DVI mit der Nummer eins hängen, die LCD Glotze logischerweise am HDMI. Dann in der Windows (!)Systemsteuerung unter Anzeige den Desktop auf den zweiten Monitor erweitern, richtige Auflösung einstellen und auf 24 Hz (für 1080p Movies) oder 60 Hz stellen, fertig. Funzt bei mir wunderbar!! Alles ganz klassisch über Windows geregelt :P
das geht auch wunderbar wenn ich die Multi GPU in der Nvidia-systemsterung deaktiviere, dann bekomme ich auch ein verlängertes Desktop auf den 40" . Aber dann möchte ich ja das Bild von dem DVI (22" Monitor 1 ) auf den HDMI ( 40" Monitor 2 ) CLONEN.
Grund: ich will vom I-Net streamen und will daher nich immer auf meinem PC-Stuhl hocken, sondern von der Couch gechillt über den 40" den Film oder die Sendung schaun.
Ich weis ich könnte auch dann einfach den 40" als Primär nehmen aber dann müsste ich immer umstellen ( kein Bock).
wie gesagt ich will nur dvi auf hdmi clonen aber dies wird mir niergens angegeben.
 
Zuletzt bearbeitet:
@d0Ug
hast Du schon die Windows-eigenen Mittel (Anzeigeeigenschaften) probiert?
Ansonsten benutzen viele wohl auch Ultramon. Eventuell gehts ja damit.

ciao Tom
 
Hallo Leutz,
ich habe da mal eine Frage an versierte Nividia Nutzer...
Ich steige gerade aktuell von HD4870 CF auf eine GTX 295 um. So ist es zumindest geplant...

Ich möchte gerne eine Single-PCB Karte haben, da mich aber die schiere Auswahl von Karten fast erschlägt, und ich mich eigentlich nur mit ATI Herstellern beschäftigt habe, würde ich gerne wissen wollen zu welcher Karte/Hersteller ihr mir raten würdet.

Danke schon mal.

Greetz
LX
 
wen du vorhast wasserkühler drauf zu bauen dan ne evga .... sonnst egal welche die billigste tuts da .... die geben sich nicht viel nur in ausstatung/zubehör
 
Habe meine GTX 295 Single PCB seit Freitag und muss zugeben die Lautstärke ist echt toll. Der Lüfter ist sehr leise, ich würde sogar sagen der ist leiser als der meiner 4890 von Sapphire.

Das Kühldesign der neuen GTX 295 hätte Nvidia von Anfang bei allen GT200 Karten bringen sollen.
 
Also ist es im Grunde genommen Jacke wie Hose welche GTX 295 Single PCB ich nehme.
Da...die sowieso nur im Referenzdesign hergestellt werden?! Und der Support wahrscheinlich überall gleich gut / schlecht ist.

Ergo: Eine Zotac tuts genauso wie eine EVGA wie eine Palit/Expertvision.
 
Also ist es im Grunde genommen Jacke wie Hose welche GTX 295 Single PCB ich nehme.
Da...die sowieso nur im Referenzdesign hergestellt werden?! Und der Support wahrscheinlich überall gleich gut / schlecht ist.

Ergo: Eine Zotac tuts genauso wie eine EVGA wie eine Palit/Expertvision.


Die EVGA sticht halt mit dem besonderen Support heraus. Kühlerumbau ohne Garantieverlust und wenn mit der Karte was ist, ist der Support sehr schnell. Ob dir der Aufpreis wert ist, musst du entscheiden.
Ich habe mir die Günstigste GTX 295 genommen.
 
EVGA meinte er nur, weil du da den Kühler runter nehmen kannst, ohne das gleich die Garantie futsch ist, EVGA schließt einen Kühlerwechsel für Wasserkühlung mit in die Garantie ein, und das als so ziemlich einziger Hersteller. Bei allen anderen ist mit der Demontage des Kühlers auch die Garantie verloren.

Aber sonst ist es wirklich egal, welche GTX295 gekauft wird, die werden alle von nVidia geliefert, die "Hersteller" labeln die nur noch, verpacken die und verkaufen die dann unter ihren Namen. Die günstigeste Karte ist da die beste Wahl. (Wenn man auf entsprechende Ausstattung verzichten kann)
 
Guten Abend zusammen, habe gerade das neu erworbene Cryostasis installiert, mich gefreut wie ein kleiner Junge und nun komme Ich schon im ersten Level bei diesem "tollen" Schott nicht weiter, Ich komme einfach nicht durch, ducke mich, komme jedoch nicht durch, egal was Ich versuche, Ideen, Anregungen? Ich wäre sehr dankbar, Google spuckt zwar die Frage aus, jedoch keine Antwort.

Sorry für OT
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh