nVidia Geforce GTX 295 - Sammel + Info Thread

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist doch krank, da braucht man ja beim zocken keine Heizung mehr anmachen bei ner Lukü zumindest.

was ist denn daran krank,die x2 ist da nicht besser.wer fps will muss auch hohe stromkosten zahlen,so ist das halt,ich glaub auch nicht das es sich jemals ändern wird.es wird immer mehr werden also gewöhnt euch dran oder eher an die höheren stromrechnungen;)
 
Lol noch so ein Gag ^^ was hat das mit Wakü oder Lukü zutun ?

Die abgegebene relative Wärme ist doch gleich hoch :cool:

Denke mit ner Wakü halten sich die Temps noch in Grenzen, bei ner Lukü heizt die den ganzen Rechner/Zimmer auf..... klar bleibt die Abwärme gleich hoch.

P.s zum GTA4 spielen ist die Karte auch nicht der Hit der Speicher mit 896 MB wäre für Maximale Details/Sichtweite deutlich zu gering.
 
Zuletzt bearbeitet:
mit 896 MB wäre für Maximale Details/Sichtweite deutlich zu gering.
Nö, da das Optionsmenü crap behauptet und du selbst nach ner Stunde in 2.560 mit max. Details die 800 MiB nicht knackst. Zumindest hat das der Rivatuner angezeigt :d

cYa
 
Das weiß keiner :fresse:

Als die ATI noch im PC steckte wurde Clear Sky inkl. DX10.1 aufgetischt...typisches Rosinenpicken


jooaaar nen haufen Rosinen....
Und in jedem Game verarsche 16 AF...etc...
Möcht wissen worauf du bei ATI stolz bist..auf alles bloß nicht auf die Treiber, da würd ich mich an deiner Stelle mal ganz bedeckt halten..
Und DX10.1 hat CS bei mir nie gesehen zur info.

Meine zwei beiden verbrauchen 500Watt wenns kachelt...na und...
i7 und co verbrauchen auch ein paar Wattchen, aber da es ja hier wieder um ne NV Karte geht, kommen wie üblich die selbigen aus ihren Löchern um Schwachfug von sich zugeben.


Ein CF oder X2 brauch natürlich ne menge weniger, worüber sich man unterhalten könnte.

Und noch nicht mal Oblivion mit Quarl3 etc. in 1920x1200 und 3x3 SSAA bringen die 896 VRam in schwitzen, da wirds für diesen GTA Grap 3x reichen.
 
Möcht wissen worauf du bei ATI stolz bist..auf alles bloß nicht auf die Treiber, da würd ich mich an deiner Stelle mal ganz bedeckt halten..

Stolz ? Bin ich nicht ^^

ICH hab mit den Treibern keine Probleme, ob es an den OS's liegt die ich verwende oder an den Games oder das ich um M-GPU ein großen Bogen mache kann ich nicht sagen :d
 
ja schon klar... eigendlich sollte man euch roten hanseln :d gar nett mehr antworten oder überhaupt darauf eingehen, ist zwecklos.
Und gerade du weißt das es nicht um die inst. der Treiber geht und die ist schon lächerlich genug ....zb. bei jeder inst. nen Net aus dem Jahre 2004....
Zur Info, ich hatte die letzten Monate ne X2 im Rechner, und bin in jedem Game mit AI On beschissen worden, aber das will ja keiner hören..
soll ich ein paar links hier reinsetzen, was für optimierungen da laufen?

Ach was, macht euch weiter lächerlich und unterstützt den Beschiß weiterhin.
 
ja schon klar... eigendlich sollte man euch roten hanseln :d gar nett mehr antworten oder überhaupt darauf eingehen, ist zwecklos.
Und gerade du weißt das es nicht um die inst. der Treiber geht und die ist schon lächerlich genug ....zb. bei jeder inst. nen Net aus dem Jahre 2004....
Zur Info, ich hatte die letzten Monate ne X2 im Rechner, und bin in jedem Game mit AI On beschissen worden, aber das will ja keiner hören..
soll ich ein paar links hier reinsetzen, was für optimierungen da laufen?

Ach was, macht euch weiter lächerlich und unterstützt den Beschiß weiterhin.

Joar Zuppi is klar :fresse:

Zur Info, ich hatte die letzten Monate ne X2 im Rechner

:d

...oder das ich um M-GPU ein großen Bogen mache...




Brech hier kein Streit vom Zaun so kurz vor Weihnachten ^^ ----> :btt:
 
Puh. Mit 32xS samt TSSAA komm ich nach so 10min auf ner GTX 280 auf 997 MiB in Oblivion :d Recht miese Performance in 1.680 x. 1.050 ... "nur" 15-20 Fps.

cYa
 
tja...ich sach nur MultiGpu :d

macht garnix, die schaufelt den speicher immer rechtzeitig frei... da gibt es irgendwo son Testprog, wo du sehen kannt wann die Karte den Speicher leert, frag mich aber nicht wo...
 
Zuletzt bearbeitet:
Naja, werf mal 32xS in 1.920 an :d

cYa

ist wurst, die Karten haben keinen vram Bug, die leeren den Speicher rechtzeitig..merkste daran das es mal ein Bruchteil zuckt inGame und dann geht weiter.

Am schnellsten haut Stalker mit AA den Ram voll, da stehste regelrecht still fürn Moment...wobei WH + Rygel garnett zuckt.
 
Denke mit ner Wakü halten sich die Temps noch in Grenzen, bei ner Lukü heizt die den ganzen Rechner/Zimmer auf..... klar bleibt die Abwärme gleich hoch.

P.s zum GTA4 spielen ist die Karte auch nicht der Hit der Speicher mit 896 MB wäre für Maximale Details/Sichtweite deutlich zu gering.

es ist aber 2x896mb
 
nvidia hat vor einigen monaten offiziell bekannt gegeben, dass die neue generation eine neue architektur haben wird.

Gut zu wissen, also ist das Gerücht, dass wohl weiterhin nur DX 10.0 unterstützt werden wird, wie ich schon gedacht habe, Bullshit.:drool:

Ein Indiz, dass es doch einige Neuerungen beim GT300 geben wird, ist wohl auch die Tatsache, dass auf einer nV Folie steht, dass im 4. Quartal 2009 CUDA 3.0 eingeführt werden soll.

Auch nV kann es sich nicht erlauben 3 Jahre nur auf Direct 3D 10 zu setzen, während die rote Konkurrenz mit der HD 5000 Serie schon DX 11 bieten wird und außerdem wie schon bekannt Win Se7en, dass sicherlich gleich zu Start schon DX 11 Support haben wird, erscheint.

Eine neue Architektur verspricht, mit dem entsprechenden Treiber auch eine Verdoppelung der Leistung - ist halt die Frage, ob sie dann immer noch auf Single Core oder schon auf Multi Core pro DIE setzen werden (fänd ich jedenfalls hammermäßig - natürlich dürft es bei der Geschichte keine µRuckler mehr geben).

Gruß
Edge
 
Ja, physikalisch sind es 896 MB pro PCB (also bei der GTX 295 2 x 896 MB GDDR3), aber SLi kann halt nur effektiv 1 x 896 MB VRAM nutzen - beide GraKas müssen dieselben Daten verarbeiten - ist bei CrossFire auch so ! ;)

Gruß
Edge
 
Zuletzt bearbeitet:
@ zuppi

Du nervst dermaßen ! Wenn du Streit suchst, such dir bitte nen anderen Thread.
 
Die TDP liegt bei 289W, das heist aber noch lange nicht, dass die Karte so viel verbraucht.

Ja ich glaub auch wenn man die Karte richtig Oced und die Spannung erhöht schafft man im Benchmark bestimmt über 320Watt....ist mir auch klar das die Karte im idle in irgendein Energie Spardmodus fällt....

Hoffe nur das die Entwicklung nicht so weiter geht. Kann ja sein das es niemand was ausmacht. Ist ja auch egal ob der Rechner im Game 500, 600 oder 1000Watt zieht.

Will auch niemand die Karte schlecht machen, die Karte hat bestimmt mal wieder eine super Leistung und ist die schnellste am Markt, hoffe nicht das ati mit der 5870x2 nachlegt und dann wieder noch mehr LEistung bolzt mit ner TDP von 350Watt....

Denke mal die Lüfter + Netzteilhersteller haben nichts dagegen....Ach unsere Konzerne wie YelloStrom etc. freuen sich auch ^^
 
Zuletzt bearbeitet:
Ne 295er schluckt viel weniger als eine X2 :rolleyes:

cYa
 
Die GTX 295 verbraucht nur 10Watt mehr im Idle und 30Watt mehr unter Last als eine GTX 280 und deutlich weniger als eine 4870X2 :coolblue:

Real Verbrauch der GTX 295 dürfte um die 200-230Watt sein.
 
Zuletzt bearbeitet:
nur schade, dass sie so heiss wird...oder gibts da ne Verbesserung des Kühlsystems?
mir ist jedenfalls nichts bekannt.
 
Woher wisst ihr eigentlich alle das die so heiß wird ? :hmm:

Glaskugel oder habt ihr alle eine ?
 
Ach mein Gott, das Ding ist schneller als ne X2, findet euch damit ab! Ob die Spiele nun ausgesucht sind, oder nicht!
Es wird im Q1 09 ein 4870 Nachfolger kommen und q2 die 5000er Serie, da wird es wieder ATI sein, die an der Spitze stehen, so geht es doch nun schon lange, mit Ausnahme der langen Zeit der 8800er!

Ich werde bis April oder Mai warten und dann schauen welche die schnellste Karte ist. Die landet dann in meinem Rechner. Welche Vorteile hat denn die GTX295 derzeit?
Derzeit gibt es kein Spiel, das sie aber nicht die 4870x2 flüssig darstellt...

Willst du auch den Rest behalten CPU MB usw??? Ich glaube ich behalte den Rest dann hol ich mir auch so eine mit DX11.
 
Zuletzt bearbeitet:
@ zuppi

Du nervst dermaßen ! Wenn du Streit suchst, such dir bitte nen anderen Thread.

was willst du denn?
Wenn dich was nervt, bleibt einfach weg!
Und setzt hier nicht wie üblich dein Geschreibsel rein mit dem eh keiner was anfangen kann!
 
Willst du auch den Rest behalten CPU MB usw??? Ich glaube ich behalte den Rest dann hol ich mir auch so eine mit DX11.

Nö ich denke gegen Mai wird es dann auch einen verbesserten i7 geben mit weniger TLB und mehr Übertaktungspotential.
Da werde ich dann zuschlagen. Also JA Runderneuerung!
 
Ich werde dann auch zuschlagen, ich freu mich schon riesig wenn der raus kommt, nur meine Karte werde ich noch länger behalten.

Gruß
 
habs mir nun auch mal durch Kopf gehn lassen da sie ja kein DX11 werde ich die 295er besser überspringen ;)

hab nun zum guten Kurs ne 260er GTX² bekommen die so langt dicke bis dahin
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh