nVidia Geforce GTX 295 - Sammel + Info Thread

Status
Für weitere Antworten geschlossen.
irgenwie kann ich dir nicht so ganz folgen... :d
Ich sagte Du zerhäckselst mit der 295er eine einzelne 280er mit mindest 30 FPS Unterschied...



MR hab ich keine die ich spüre wenn ich mich von den 30 FPS fernhalte, dann aber weitaus schlimmer als mit der X2.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab jetzt genau das Gegenteil verstanden und mich gewundert, warum die GTX 295 30 fps verlieren soll - hab den Post etwas zu schnell und ungenau überflogen ! :lol:

Es gibt ja manche, die behaupten, dass du mit SLi teils auch über 60 fps spürbare MR hast - auch wenn ich bisher nur gelesen hab, dass diese unter 30 fps auftreten.

Du sagst ja, dass du noch keine MR mit deutlich über 30 fps hattest, oder?
 
Zuletzt bearbeitet:
ich merk da garnix...es mag Leute geben die schreiben die merken noch was bei 60 FPS...wobei ich aber glaube die haben SLI nur auf dem Papier gesehen und nicht in ihrem eigenen Rechner....

Der Unterschied zur X2 ist aber auch für mich :d überdeutlich (um die 30 FPS),da hatte ich mit dem 12er Cat garnichts mehr gespürt, mit den NV Karten ist es da sehr störend.

Was mir noch auffällt (obwohl weniger vram) zb. in Stalker ist die X2 regelrecht kurz stehen geblieben, die NVs zucken hier nur kurz.

Die haben auf jedenfall beide noch viel Arbeit zu erledigen mit Multi GPU.

Aber in die 30 FPS Zone kommst mit der Karte eh nicht.
Was man natürlich in jedem Game provozieren kann....was aber auch keinen Sinn machen würde.
Ich bin in jedem Game mit 2x2 SSAA immer jenseits der 50 FPS in 1920x1200 und das sieht schon sehr perfekt aus.

Außer dem vanilla Crytek Schrott :d

Mein Fazit ist eigendlich wenn ATI anständige Treiber bringen würde, hätt ich morgen wieder ne X2 im Rechner.
 
Ah, danke für die Antwort - da bin ich ja beruhigt, denn bei merklichen MR mit über 30 fps würd ich die GTX 295 NICHT kaufen ! :drool:

MfG
Edge
 
haste eigendlich mit deinem Mobo 2x16 oder biste da auf 2x8 mit der Karte?
 
Bin auch guter Dinge, dass PCIe x16 auch noch schickt - entspricht ja PCIe 2.0 x8 und das ist halt die aktuell zweit schnellste PCIe Port Geschwindigkeit.


E: Klingt doch eher nach 2 x 16 Lanes:

(Aus nem 9800 GX2 Test) - Der nForce 200 ist mit je 16 PCIe-Lanes an die GPUs angebunden und kann mit weiteren 16 Lanes mit der Außenwelt kommunizieren.
Zu Problemen mit der Bandbreite sollte es auf der Multi-GPU-Karte also nicht kommen.

Der nForce 200 Chip sollte ja immer noch eingesetzt werden und die Specs verschlechtern sich hier bei der nachfolgenden Dual Karte garantiert nicht. ;)


Aber ich muss mal sehen - eventuell hol ich mir auch gleich noch das GB EP45 Extreme (mit u.a. PCIe 2.0 x16) dazu -
dann kann ich später sicher sein, das Maximum aus dem X3350 rausholen zu können - Kreditkarte machts möglich. :drool:

Hm...mit dem P45 könnt ich dann auch meine 2 x 4 GB Dominator Kits @ 1066 stabil nutzen, was atm leider net möglich ist. :(

Wobei ich denke, dass der P35 eigentlich noch schicken sollte - viel oc'en werd ich erstmal eh nicht und zumindest 3.2 GHz mit Stanni VCore waren drin.
Die GTX 295 braucht im 3D Modus bestimmt schon locker 4 x 3 GHz um nicht nur komplett Däumchen zu drehen - was ja auch gar kein Prob ist.
 
Zuletzt bearbeitet:
Das zieht dir aber erst Leistung wenn du QuadSLI reinpackst :d

..was ja eh net geht - auch nicht mit dem P45 - das 790i Ultra SLi werd ich mir wegen DDR3 only nicht holen (hab auch immerhin 240€ für den DDR2 gelöhnt)
und der 780i ist leider net so potent wie der 790er.

Aber Quad SLi ist eh erstens etwas sick und bringt glaube weiterhin max. 20% mehr fps gegenüber einer GX2 bzw. dann GTX 295 -
aber wenigstens hat man im Winter einen schönen Ofen ! :haha:

Also da würd ich eher, wenn ich das entsprechende Kleingeld hätte Triple SLi holen, das skaliert wenigstens noch gut. ;)


E: So, werd mir im Januar auch gleich ein Top P45 Board holen - wird entweder das GigaByte EP45 Extreme oder EP45 DQ6 werden -
dann limitiert sicher nichts und ich werd stabil die 8 GB DDR2 1066 betreiben können. :)
 
Zuletzt bearbeitet:
Kurz ne Frage so zwischendurch:

Kann man die 295 auf einem Crossfireboard betreiben ?? die Karte hat ja ein internes SLI daher frag ich mich, ob das zum Zug kommt auf einem CF Board....

gruss & besten Dank !

Noch mehr Meinungen dazu als diese:


..........., aber eine GTX295 ist kein Problem auf nem CF Board.

Ich hatte so in Erinnerung, dass es da mit älteren karten schon Probleme gab, bin aber nicht mehr sicher ...


Danke für die Mühe !!
 
Zuletzt bearbeitet:
Hm...glaube bei ner GX2 war es schon immer egal welcher Chipsatz benutzt wurde oder ob CF unterstützt wurde - ist aber egal -> es funzt und das ist das wichtigste ! :)


MfG
Edge
 
Hm...glaube bei ner GX2 war es schon immer egal welcher Chipsatz benutzt wurde oder ob CF unterstützt wurde - ist aber egal -> es funzt und das ist das wichtigste ! :)


MfG
Edge

Naja, ich hoffe es Funzt XD bin eigentlich drauf und dran mir ne 4870X2 TriFan von ASUS zuzulegen ^^ mal sehen, wann die 295 verfügbar wäre & ich mich noch solange gedulden könnte ^^

gruss ;)
 
naja ich weiss ja nicht wie sli ist ,aber ich habe 13mon crossfire hintermir und jetzt habe ich eine 280gtx und musss sagen ,habe zwar weniger fps aber es läuft irgendwie jedes spiel geschmeidiger ,deswegen habe ich nicht auf die 295gtx gewartet
 
mit welchem cf - gespann vergleichst du?
 
Ich denk mal er vergleicht mit 2*3870er, könnt etwa von der Zeit her passen... 13monate ^^

gruss
 
dann wundert mich die Erfahrung der geschmeidigeren Art nicht wirklich...wäre ja quasi ein Umstieg zu ner X2 welche auch geschmeidiger auf seinem Rechgner laufen würde wie ein 3870er CF Gespann^^ Ein direkter Vergleich zu nem 4870er 1GB CF oder X2 wäre interessanter gewesen.
 
nein mit 2x3870/2x4870/2x4850 diese karten hatte ich in den letzten 13mon

100% Unterschreib

Der Unterschied bei Crysis von 2x 4870 CF auf eine GTX 260 war schon super. Das Game lief butterweich und nicht so ruckelig.
Punkto SLI. Seit den 180 Treiber ist SLI um einiges besser geworden.

@OliverM84

Nö hatten wir noch nicht. Der GT300 ist dann der Nachfolger vom GT200 nehme ich mal an?
 
Zuletzt bearbeitet:
Wird NV eig. auch Mix-SLi aus ner 295er und ner GTX260 / 280 unterstützen, weiß da wer was?
Bei AMD gehts ja mit Dual und Singlekarte
 
Eine Zusatzkarte als PhysiX Beschleuniger geht ja - aber von einem Plan den Mix aus Dual + Single Karte zu ermöglichen hab ich bei nV noch nichts gehört.

Kommt vielleicht noch, weil es der große Konkurrent ja auch hat.



Zur GT216 und 212:

Das werden "nur" Midrange bzw. Lower Midrange Modelle werden, da nV mit der GT200 Serie hier noch gar nicht vertreten ist (und dort ja das große Geld gemacht wird) -
außerdem so schon mal der 40nm Prozess in der Praxis getestet werden kann.

Das nächste High End Modell nach GTX 265, 285 und 295 dürfte erst im vierten Quartal mit dem GT300 in neuer Architektur und wohl mit DX11 + CUDA 3.0 Support kommen -
in etwa zeitgleich zum RV870.


E: Hm, in der VR - Zone News steht, dass der GT212 doch in das Performance / High End Segment kommen soll
(eventuell als GTX 280/285 Nachfolger - vielleicht auch mit mehr Shader Units, (GDDR5) VRAM oder ähnlichem) und GT214 - 218 in den Mainstream Bereich - naja, abwarten.


MfG
Edge
 
Zuletzt bearbeitet:
nein mit 2x3870/2x4870/2x4850 diese karten hatte ich in den letzten 13mon

aha, und wie war der Umstieg von den 4870ern (1GB ?) im direkten Vergleich?

ich bitte jetzt nicht um Fanboygeschwafel, sondern ich überlege ernsthaft wieder auf NV umzusteigen. Das komische ist, das ich mit oder ohne CF (4870 1GB) selbst bei CoD4 Ruckler empfinde, trotz permanent hoher fps :hmm:

Nun bin ich mir nicht sicher was nun wirklich sinnig ist^^
Fakt ist, dass ich geschmeidig zoggen möchte, wobei ich bei ATI da doch mehr von erwartet habe. Die große Frage ist nun ob es bei NV nun doch merklich besser ist und zu welcher Graka ich denn letztendlich tatsächlich greifen sollte. Oder führt mich das nun doch nur vom Regen in die Traufe???

GTX 280, GTX 295....auf neue Architektur warten habe ich irgendwie keine richtige Lust.

Ich bitte um vernünftige Beratung.

THX Grinsemann
 
Komisch, kommt mir dies nur so vor, oder wechseln nun alle zu NV rüber, nur zwecks des 55um Refresh´s.
Sofern Nicht viel schnelleres kommt auf beiden Seiten würde ich mal bis Herbst 2009 abwarten.. Der Refresh bringt einfach zu wenig und vom RV770 Refresh ist derzeit komplettes Schweigen angesagt, rechne ATI läuft die Zeit davon und bringen die neuen Karten (auch High End) schon in 40um Verfahren daher..

Ich werde halt meiner Neuen HD4870 1GB treu bleiben, denn der Sprung auf CF mit HD4870 X2 GTX295 ist mir zu gewagt wenn schon bald die 40um Karten kommen!
 
Zumindest bei den Single GPU Modellen bringt 55nm laut zwei Vortests leider kaum was - die Temperaturen sind sogar minimal höher - auch der Verbrauch (außer im Idle), was daran liegt, dass die neuen Kühler weniger Lamellen bieten (Materialeinsparung).

Bei einer Dual - Karte mit einem quasi gleichen (ja, einige gute Änderungen gibt es) Kühlkonzept wie bei dem 65nm Modell (9800 GX2) bringt der Refresh wohl etwas mehr - vor allem im Stromverbrauch, was bei so einem Monsterchip wie dem GT200 auch nötig ist, um eine Dual - Karte zu realisieren - ein Verbrauch von ~ 450 Watt (zumindest TDP) unter Last wär halt nicht so schön gewesen !

Es wurde auch gemunkelt, dass der VCore etwas höher sein könnte - was sich mir bei so einem Shrink, vor allem wenn die Taktraten gleich bleiben (zumindest bei der GTX 265) nicht logisch erschließt - die GTX 285 wird ja etwas höhere Taktraten haben (u.a. 648 MHz Core) und ~ 10% flotter als die 280er sein.

MfG
Edge
 
Zuletzt bearbeitet:
Eine Zusatzkarte als PhysiX Beschleuniger geht ja - aber von einem Plan den Mix aus Dual + Single Karte zu ermöglichen hab ich bei nV noch nichts gehört.

Kommt vielleicht noch, weil es der große Konkurrent ja auch hat.



Zur GT216 und 212:

Das werden "nur" Midrange bzw. Lower Midrange Modelle werden, da nV mit der GT200 Serie hier noch gar nicht vertreten ist (und dort ja das große Geld gemacht wird) -
außerdem so schon mal der 40nm Prozess in der Praxis getestet werden kann.

Das nächste High End Modell nach GTX 265, 285 und 295 dürfte erst im vierten Quartal mit dem GT300 in neuer Architektur und wohl mit DX11 + CUDA 3.0 Support kommen -
in etwa zeitgleich zum RV870.


E: Hm, in der VR - Zone News steht, dass der GT212 doch in das Performance / High End Segment kommen soll
(eventuell als GTX 280/285 Nachfolger - vielleicht auch mit mehr Shader Units, (GDDR5) VRAM oder ähnlichem) und GT214 - 218 in den Mainstream Bereich - naja, abwarten.


MfG
Edge

* GT212: Q2/2009 - High-End
* GT214: Q3/2009 - Performance
* GT216: Q3/2009 - Mainstream
* GT218: Q3/2009 - Low-Cost

:coolblue:
 
@ Berni

nö, das hat eigendlich nichts mit dem Refresh zu tun, somdern meine allgemeine Unzufriedenheit die ich habe. Ich dachte "wow-geil" richtig fps...und beim zoggen sind immernoch Ruckler:fire:. Wenn ich schon soo viel Kohle investiere dann solls auch anständig laufen. Wenns bei NV nicht ruckelt, ich zwar 3 fps weniger habe, aber gefühlt endlich auf angemessene fps komme, interessiert mich der Verlust immo nicht wirklich den ich finanziell dann habe^^

Dein Argument ist sicherlich auch gut, aber es sind eben noch 4 Monate ... wenn ich überlege das ich im Januar doch recht wenig Zeit für den Rechner habe sollte ich vielleicht doch nochmal drüber nachdenken...ich möchte endlich mal richtig zufrieden sein^^...aber dann sinds ja "nur" noch 4 Monate bis zum GT300...warten kann man immer irgendwie *G*
 
Zuletzt bearbeitet:
Ich wechsel auch wieder zu Nvidia.... Ati hat mich einiges an Nerven gekostet - vorallem wegen defekten und Treiberproblemen unter Vista (BS und freezes usw). Darüberhinaus konnte ich günstig eine GTX280 erwerben. Und solange die gefühlten FPS einer Multi GPUlösung nicht an die tatsächlichen FPS rankommt, kommt es für mich nicht mehr in Frage.
 
Zuletzt bearbeitet:
und??? vorher - nacher? Was vorher?
 
Falls du mich meinst, vorher HD4850. Erfahrungen bezüglich Mgpu hab ich damals mit einer 7950 GX2 gesammelt - war ansich zufrieden - nur waren die gefühlte FPS wirklich weniger wie die tatsächlichen. Und ein interner Test bei PCGames (oder wars THG ??) Hardware hat dies wieder einmal bestätigt. Da wurden Versuchspersonen an verschiedene Pc´s geordert um Spiele mit einer Multigpu Karte zu spielen.Wenn mich nicht alles täuscht war es sogar die GTX295.Jeder mußte anschließend schätzen wieviel Bilder pro Sekunde wohl die Karte auf den Monitor gezaubert hatte. ALLE bescheinigten danach eine subjektiv langsamere FPSrate als es tatsächlich der Fall war.

Und solange das so ist, ist man mit einer Highend Singlekarte wohl besser bedient.
 
Zuletzt bearbeitet:
Falls du mich meinst, vorher HD4850. Erfahrungen bezüglich Mgpu hab ich damals mit einer 7950 GX2 gesammelt - war ansich zufrieden - nur waren die gefühlte FPS wirklich weniger wie die tatsächlichen. Und ein interner Test bei PCGames Hardware hat dies wieder einmal bestätigt. Da wurde Versuchspersonen an verschiedene Pc´s geordert um Spiele mit einer Multigpu Karte zu spielen. ALLE bescheinigten danach eine subjektiv langsamere FPSrate als es tatsächlich der Fall war.

Joa, das ist ja bekannt, ... die Frametimes halt.

Haste jetzt schon eine GTX 280, oder bekommste die noch?
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh