nVidia Geforce GTX 295 - Sammel + Info Thread

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ne bin nur ab und an dort habe 2 Jahre in Detroit gelebt ;)
hab die ganzen Verwandte dort :d

war eigentlich als wink zu intel gedacht

so nun mal genug Offtopic
 
Nö ich denke gegen Mai wird es dann auch einen verbesserten i7 geben mit weniger TLB und mehr Übertaktungspotential.
Da werde ich dann zuschlagen. Also JA Runderneuerung!

Noch mehr OC..die Dinger laufen 4-4.2 GHZ ohne Turbo...


Nee nee, mach dir da mal keine Sorgen, ... das Teil braucht vlt knapp über 200W.

Meine GTX280 @ 702/1512/2600 braucht bei 1,03v, ca. 113W

Wie haste es geschafft das Kärtchen auf 1700 Shader zubekommen?
 
habe die Karte mit einem Kumpel besprochen in einem relativen lustigen gespräch kam man die Idee die Grafikkarte mit einem seperaten Stromstecker anzuschließen, war eher als joke gedacht.

Aber eigentlich finde ich die Idee garnicht so blöd. Da müsste man nicht dauernd Netzteile aufrüsten oder überdimensonierte Netzteile kaufen.

Also wenn das mit dem Stromverbrauch so weitergeht hätte ich gerne ein seperaten Stromstecker.

Außerdem muss ich meinem Gasanbieter kündigen, mit der Begründung das ich keine Gasheizung mehr brauche da ich ja jetzt eine GTX295 habe.

Weil ich mal wieder sinnlos 1000€ aus dem Fenster schmeissen muss um im Vantage ein Platz weiter vorne zu stehen.
 
Nee nee, mach dir da mal keine Sorgen, ... das Teil braucht vlt knapp über 200W.

Meine GTX280 @ 702/1512/2600 braucht bei 1,03v, ca. 113W

TDP ist in der Elektronikindustrie ein typischer Wert für die Verlustleistung, warum sollte der Hersteller knapp 300Watt angeben wenns fernab jeglich realität wäre ?
 
Weils nun mal ist :hmm: Die TDP sagt nichts über die Praxis aus ... das ist nur ein Wert für die Kühlerhersteller.

cYa
 
jup sie sagt halt nur was maximal möglich wäre,ist von Chip zu Chip anders darum höher gewählt um auf der sicheren Seite zu sein
 
Ich freu mich auch schon wie ein Schnitzel auf die GTX 295 - das wird meine nächste Karte und bis die "echten" DX 11 Games erscheinen (was sicher noch dauert - man erinnere sich an den G80 - erschienen Ende 2006 - Crysis mit zusätzlicher DX 10 Implentierung (afaik gibts immer noch kein reines DX 10 Game, heißt, eines, wo u.a. auf DX 10 gleich von Beginn des Projekts geproggt worden ist) erschien im Herbst 2007) wäre es gut möglich, dass die GT300 dann wieder zu lahm ist - zumindest als Single - Karte - siehe Crysis (gut, bei weitem wie aktuell GTA IV nicht das beste und HW - effizient programmierte Game), denn der 8800 GTX ging damals auch die Puste für DX 10 + High + 4xAA aus und so fürchte ich wird es der GT300 auch ergehen. Also sollte man lieber auf das Nachfolgemodell warten - diese sollte dann später die DX 11 Games richtig anständig (also mit max. Details + höherem AA) darstellen können.

Aber das ist sicher eh Zukunftsmusik - DX 11 wird es sicher eh frühstens Ende 2010 geben, dann aber nachgepatcht und nicht optimiert.

nV meinte ja, dass man die 295 schon am 08.01. online (vor ?) bestellen könnte, aber ich denke, dass sie hierzulande sicher erst Mitte nächsten Monats zu haben sein wird und dann bestimmt (leider) für mehr als die spekulierten 370€ (aktueller X2 Preis) - 450 - 500€ erscheinen mir realistischer, gerade wenn sie insgesamt schneller als die HD 4870 X2 ist.

Nun ja - ich zahl auch die 500€ für so ein Monster, da sie selbst mit nem frühen Beta - Treiber so ziemlich alles in Grund und Boden gestapft hat - normale SLi Konfigurationen oder CrossFireX mal außen vor gelassen ! :xmas:

Die Skalierung von SLi wurde seit 2004 richtig verbessert - kann mich noch daran erinnern, dass früher so 40% Mehrleistung durch eine 2. Karte möglich waren und heute, zumindest bei den (doch nicht wenigen) "TWIMTBP" - Games die Mehrleistung sehr oft 100% gegenüber der gleichen Single - Karte beträgt *THUMBS UP* !!! :)

Microruckler sollten jetzt auch nicht mehr so das Problem wie bei der 9800 GX2 sein (deutliche Mehrleistung + größeres SI + mehr VRAM) - also ich bin zuversichtlich, dass ich auf 1680x1050 und maximal 4xAA (schickt mir persöhnlich in dieser Auflösung) keine negativen Erfahrungen machen werde, gerade, da dort quasi alle aktuellen Games mit um die 60 fps laufen.


MfG
Edge
 
Zuletzt bearbeitet:
Kurz ne Frage so zwischendurch:

Kann man die 295 auf einem Crossfireboard betreiben ?? die Karte hat ja ein internes SLI daher frag ich mich, ob das zum Zug kommt auf einem CF Board....

gruss & besten Dank !
 
Für 1680x1050 so ein Monster, da tät es eine GTX oder HD4870 1GB @850/1000 Mhz aber auch, und dies um die Hälfte des Preises.
Die GTX 295 ist eher für 1920x1200 8xAA/16AF oder gar 2560x1900-er Auflösung interessant... Aber jedem das Seine, Gell.;)
 
sehe ich auch so...ab24" lohnt die sich erst, aber eine GTX295 ist kein Problem auf nem CF Board.
 
Zuletzt bearbeitet:
ja, da kann man mal sehen wie lange es noch dauern wird, bis die ersten Games erscheinen...und für 1-2 Games lohnt sich sonne Karte bestimmt noch nicht^^
 
Ende 2009 ;) wird angefangen zu producen! Anfang 010 (omg) gibt es die dann!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11058&Itemid=34

Wie gesagt - hierbei wird es sich um, quasi mit DX 11 Features, "nachgepatchte" Games handeln, wenn man von einer durchschnittlichen Herstellungszeit von 2 - 4 Jahren für ein Game ausgeht ! ;)

Also die Performance dürfte auch noch nicht optimal sein - Stichwort (zumindest am Anfang) Lost Planet und DX 10.


Also ich find die GTX 295 nicht overpowered für 1680x1050 - bei 1280x1024 oder so schon, aber bei 1680 nicht - dann spielt man halt alles mit 8xAA oder noch leistungsfressenderen Modi - aber halt schön flüssig ! :shot:

Ich möchte halt die best mögliche DX 10 Leistung, die eine "Einzelkarte" bringen kann - hab ja kein SLi Board - eine GTX 260 (216) und HD 4870 1 GB ist mir jedenfalls zu schwach (klar, es sind sehr flotte Einzelkarten, aber durch die mittlerweile sehr gute Skalierung von SLi bieten sie nur etwa die halbe Power - sprich statt 1680x1050 und 8xAA bei etwa 60 fps hat man dann oft nur maximal 30 - 35 fps und spätestens Mitte oder Ende nächsten Jahres wird es neue Kracher geben, bei denen den eben genannten Karten in hohen Auflösungen, max. Details und mindestens 4xAA mächtig die Puste (maximal 20 - 30 fps) ausgehen wird und hier würde die GTX 295, sofern SLi unterstützt wird, mächtig gegenüber diesen anziehen.

Hab keine Lust mir jetzt eine gute Performance Karte zu holen und dann Ende 2009 wieder eine der nächsten Generation (mangels fehlender Leistung der "alten") holen zu müssen.
 
Zuletzt bearbeitet:
Ich möchte halt die best mögliche DX 10 Leistung, die eine "Einzelkarte" bringen kann - hab ja kein SLi Board - eine GTX 260 (216) und HD 4870 1 GB ist mir jedenfalls zu schwach (klar, es sind sehr flotte Einzelkarten, aber durch die mittlerweile sehr gute Skalierung von SLi bieten sie nur etwa die halbe Power - sprich statt 1680x1050 und 8xAA bei etwa 60 fps hat man dann oft nur maximal 30 - 35 fps.

Wieso nicht gleich eine 280 ?! Die Preise sind im Keller... außerdem kannste dann wenigsten Crysis in 4xAA und Ultra High zocken ;)
So wie ich.:):)
Wobei hier mein (noch) Prozzi limitiert!

EDIT///Vielleicht bei x64 noch 4gb Ram dazu?
 
Zuletzt bearbeitet:
Hab insgesamt schon 8 GB von den Domis, leider macht das das Board net mit - mit 1066 auch bei 2.1 V VDIMM (nach Corsair Vorgabe) und erhöhter NB Spannung komm ich gar nicht erst in Vista (gleich ein Bluescreen) und selbst als DDR2 800 läuft es alles andere als stabil - hier bräuchte ich ein flottes Board mit P45 chipsatz wie das GigaByte P45 Extreme - was ich mir, denke ich, später noch holen werde, wenn es ein wenig günstiger ist - sollte ja spätestens mit dem Erscheinen des LGA 1160 soweit sein, dass die Preise der P45 Boards nochmal deutlich gesenkt werden.

Mein 2. Kit läuft jetzt übergansweise im aufgerüsteten PC eines Kumpels - atm könnt ich die vollen 8 GB eh nicht auslasten - betreibe kein Rendering o.ä. . ;)

MfG
Edge
 
Zuletzt bearbeitet:
Also ich find die GTX 295 nicht overpowered für 1680x1050 - bei 1280x1024 oder so schon, aber bei 1680 nicht - dann spielt man halt alles mit 8xAA oder noch leistungsfressenderen Modi - aber halt schön flüssig ! :shot:

Ich möchte halt die best mögliche DX 10 Leistung, die eine "Einzelkarte" bringen kann - hab ja kein SLi Board - ....

:hmm: dich soll mal einer verstehen
eine 4870 mit 512 reicht ja schon für ne Auflösung von 1680x1050 aus. Mehr Ram ist nur bei höheren Auflösungen von Nöten. Vorallem wenn du nach Einzelkarten suchst, dann biste bei der GTX295 ja ohnehin an der falschen Adresse, da es auch eine multi gpu - lösung ist^^

wenn du dich mit dem begnügen kannst was du hast, dann warte eben auf die neue Architektur
 
Mich kann man schon verstehen. ;)

Ich schreibe ja extra "Einzelkarte" in " " - physikalisch ist es ja eine, 2 GPUs teilen sich halt einen PCIe 2.0 (oder halt PCIe 1.1, falls PCIe 1 x16, wie etwa bei mir, vorhanden) Port.

Klar, ist es eine Dual - Karte, aber da die Skalierung mittlerweile schon deutlich besser ist, bin ich nun bereit, das ganze mal bei mir im PC zu testen.

Auch ist mir klar, dass eine HD 4870 512 MB oder GTX 260 (auch mit 192 Shadern) aktuell bestens für 1680x1050 und sagen wir locker 4x AA ausreicht - aber halt schon teils nicht bei solchen HW - Fressern wie Crysis WH und sicher auch einigen kommenden Games - denke bis Mitte '09 wird es so einige Spitzentitel geben, wo man mit den genannten Karten für ein flüssiges Spielvergnügen in hohen Auflösungen und Details schon Abstriche machen muss - etwa AA ausschalten oder so !

Das mein ich damit. ;)

Meine jetzige GTS 1024 schick auch in 1680 und hohen Details, aber ich merke teils schon, dass es vereinzelt zu kleinen Rucklern kommt (was ja nicht an der VRAM Menge liegen kann, sondern eher in der Architektur des G92 bzw. dessen fehlender Leistung im Vergleich zum GT200 / GT206 oder RV 770) - also, ich brauche keine neue Karte mit DX 11 bei deren Release - vor allem, wenn die Games sicher noch eine Weile recht rar gesäht sein werden.

Gruß
Edge
 
Zuletzt bearbeitet:
ich an deiner Stelle würde das Geld in einen größeren TFT investieren und bis zum Release der neuen Generation die dafür notwendige Kohle bis dahin zusammensparen. Bei derzeitigen Titeln wie Crysis lohnt sich der Upgrade nicht wirklich, denn nur um in Crysis 8xaa einstellen zu können ne neue Graka zu kaufen...wenn es dir das wert ist, dann bitte.
Wenn beides drinne ist um so besser...ich würde jetzt nicht weiterhin auf den 1680x1050 rumreiten wollen, selbst 1920x1200 sind gerade groß genug, für mehr reichte meine Kohle leider nicht.
 
Zuletzt bearbeitet:
Noch größer ? Brauch ich ehrlich gesagt nicht - dafür hab ich ja meinen 37" FullHD Sami samt PS360 und HiFi - Sys.

Größer für den PC wollt ich gar nicht - 22" schickt dicke, gerade wenn man davor nur eine 17" Röhre gehabt hat - außerdem hat der 226 BW damals mit ~ 400€ auch ein paar Steine gekostet.

Noch mehr Diagonale würde bedeuteten, dass ich immer eine High End Karte bräuchte oder im Extremfall SLi , um alles mit den Qualitätseinstellungen zu spielen wie ich es mit 22" kann - also ich brauche nicht mehr.

Du musst bedenken, dass die Games mit der Zeit ja auch immer anspruchsvoller werden und du das an der schwindenen Leistung deiner GPU schon merkst - vor allem bei Riesen TFTs mit 2560x1600 - die können nie genug Leistung haben - am besten immer Triple SLi !

Von daher hol ich mir jetzt lieber ne zumindest atm noch überdimensionierte GraKa, die dafür bei meinen Settings aber länger die Leistung liefert, mit der ich spielen will. :)


Nun ja - nur wegen Crysis mach ich das bestimmt nicht - ist halt allgemein so, dass die 295er in dem Setting mit 1680x1050 und 8xAA locker die doppelte Leistung meiner jetzigen GTS liefert.

Gruß
Edge
 
Zuletzt bearbeitet:
Ja, die 24-26 Zoll Monitore mit 1920x1200 sind das Letzte für Single Karten (Keine HD4870 X2) Lösungen, darüber MUSS schon zwangsweise SLI oder CF her um spielbare Frames erreichen zu können. Und solche >=30 Zoll Monitore habeb nur wenige!
 
Vor allem beginnt der Spaß bei 30"ern ja auch erst bei deutlich über 1000€ und geht bis etwa 4000€ ( *sick*) !

Jo, wären die 24er damals (im Frühjahr 2007) so günstig gewesen wie heute, hät ich mir wohl so einen geholt, aber da ich nun mal einen 22er hab und sehr zufrieden damit bin - ist weder zu große, noch zu klein - bleibe ich dabei.

Ich bleibe ebenso beim Kaufplan für die GTX 295 - man muss sich mal was richtig "unvernünftiges" gönnen, außerdem wollt ich schon immer mal SLi haben, nur bis jetzt waren die Lösungen net so pralle. :bigok:

Treibermäßig wurd es erst ab der 9800 GX2 richtig interessant, aber leider war die Karte auch für mich, mit einem absoluten K.O. - Kriterium behaftet: die 98 GX2 war von der Rohleistung super, aber der VRAM und die 8xAA Schwäche (auch wegen dem zu schmalen SI -> ATi hat hier ne andere und effektivere Architektur als nV) ham halt die Karte leider zu extrem in Full HD ähnlichen Auflösungen eingebremst, sodass selbst eine auf dem Papier deutlich langsamere 8800 GTX ab 1600x1200 und 8xAA Kreise um die GX2 gefahren ist - bei locker der 3 - 4 fachen Leistung)


Gruß
Edge
 
Zuletzt bearbeitet:
Hm...laut den Previews liefert sie doch sehr gute Leistung - locker 60 fps - oder meinste, dass es dort Mikroruckler gibt?

Nun ja, auf FC2 verzicht ich gern - für mich ist es DIE Enttäuschung 2008 (gut, im MP mag es ja net so schlecht und eintönig sein) und Dead Space (vor allem wegen der Atmo) der Geheimtipp des Jahres.
 
Zuletzt bearbeitet:
Gut, normales SLi ist besser als eine Dual - Karte, das weiß ich - aber deswegen hol ich mir kein 790i Ultra SLi und dazu noch mindestens teuren DDR3 RAM.

@ zuppi: Bei wievielen aktuellen Games haste denn Mikroruckler?



Also laut der Tabelle sind zumindest die fps auf dem Papier sehr gut - besonders halt in 1680.

http://www.pcgameshardware.de/aid,6...Benchmark-Test_mit_8x-Kantenglaettung/?page=8



Ist natürlich klar, dass du da mit deinem Sys über 90 fps hast - ich denk, da spielt der 4.2 GHz i7 auch ne Rolle und dann halt noch übelst übertakteten GTX 260 (216) im normalen SLi. ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh