nVidia Geforce GTX 295 - Sammel + Info Thread

Status
Für weitere Antworten geschlossen.
fassen wir mal zusammen:

+Etwas mehr Leistung (mehr konnte man auch gar nie erwarten, wie so hab ich schon vor Monaten hier mal geschrieben)
+Deutlich weniger Verbrauch (bis zu 100Watt!!!!)
+Cuda
+PhysX
+SLI
+Treiber
+AA-Modi
+HQAF
+OC potential scheint extrem gut zu sein, sind Info von über 800MHz mit WaKü im Umlauf und da sieht die X2 kein Land mehr...

Und was hat die X2 jetzt noch zu bieten? Eigentlich gar nichts mehr, ausser vieleicht die Leistung unter 8xAA das aber auf NV Karten kein Mensch verwendet...

und keiner soll mir jetzt mit dem Preis kommen, einer der es wirklich nötig hat bei 400.- auf ein paar Euro zuschauen hat glaub bei solchen Karten nichts zu suchen ;)

huhuhuhu HQ AF das darfte aber nicht erwähnen :d davon weiß doch nix und keiner was im ATI Lager :lol:

@Whitecker007

NV hat nen Riesenvorteil>Die Treiberabteilung und da dürfen sie meinetwegen noch 100 Aufgüsse des G200 bringen wenn das gehalten werden kann.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
eh kake nach diesen tests hab ich die 295 gleich wieder stoniert...zahl ned fast 500€ für die Leistung wenn man sie um 370 bekommt...schade wäre gerne wieder du nvidia aber bei dem unterschied (also 0) bleib ich bei ati und hohl mir ne billige x2 und verzichte auf fetzn und bruchglas alla physx..ECHT SCHADE....da wär ja noch die 285 Interressanter
 
fassen wir mal zusammen:

+Etwas mehr Leistung (mehr konnte man auch gar nie erwarten, wie so hab ich schon vor Monaten hier mal geschrieben)
+Deutlich weniger Verbrauch (bis zu 100Watt!!!!)
+Cuda
+PhysX
+SLI
+Treiber
+AA-Modi
+HQAF
+OC potential scheint extrem gut zu sein, sind Info von über 800MHz mit WaKü im Umlauf und da sieht die X2 kein Land mehr...

Und was hat die X2 jetzt noch zu bieten? Eigentlich gar nichts mehr, ausser vieleicht die Leistung unter 8xAA das aber auf NV Karten kein Mensch verwendet...

und keiner soll mir jetzt mit dem Preis kommen, einer der es wirklich nötig hat bei 400.- auf ein paar Euro zuschauen hat glaub bei solchen Karten nichts zu suchen ;)

1. 100w lol, 45W - >http://www.computerbase.de/artikel/...force_gtx_295/24/#abschnitt_leistungsaufnahme
2.Stream
3.DX 10.1
4.Treiber (gleich gut/gleich beschissen)
5.Lol Blur SS oder was
6.Minimal besser bei NV
7.OC kann man nicht verallgemeinern (Serienstreung, gibt immer gut und schlechte)


Bin mal gespannt wann NV den 3. Aufguss von der GTX260 bringt mit 240SP dann.
 
Nicht vergessen dass nVidia kein DX10.1 hat ;)
 
Muss dies nun neidlos eingestehen!
Echt SAUguter und realistischer Preis der GTX 295, dies hätt ich nicht erwartet und viel zu hoch angesetzt!!
Zudem wenig bis so gut wie keine Microruckler mehr, nun wird wohl eher ATI noch am Preis etwas schrauben müssen, denke 320-330 Euro werden wir bald bei der HD4870 X2-er Karte sehen!
 
Messungen: Geforce GTX 295
Die finale Geforce GTX 295 erreicht im Idle-Modus mit aus 50 Zentimetern Abstand gemessenen 3,1 Sone (41,5 dB(A)) für ein High-End-Gamersystem noch erträglich, für Silent-PCs jedoch ungeeignet. Unser Energy-Check misst in diesem Zustand eine Leistungsaufnahme von lediglich 118,3 Watt für unser auf dieser Seite beschriebenes Gesamtsystem. In Anbetracht der Tatsache, dass zwei GPUs und 1.792 MiByte GDDR3-RAM zum Einsatz kommen, ist der Wert in Ordnung. Zum Vergleich: Eine Single-GPU-Karte mit GTX280-Chip (65nm) benötigt hier bei einer Lautheit von 1,5 Sone 95,4 Watt, eine HD 4870 X2 bei 1,0 Sone 134,6 Watt.

Im Lastbetrieb ergibt sich folgendes Bild:
Im weniger fordernden, aber eine typische Last erzeugenden Mother-Nature-Test des 3D Mark 03 erreichen wir folgende Werte mit der Geforce GTX 295 und 180.87er-Treiber, welcher auch Retail-Mustern beiliegt:

• Lautheit: 5,8 Sone
• Schalldruck: 49,3 dB(A)
• Temperatur: 84 Grad Celsius
• Leistungsaufnahme (Gesamtsystem): 316 Watt

Zum Vergleich: Die Geforce GTX280 erreicht bei identischem Testverlauf 3,4 Sone (44,1 dB(A)) und das Testsystem nimmt dabei 280,6 Watt elektrischer Leistung auf. Eine Radeon HD 4870 X2 wird bei 6,7 Sone ( 50,8 dB(A)) gekühlt und bewirkt eine Leistungsaufnahme des Gesamtsystems von 367,4 Watt*.

Im Extrem-Stresstest Furmark messen wir für das Gesamtsystem bis zu 383 Watt Leistungsaufnahme, der Lüfter muss dabei mit sehr lauten 8,8 Sone arbeiten, um die beiden GPUs auf heiße 93 Grad Celsius zu kühlen. Um diese Werte zu erreichen, mussten wir ein SLI-Profil für den Furmark aktivieren. Die Radeon HD 4870 X2 muss hier mit 9,6 Sone (57,2 dB(A))lüften, um die GPUs auf ebenfalls 93 Grad Celsius zu halten und das System kommt dabei auf eine Leistungsaufnahme von 496 Watt*. Um die Treiberdrossel für den Furmark zu umgehen, mussten wir die Startdatei furmark.exe umbenennen.

*Die Leistungsaufnahme der Dual-GPU-Karten haben wir mit einem Enermax Modu82+ gemessen, da diese über der Nennleistung unseres Standard-Netzteils liegt.

Quelle PCGH
 
1. 100w lol, 45W - >http://www.computerbase.de/artikel/...force_gtx_295/24/#abschnitt_leistungsaufnahme
2.Stream
3.DX 10.1
4.Treiber (gleich gut/gleich beschissen)
5.Lol Blur SS oder was
6.Minimal besser bei NV
7.OC kann man nicht verallgemeinern (Serienstreung, gibt immer gut und schlechte)

1.
Im Extrem-Stresstest Furmark messen wir für das Gesamtsystem bis zu 383 Watt Leistungsaufnahme, der Lüfter muss dabei mit sehr lauten 8,8 Sone arbeiten, um die beiden GPUs auf heiße 93 Grad Celsius zu kühlen. Um diese Werte zu erreichen, mussten wir ein SLI-Profil für den Furmark aktivieren. Die Radeon HD 4870 X2 muss hier mit 9,6 Sone (57,2 dB(A))lüften, um die GPUs auf ebenfalls 93 Grad Celsius zu halten und das System kommt dabei auf eine Leistungsaufnahme von 496 Watt*. Um die Treiberdrossel für den Furmark zu umgehen, mussten wir die Startdatei furmark.exe umbenennen.

2. Bis jetzt kaum verwendung...

3. Dazu sag ich nur FC2 ;)

4. Klar besser

5. so viel zum Thema

6. was war das noch mal lol

7. OC ganz klar besser, keine ausrede hier, zudem der RV770 überhaupt nicht Takt freudig ist und ich kann da wohl serh gut beurteilen da ich schon einie getestet habe...
 
Die Sache ist doch ganz klar: Wer auf Bildqualität,Features wie PhysX,Stereo3D,editierbare SLI Profile wert legt kauft Nvidia. Wer nicht anspruchsvoll oder weniger Geld ausgeben will greift zur Ati. So einfach ist das.
 
Jungs bekommt ihr die Sache hier selber wieder in normale bahnen oder braucht der Thread erst ne Pause?

Reisst euch zusammen!
 
ja Dural, aber es zeigt auch, dass ATIs Kühler jede Menge mehr leisten muss als nVidias. Wenn nVidia ATIs Kühlsystem hätte, wäre sie sogar "silent", da das Kühlsytem weitaus weniger leisten muss.
 
Viele Tests im Netz und alle völlig unterschiedlich.Bei einem Idle leise beim anderen sehr laut.Klingt nach Produktionsschwankung.

Der Energieverbrauch ist besser als bei der 4870 X2.Mit dem Rivatuner wie üblich bekommt man die Karte leiser als jede 4870 X2 und auch noch kühler.

Die Leistung der Karten würde Ich sagen ist sehr sehr ähnlich.Einige Ausreißer sind wieder dabei bei den Benches im Netz.Was wieder einmal belegt das auch viele Fehler beim Benchen gemacht werden und die unterscheidlichen Plattformen und Treiber (Siehe Betamurkstreiber CB) ergeben den Rest.

Momentan spricht der Preis klar für die AMD Karte und Nvidia kann hier nur mit wohl etwas besserem Treiber und geringerm Stromverbrauch punkten.

Ob das den Preis dann rechtfertigt ist ja jedem selber überlassen.
 
naja ich hab sie mit Lüfter gehört und sie wird auch kräftig wärmer >die X2 oder verdrehste da jetzt was?

irgenwie fehlt was...??
 
Nur 15 Prozent mehr als die GTX 280 finde Ich viel interessanter für die eigene Kaufentscheidung schließlich spielt die neue nun im Bereich der alten 280er was den Preis angeht.Wir werden hier relativ schnell die 399 Euro sehen denke Ich.
 
Zuletzt bearbeitet von einem Moderator:
Sieht einfach nach höhere Spannung aus wie auch bei den anderen GTX Versionen.Da unterscheiden sich später garantiert wieder die Hersteller extrem.Dadurch verändert sich natürlich die Lautstärke und der Stromverbrauch.Was bei der GTX 260 ein Unterschied von 1,12 zu 1,03 V macht wissen die die es geflasht haben oder von Werk aus hatten.
 
is doch eindeutig, dass die 295 ne fehlentwicklung bei dem stromverbrauch ist.

Wer Highend will guckt sicher nicht auf den Stromverbrauch, egal ob ATI oder NV ich hab auch nen 740 i mit nem V8 drin ist mir doch wayne was die karre fressen tut hauptsache ich hab das was ich will und bin glücklich damit, wenn du ne Graka willst die nicht mehr wie 90 Watt frisst dann musst du auch in kauf nehmen das sie halt keine Power hat ganz einfach :rolleyes:

Wer bei sowas auf den Stromverbrauch gucken tut dem fehlt was, wenn ich was stromsparendes haben will kauf ich mir ne ganz kleine passive Graka und gut ist.

dass die vor monaten erschienene 4870 x2 mithalten kann. echt traurig was nvidia zur zeit abliefert! :rolleyes:

hoff, dass die es bei der nächsten generation mal wieder schaffen innovativ zu sein :fresse:

die GTX295 ist auch bloss ne zusammen geklebte GTX260 da ist garnix neu dran für die Leute die kein SLI Board haben (oder wollen *g*) find ich die Karte ganicht schlecht.
Und wie wars den mit der 8800 GTX ?
ATI hat auch paar Grakas raus gebracht und keine chance gegen die G80 GTX gehabt, jetzt wird das selbe Thema NV halt mal durch machen müssen.



so zum Thema:

Hab mir mal paar Benches angesehen und sieht ja soweit ganz gut aus, gut das 2x PCB Design find ich total zum kotzen und die Karte sieht auch scheisse aus aber trotzdem find ich das Teil ganz net, kaufen würd ich sie trotzdem nicht :fresse:
 
Zuletzt bearbeitet:
die GTX295 ist auch bloss ne zusammen geklebte GTX260 da ist garnich neu dran für die Leute die kein SLI Board haben (oder wollen *g*) find ich die Karte ganicht schlecht.

nicht ganz,denn die besitzen 240 shader pro kern.sonst ist aber identisch.

ps. meine ist unterwegs;)
rofl 2*260² gtx nv karten und morgen dann noch de 295 gtx zuhause,hahha
 
Zuletzt bearbeitet:
Zocker hatt mal das gesagt was ich immer denke,wenn jemand sich zb. ne X2 kauft,der denkt nich echt drüber nach ob er strom sparen will,weil mit sowas kauft man sich einen kleinen stromschlucker.
 
nicht ganz,denn die besitzen 240 shader pro kern.sonst ist aber identisch.

ps. meine ist unterwegs;)
rofl 2*260² gtx nv karten und morgen dann noch de 295 gtx zuhause,hahha

paßt doch, haste "Q" :d
Läuft das Sli jetzt?

@scully1234
was guckst du denn da?
Das eine ist 4x und das andere 8x oder was meinste jetzt?
 
Zuletzt bearbeitet:
Hmmm... die 295 gibts ja schon bei alternate =D
ich willl aber die 285 :d:d
so ein scheiß ^^
nja...
muss ich wohl warten =)
aber preis ist noch ein ,,wenig" hoch :d
 
Was mir mehr gedanken macht sind diese extrem auseinander trifftenden testergebnisse von einigen seiten:hmm:

Wie kann sowas sein:fresse:


Naja, die einen testen mit 4 die anderen mit 8AA und 8AA hat Nvidia noch nie gelegen. In 2560 spielt dann wohl einfach der grössere ram der Ati seine Vorteile aus.
 
nicht ganz,denn die besitzen 240 shader pro kern.sonst ist aber identisch.

ps. meine ist unterwegs;)
rofl 2*260² gtx nv karten und morgen dann noch de 295 gtx zuhause,hahha

-ich sage trotzdem 2x einzelne Karten sind besser, wenn man nen SLI/CF board hat würde ich nicht über ne GX2 / X2 nachdenken.

-man hat 2x PCie 16x nicht 8x8, auch wenn es nur 2 FPS sind schneller ist schneller.

-dann das Problem mit der Hitze, nen wakü kühler kostet wieder nen halbes vermögen und ein Kühler von ner anderen marke kann man auch vergessen also man ist auf den Kühler der 295 angewiesen und das stinkt.
 
Selbst auf xtremesystems wird der test von cb angezweifelt:stupid:

Ja sogar sich drüber lustig gemacht,wie man mit diesen settings testen kann u dabei objektiv vergleichen will:d

 
Zuletzt bearbeitet:
Ahh kake hab vor ner stunde ne 295 bestellt und wollt dann stonieren....alternate sag die is schon auf dem Versandweg....sind die wizig oder gehen die Bestellungen direkt bei der Post ein.....
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh