nVidia Geforce GTX 295 - Sammel + Info Thread

Status
Für weitere Antworten geschlossen.
[...]
Ich bezweifle nicht dass die GTX295 deutlich schneller als die HD4870X2 ist, es geht mir darum, dass angebliche Journalisten Kompromisse eingehen um als erste Test zu haben und damit eben nicht mehr als Journalisten arbeiten sondern als PR-Leute.

Ach mein Gott, das Ding ist schneller als ne X2, findet euch damit ab! Ob die Spiele nun ausgesucht sind, oder nicht!
[...].

Ich habe jetzt eine ganz ernste Frage an dich: Kannst du lesen? Ich weiß das klingt jetzt so wie wenn ich dich bashen will, ist aber wirklich nicht so. Ich frage mich eben nur wie es sein kann dass ich schreibe dass die GTX295 schneller als die HD4870X2 ist und dann massig Postings kommen die sagen ich solle damit klar kommen dass die GTX295 schneller ist, ich solle nicht Weinen etc.pp.

Lest ihr meine Postings nicht? Sind sie unsichtbar? Schreibe ich Kyrillisch? Oder wollt ihr einfach nur trollen?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
NV hätte anstelle der 295 lieber noch eine Ultra Version der 285 bringen sollen, irgend wie kann ich mit der 295 nichts anfangen :rolleyes:

Jetzt hat man halt zwei G200 in einer Karte, aber was bringt das eigentlich dem User anstelle zwei normalen Karten im SLI? Rein gar nichts...

Wie so sind die User nur auf max FPS bei einer Karte geil :rolleyes:
 
Vom Chip selber isses schon so find ich eigentlich auch, nur der Speicher ist GTX260 Niveau.

Würde gerne mal den Vergleich sehen GTX280 SLi gegen die 295 mit den Takraten der 280.
Ich glaub so mancher würde sich wundern. Glaube das Speicherinterface macht gar nich so nen großen Unterschied.
 
deswegen wohl auch das knappe Ergebnis, ich wette aber da kommt noch ne abgespeckte Variante die eher in Richtung GTX280 wandert. Ich schätze zum Refresh seitens ATI.
 
NV hätte anstelle der 295 lieber noch eine Ultra Version der 285 bringen sollen, irgend wie kann ich mit der 295 nichts anfangen :rolleyes:

Jetzt hat man halt zwei G200 in einer Karte, aber was bringt das eigentlich dem User anstelle zwei normalen Karten im SLI? Rein gar nichts...

Wie so sind die User nur auf max FPS bei einer Karte geil :rolleyes:

jadoch, es bringt Leuten was die ein CF Board haben, so wie ich ;)
 
"Es wird im Q1 09 ein 4870 Nachfolger kommen und q2 die 5000er Serie, da..."
hab gestern iwo gelesen das AMD erst im 3Q/09 den gegenschlag ansetzt .... aber man weis ja nie
 
wirst nervös wombat? :)
 
Jetzt hat man halt zwei G200 in einer Karte, aber was bringt das eigentlich dem User anstelle zwei normalen Karten im SLI? Rein gar nichts...

1. man braucht kein Mobo mit SLI unterstützung
2. die Karte braucht bei der Leistung von GTX260 nur den Platz von einer
3.der Stromverbrauch ist geringer als bei 2 Einzelkarten

mfg
 
mal langsam,die hat nicht nur weniger takt sondern auch weniger ram und speicherbandbreite.daszu kommt eine anbindung von pci-e 8fach im sli.sie tendiert viel mehr zur 260gtx² als zur 280gtx von der leistung her.


wo steht den das sie nur 8 Lanes in PCI-E pro Chip hat *grübel

läuft doch so wie bei der X2

und ich nutze max die 1680x1050 daher ist der Ram mir nicht so wichtig und das SI kannst mit höheren Speicher Takt kaschieren :)
 
davon ab wombat ^^ zum thema tests... bei der 4870 hat ati auch NDA über lärm und stromverbrauch gelegt und abhilfe mit wundertreiber versprochen, soviel zum thema, unabhängig sind diese tests, wenn es user previews sind

die nackten daten dieser 5 spiele sprechen eine klare sprache und wenn du nicht unter selektiver wahrnehmung leidest, erkennst du das auch so an. es sind 5 "blockbuster" games und die sollten als performancerichtung reichen
 
Zuletzt bearbeitet:
Vom Chip selber isses schon so find ich eigentlich auch, nur der Speicher ist GTX260 Niveau.

Würde gerne mal den Vergleich sehen GTX280 SLi gegen die 295 mit den Takraten der 280.
Ich glaub so mancher würde sich wundern. Glaube das Speicherinterface macht gar nich so nen großen Unterschied.

Nö ich wundere mich schon nicht auf nem i7 Brett wenn ich mein SLI mit dem 280er von Snoopy vergleiche....
von daher hat Dural vollkommen recht.
 
1. man braucht kein Mobo mit SLI unterstützung
2. die Karte braucht bei der Leistung von GTX260 nur den Platz von einer
3.der Stromverbrauch ist geringer als bei 2 Einzelkarten

mfg

1. In der Preisklasse kann sich auch jeder ein SLI MB leisten, zudem die i7 MB ja eh fast alle SLI haben.

2. Ich hab auch regelmässig Platzmangel in meinem PC Case ;) Dafür dürfte die Kühlung bei zwei Karten deutlich besser/einfacher sein...

3. Sicher nicht, ein ding der unmöglichkeit! Alles zweimal vorhanden ergibt auch der zweifache Verbrauch.
 
Zuletzt bearbeitet:
zwei 280er der Güteklasse von Olli würden mir auch schon reichen, bis Ende nächsten Jahres:d
 
hallo,

Hat die Karte 1700 MB Fest ich meine Vollkommene 1.7 Gb Vram, oder wieder nur 2x896MB??
 
Zuletzt bearbeitet:
1. In der Preisklasse kann sich auch jeder ein SLI MB leisten, zudem die i7 MB ja eh fast alle SLI haben.

2. Ich hab auch regelmässig Platzmangel in meinem PC Case ;) Dafür dürfte die Kühlung bei zwei Karten deutlich besser/einfacher sein...

3. Sicher nicht, ein ding der unmöglichkeit! Alles zweimal vorhanden ergibt auch der zweifache Verbrauch.

1. ich habe ein Board. Nur weil ich ne nVidiakarte verbauen will möchte ich mir nicht unbedingt ein neues Board kaufen

2. bleibt das abzuwarten

3. die X2 verbraucht auch weniger wie zwei einzelne 4870, warum sollte das bei NV nicht möglich sein?

Der einzige Grund warum ich keine X2 gekauft habe, war der höllen Lärm den sie produziert...wäre also über eine ungefaire Antwort schon dankbar in welchen db Zahlen sich diese drehen könnte, da ich keinerlei Vergleichsmöglichkeiten zu nVidiakarten habe^^
 
Was mich am meisten stört sind ja die 448Bit / 896MB Speicher und das erst noch mit nur 1ns Speicher! Dann lieber gleich zwei GTX 285, da hat man was rechtes :p
 
1. ich habe ein Board. Nur weil ich ne nVidiakarte verbauen will möchte ich mir nicht unbedingt ein neues Board kaufen

2. bleibt das abzuwarten

3. die X2 verbraucht auch weniger wie zwei einzelne 4870, warum sollte das bei NV nicht möglich sein?

Der einzige Grund warum ich keine X2 gekauft habe, war der höllen Lärm den sie produziert...wäre also über eine ungefaire Antwort schon dankbar in welchen db Zahlen sich diese drehen könnte, da ich keinerlei Vergleichsmöglichkeiten zu nVidiakarten habe^^

wenn ich die X2 mit meiner alten GX2 vergleiche da war die NV unhörbar, und ne einzelne beim Testen vorm Wakü Umbau war eigendlich auch nicht zuhören, kommt drauf an wo die Schmerzgrenze der NV Techniker war, beim Lüfterbau, so warm werden die single Karten unter Luft nicht.
 
Zuletzt bearbeitet:
Ich warte nur mal bis eine Karte kommt die 2048 MB hat, oder wiso wird bei GTA 4 gesagt das man die Maximale Grafikeinstellung erst mit der nächsten Hardwaregereration spielen soll, und dann kommt auch nur wieder 896 MB ich verstehe das irgentwie nicht.
 
Zuletzt bearbeitet:
Also das NDA der 285 soll am 08.01 fallen, ab 16.01 dürfen "freie" ( ;) ) Tests Veröffentlicht werden.
 
Ich warte nur mal bis eine Karte kommt die 2048 MB hat, oder wiso wird bei GTA 4 gesagt das man die Maximale Grafikeinstellung erst mit der nächsten Hardwaregereration spielen soll, und dann kommt auch nur wieder 896 MB ich verstehe das irgentwie nicht.

Du hast doch schon eine Karte mit 2GB Speicher :wink:

EDIT///
wer den?

Behauptung ohne Beweis :rolleyes:

Ok...es war eine GTX260! Ich entschuldige mich für meinen dummen Fehler! Aber trotzdem:


"These cards will be sneaked to market in the next two weeks, but we are not sure how you would be able to tell if you got the 55nm card without taking the cooler off and inspecting the card. "
 
Zuletzt bearbeitet:
Ich warte nur mal bis eine Karte kommt die 2048 MB hat, oder wiso wird bei GTA 4 gesagt das man die Maximale Grafikeinstellung erst mit der nächsten Hardwaregereration spielen soll, und dann kommt auch nur wieder 896 MB ich verstehe das irgentwie nicht.

was neues von NV kommt im Q3 2009.
Und wenn sie keinen neuen 280er Aufguß bringen wirst du auf ne neue mit 1gig bis dahin warten müssen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh