Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 4

Status
Für weitere Antworten geschlossen.
Oder aber es kommen keine Infos mehr, weil nvidia die 260 in 55nm doch jetzt still und leise einführt. Schließlich ändert sich ja an der Performance der Karte nichts.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zwei GTX 280 ( 55nm ) im SLI-Verbund müssten doch leistungsstärker als eine GTX 295 sein, oder ?

Zwei GTX 295 im System wäre etwas Overkill :fresse:
 
Zuletzt bearbeitet:
Zwei GTX 280 ( 55nm ) im SLI-Verbund müssten doch leistungsstärker als eine GTX 295 sein, oder ?

Zwei GTX 295 im System wäre etwas Overkill :fresse:

Sollten, sind ja breiter am Speicher und am Chipsatz angebunden. Dafür brauchen sie auch deutlich mehr Platz im Gehäuse^^

Quad-SLI halte ich persönlich immer noch für den größten Scheiss den es gibt, da man dafür zwingend DX10 Games (die auch noch gut mit SLI skalieren müssen) oder OGL-Games braucht.
 
Zuletzt bearbeitet:
GTX 295 :eek::eek:

nicht mal 2 Monate hat man die schnellste karte kommt schon ne schnellere :shake:

die Entwicklung sollte mal ein bisschen bremsen.
ich komme nicht nach mit kaufen :d
 
Zuletzt bearbeitet:
GTX 295 :eek::eek:

nicht mal 2 Monate hat man die schnellste karte kommt schon ne schnellere :shake:

die Entwicklung sollte mal ein bisschen bremsen.
ich komme nicht nach mit kaufen :d

Ach, ist doch harmlos, früher war das schlimmer.
Wenn man sich vor zwei Jahren eine 8800 GTX holte und dieses Jahr die GTX 280, dann ist man doch voll dabei.

Das Refresh zu holen macht ja keinen Sinn und bringt nur was, wenn man die Karte für Benchmarks hat, oder um "mitreden" zu können.
Bis mal wieder eine Karte ~50% schneller ist, damit man in Spielen auch etwas davon hat, wird es wohl noch was dauern.

Gruß
Udo
 
Jo, 55nm ist für GT200 Besitzer eigentlich recht nutzlos, da sie sich schon in 65nm sehr gut oc'ed lassen.

Eher für Leute interessant, die eine G80 oder G92 haben (oder noch älter wie NV 71).

Interessanter wird es dann schon Ende des ersten oder im zweiten Quartal, wenn die GT216 und 212 in 40nm kommen.
Dort gibt es dann eventuell auch mehr Shader Units und VRAM (vll. sogar schon GDDR5, wobei man in dem Falle ,
wie es ATi zeigt, eigentlich kein SI von 448 oder 512 Bit bräuchte).

Richtig interessant wird es sein, zu sehen, wie der GT300 - inkl. einer neuen Architektur - im 4. Quartal 2009 abgeht
und sich außerdem gegen die HD5870 (X2) schlägt.


Abwarten und [hier ein beliebiges Getränk - auf Wunsch auch alkoholhaltig - einsetzen] trinken. :d

Gruß
Edge
 
Zuletzt bearbeitet:
Das Refresh zu holen macht ja keinen Sinn und bringt nur was, wenn man die Karte für Benchmarks hat, oder um "mitreden" zu können.
Bis mal wieder eine Karte ~50% schneller ist, damit man in Spielen auch etwas davon hat, wird es wohl noch was dauern.

Aber die GTX 295 ist so gut wie überall um ~25% schneller als die GTX 280.
Sogar die HD 4870 X2 kommt nicht an die GTX 295 ran.

Wo liegt denn das Problem, wenn man sich die GTX 295 nicht holt? Ausser natürlich dem finanziellen Problem, wäre die GTX 295 allemal ein Erfolg.
2 Kerne sind immer besser als einer. Die Effizienz liegt aber bei der Software.

Wären drei dieser Monsters auf einem MoBo möglich? Ich weiss, das wäre der absolute OVERKILL, mich interessiert nur obs möglich wär.

Gruss
MC
 
Zuletzt bearbeitet:
Aber die GTX 295 ist so gut wie überall um ~25% schneller als die GTX 280.
Sogar die HD 4870 X2 kommt nicht an die GTX 295 ran.

Wo liegt denn das Problem, wenn man sich die GTX 295 nicht holt? Ausser natürlich dem finanziellen Problem, wäre die GTX 295 allemal ein Erfolg.
2 Kerne sind immer besser als einer. Die Effizienz liegt aber bei der Software.

Wären drei dieser Monsters auf einem MoBo möglich? Ich weiss, das wäre der absolute OVERKILL, mich interessiert nur obs möglich wär.

Gruss
MC

3 x 295 sind nicht möglich schau dir mal die bilder an, da wo die brücke hin kommt .... treiber technisch gäbe es dan auch probleme ;) 6 karten die verwaltet werden müsten ... die treiber sind schon gaga bei quad sli, hat man doch schon in vergangenheit gesehen. :motz:
 
Das Refresh zu holen macht ja keinen Sinn und bringt nur was, wenn man die Karte für Benchmarks hat, oder um "mitreden" zu können.
Bis mal wieder eine Karte ~50% schneller ist, damit man in Spielen auch etwas davon hat, wird es wohl noch was dauern.

Wieso macht es keinen Sinn die Refreshkarten zu holen? Höherer Takt, geringer Stromverbrauch, leisere Kühler, mehr OC-Potential und das alles zum alten Preis!
 
3 x 295 sind nicht möglich schau dir mal die bilder an, da wo die brücke hin kommt .... treiber technisch gäbe es dan auch probleme ;) 6 karten die verwaltet werden müsten ... die treiber sind schon gaga bei quad sli, hat man doch schon in vergangenheit gesehen. :motz:

dann sind ja 3 GTX 280 immer noch besser als 2 GTX 295 ;)
 
Naja, die Dual-GPU Karten sind ja auch eigentlich eher Prestige-Objekte für ATI und nvidia und für die die sich auch ein SLI System zusammenbauen würden. Für den Normalo ist das nichts, außerdem ist es mit "nur" einem 22er (wie in meinem Fall) absolut sinnlos.
 
Naja, die Dual-GPU Karten sind ja auch eigentlich eher Prestige-Objekte für ATI und nvidia und für die die sich auch ein SLI System zusammenbauen würden. Für den Normalo ist das nichts, außerdem ist es mit "nur" einem 22er (wie in meinem Fall) absolut sinnlos.

Für jeden Gamer, da bisher 30" zu langsam zum spielen sind!
 
Leute Leute, was soll das jetzt. Kommt ihr jetzt auch noch mit grösseren Monitoren? :eek:

Ich selber hab einen 22er nach 4 Jahren 17" aber es gibt Leute die benutzen gleich den ganzen 40er Fernseher zum Gamen :stupid:
Warum muss man überdimensionale Sachen kaufen oder wollen wenns die jetzigen auch tun. Die GTX hab ich mir jetzt für die nächsten paar Jahre gekauft. Den PC Spass werd ich auch nicht immer haben. Man muss überall ein bisschen Aktualität präsentieren, nicht nur am PC, weil das sehen nur die Forenbesucher. ;)

"Ich kauf mir 3 GTX 280, dann häng ich das ganze an meinen 40" Full HD Fernseher, man wird das geil beim GTA4 zocken" :-[

Solche Dinge hab ich gehört. Das find ich nun wirklich dumm, tut mir Leid, aber an seiner Stelle hät ich gleich zu einer PS3 gegriffen und mir den Aufwand gespart.

Das IPhone hat sich anfangs auch jedermann gekauft, jetzt kein Jahr später kommt schon das IPhone Nano. :hmm:
Die von damals werden sich das Nano kaufen und das alte der Oma schenken... Einfach nur lächerlich.

Zu viel Geld? Aber draussen zeigen sich solche Personen mit altmodischen Kleidern. Nur Technik, Technik haben sie im Kopf- Das sollte mal abgeschaltet werden :xmas:
 
Wäre ja eine tolle Logik: Um die Performance einer Dual-GPU Karte auszunuten kauft man sich den passenden Monitor gleich dazu. Warum werden die großen Monitore nicht gleich mit einer passenden Karte gebundelt. Da kommts bei den Preisen auch nicht mehr drauf an. ;)
 
omg

die preise der GTX 280 sind ja im freien fall, ich habe die befürchtung das der aktuelle preis unter dem der GTX 285 liegt .. ab 300,- wirds schon echt schwer "nein" zu sagen :eek:

aber, habe auch gelesen das die GTX 295 einen kampfpreis haben soll wenn das so wär, würde die GTX 285 sicher auch "günstig" werden.

weiß da jemand was?!
 
omg

die preise der GTX 280 sind ja im freien fall, ich habe die befürchtung das der aktuelle preis unter dem der GTX 285 liegt .. ab 300,- wirds schon echt schwer "nein" zu sagen :eek:

aber, habe auch gelesen das die GTX 295 einen kampfpreis haben soll wenn das so wär, würde die GTX 285 sicher auch "günstig" werden.

weiß da jemand was?!

Wieso freier Fall? Ich denke, hier macht sich der steigenden €-Kurs schon bemerkbar!
 
ich kann rellativ günstig eine gtx280 bekommen ,lohnt es sich auf eine gtx285 zu warten

ICH würde (und habe) zur 280er greifen. allein schon wenn ich bei dir inner sig. sehe, dass du mit wass kühlst. meine überlegung war nämlich folgende: für die 280er gibts schon gute kühler, da alle karten im referenzdesign sind. was mit den 285ern sein wird steht momentan wohl noch in den sternen.

und ob sich ein hersteller drauf einlässt kühlkörper für ne karte rauszubringen, die wohl nur zwei quartale auf dem markt sein wird (dann sollen ja wohl die 40nm modelle kommen) - also ICH würde als hersteller da keinen kühlkörper fertigen wollen.

das waren aber nur meine wirren gedankengänge. und mal ehrlich: die gtx280 ist ne geniale karte. mir ist sie schnell genug und wird das wohl noch das nächste jahr sein.
 
Möchte meine 8800GT ablösen.
Habe da die EVGA e-GeForce GTX 280 SC im Auge. Reicht da mein BeQuiet Dark Power Pro 530 Watt?
 
Hallo

Bin seit einigen Tagen stolzer Besitzer einer XFX BE GTX260. Die Karte ist echt der Hammer und bin total happy mit dem Teil.

Ich habe allerdings ein kleines Prob mit dem 2D Modus, den dieser wird überhaupt nicht aktiviert. Angeschlossen ist die Karte an meinen Samsung LE32A656A1 via DVI-HDMI. Über Google hab ich schon herausgefunden das die Karte dadurch immer im Low 3D Modus arbeitet, was ich bestätigen kann.
Jetzt ist meine Frage ob ich den 2D Modus irgendwie erzwingen kann?

In einem anderen Thread habe ich gelesen das "Lordi" (weiß leider nicht welcher) eine Lösung geposted hätte, nur hab ich bisher nix über die Suchfunktion finden können.

Ich wäre euch sehr dankbar wenn ihr mir da helfen könntet!:)
 
Möchte meine 8800GT ablösen.
Habe da die EVGA e-GeForce GTX 280 SC im Auge. Reicht da mein BeQuiet Dark Power Pro 530 Watt?

Wirst Du merken wenn Du sie angeschlossen hast, oder willste auf Verdacht 80 Euro für ein neues Netzteil raushauen? Es gab in der Vergangenheit Probleme mit 280GTX und BQ-Netzteilen. Rein rechnerisch und von der Leistung her sollte das BQ völlig ausreichen. Jedenfalls wenn ich so in Deine Sig schaue.
 
Zuletzt bearbeitet:
Uuuh das klingt gut, Probleme mit BQ NTs und GTX280. Dann werde ich mal hoffen dass das bei mir nicht auftritt.
 
meine karte ist unterwegs zu mir ,hoffentlich klappt das noch vor weihnachten.
MSI N280GTX-T2D1G Super OC, 1024MB, GDDR3, PCI-Express ,und der wakü kühler ist auch unterwegs,hauptsache ich habe nicht mehr dieses treiber geflicke wie bei ati ,1jahr ati reicht erst mal
 
welche kühler haste den dir dazu bestellt bin mir mom nicht schlüssig da ich immer EK gut gefahren bin kann mich aber nicht endscheiden ;)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh