Nvidia GeForce 280 GTX "Sammel-Thread + FAQ" Bitte bei Fragen die erste Seite lesen 3

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
so meine 280 SSC ist gekommen und eben mal kurz den Dödelmark laufen lassen. In 1024x1280 mit nem Q9450@3,2 Ghz komme ich auf 16533 Punkte. Sollte doch ein guter Kurs sein für ne Single Karte.
 
Das ist völlig unlogisch dass das Netzteil mit 2 GTX280 funktioniert und mit
1 nicht. Ich hab übrigens das gleiche Netzteil nur noch keine GTX280.
Die 12V hängen alle zusammen, hab ich gerade mit dem Ohmmeter nachgemessen.
Hast du den, beim Netzteil beiligenden, 8Pin PCI-E-Adapter verwendet?

Wieso unlogisch, wenn es nun geht? Die LEDs der 2 Karten sind nun nicht einmal rot geworden. Was sagt mir das? Richtig - Stromversorgung stimmt nun.
Hab der Adapter von der Karte genommen. Beim M12 war überhaupt keiner dabei. ;)

http://seasonicusa.com/m12.htm
Hinzugefügter Post:
Hat jemand die Zotac Amp 700MHz?
Mich würde interessieren, ob die Karte 100%ig ohne Fehler bei Furmark läuft. Denn hier und da hab ich schon Karten (normaler Takt) gesehen, die mit Lukü keine 700 fehlerfrei schaffen.
 
Zuletzt bearbeitet:
@OliverM84


der heutige tag war der letze wo ich meine graka280er nochmal eingebaut habe und ich den biosmod vollziehen wollte..

ich habe es hinbekommen und siehe da

10-15grad niedrigere temperaturen

mein lüfter ist kaum zu hören

wie soll ich mich bedanken

das heisst natürlich die 280er bleibt drin..

werde morgen die 260er wieder in laden bringen...

DANKE DANKE DANKE

juhu
 
@Intel User:

Ich habe die Zotac AMP und sie läuft nicht nur mit Furmark einwandfrei, mit Crysis ebenso.

Idle: 65 Grad, ich habe 2 Monitore, daher kein automatisches runtertakten
Last: 85 Grad in Crysis, bis 92 Grad in Furmark

Bei mir läuft die Karte einwandfrei

Erik
 
@OliverM84


der heutige tag war der letze wo ich meine graka280er nochmal eingebaut habe und ich den biosmod vollziehen wollte..

ich habe es hinbekommen und siehe da

10-15grad niedrigere temperaturen

mein lüfter ist kaum zu hören

wie soll ich mich bedanken

das heisst natürlich die 280er bleibt drin..

werde morgen die 260er wieder in laden bringen...

DANKE DANKE DANKE

juhu

Das ist schön zu hören, ... macht einiges aus, die Spannungsabsenkung, was ;)
 
hab seit gestern auch meine gtx280 mit nem heatkiller drinne.
1. fazit: wenn man crysis als den z.z ultimativen benchmark nimmt, dann ist der unterschied bei 1920x1200 "very high" no aa, gegenüber meinen 3870cf schon eklatant.
keine bildfehler, kein ruckeln, alles läuft super smooth. hab mal fraps mitlaufen lassen, da sinds ca 27fps. werds aber noch genauer benchen. hätte nicht gedacht, dass man in der auflösung sogar ganz passabel zocken kann.
kurzum, für 340€ bin ich allemal zufrieden :)
 
hab seit gestern auch meine gtx280 mit nem heatkiller drinne.
1. fazit: wenn man crysis als den z.z ultimativen benchmark nimmt, dann ist der unterschied bei 1920x1200 "very high" no aa, gegenüber meinen 3870cf schon eklatant.
keine bildfehler, kein ruckeln, alles läuft super smooth. hab mal fraps mitlaufen lassen, da sinds ca 27fps. werds aber noch genauer benchen. hätte nicht gedacht, dass man in der auflösung sogar ganz passabel zocken kann.
kurzum, für 340€ bin ich allemal zufrieden :)

Mit dem Befehl "r_displayinfo=1" (ohne ") in der Console, kannst du auch die FPS im Spiel anzeigen lassen.
 
Mit dem Befehl "r_displayinfo=1" (ohne ") in der Console, kannst du auch die FPS im Spiel anzeigen lassen.

was ist da dann der unterschied zu den fps im linken oberen eck von fraps?
oder meinst du fraps unabhängig?

werde mal heute abend den crysis benchmark laufen lasenn.

btw: hehe, mit dem p5wdh haben wir quasi nen identischen rechenknecht
 
Der momentane "Stromspar-Trend" ist wohl stark im kommen.
Gehts euch um die Haltbarkeit der Karte (speziell für Wakü-User)?

Mich hätte ja mal interessiert, was die Leute (Wakü) bei einer offenen VGPU-Option flashen würden. Ich denke, da könnte Manche nicht die Finger von zb 1,25 oder gar 1,3V lassen, oder? :d

Bietet ATI/AMD eig. höhere VGPU als Default per Flash?
 
Der momentane "Stromspar-Trend" ist wohl stark im kommen.
Gehts euch um die Haltbarkeit der Karte (speziell für Wakü-User)?

Mich hätte ja mal interessiert, was die Leute (Wakü) bei einer offenen VGPU-Option flashen würden. Ich denke, da könnte Manche nicht die Finger von zb 1,25 oder gar 1,3V lassen, oder? :d

Bietet ATI/AMD eig. höhere VGPU als Default per Flash?

Warum, ... ist einfach schön, dann die Karte kühler bleibt und weniger verbraucht, warum sollte man es dann nicht tun.

Wie weit ich geben würde?

Die Karte scheint nicht so sehr auf Spannung zu reagieren.
Also laut Dural laufen 800MHz Core stabil mit 1,35v.
Allerdings sind das nur 0,1 mehr als default, denn die eingestellten 1,18v im Bios sind ca. reale 1,25v.

Also mit 1,35v hätte ich auch kein Problem.
 
Also doch Stromsparen :)
Wobei das mit dem Kühlerbleiben bei dir nicht so dringend ist wie bei Lukü. Um wieviel sank bei dir die Temp unter Volllast von 1,18 auf 1,03V? (Furmark und Spiele)

"Nur" 0,1V mehr ist bei der Strukturbreite schon einiges. ich weiss nicht genau, ob man eine 65nm-CPU mit einer 65nm-GPU vergleichen kann. Bei einer CPU mit 65nm wären 1,45V mit Wakü auch kein Thema. Die Frage ist nur, ob die Spwa´s bei der GTX280 für 1,45V ausgelegt wären.
 
Hey Leutz!
Hab da mal ne Frage ... und Bitte keine Kritik an den 3 280ern- ich will es warm haben im Büro :fresse:, Ich habe als aktuelles System Win VISTA 64bit-
nach einigen Querelen habe ich jetzt TripleSLI beim laufen!
Dieses Sch....System reißt mir aber immer wenn ich den Rechner vom Strom nehme und wieder starte die komplette Konfig. auseinander.
Einige Programme maulen rum , daß plötzlich bestimmte Einträge in der Registry nicht mehr vorhanden sind und ich habe dann zwar noch alle Grakas im Gerätemanager , dafür aber 6Monitore , die ich ansteuern kann :stupid:.
anschließend muß ich wieder den Treiber neu installieren und die Sli-brücke neu raufstöpseln:stupid:.
Versteht das jemand?
Wenn ich den PC am Netz lasse passiert nichts dergleichen!
 
Tripple SLI :fresse:

vielleicht den Rechner nach dem Runterfahren am Netz lassen und alle
anderen Peripherie-Geräte separat per Schaltsteckdosenleiste steuern.
Das behebt zwar nicht dein Problem, aber es mag helfen es zu vermeiden...?
 
@ toby120

Zuviel OC? Backup-Batterie leer? MB kaputt?
Heizungen gibt es viel billiger und leisten auch mehr :d

Mich gehts ja nichts an. Ich könnte mir auch T-SLI leisten, aber wegen div. Gründe mach ich es nicht ;)
Ich nehm mal an, dass das Sys. eher zum Benchen ist, oder?
 
hmm, vllt verliert der rechner masse? überbrückt irgenein kabel oder mobo-pin (von unten)?

bin kein auch fan mehr von multi-gpu. zu unausgereift.
 
Toll alle verfluchen Tripper-SLI aber haben einen Quadcore unter der Haube!
4 CPU werden selbst heutzutage nicht ausgelastet und... Lostplanet hat statt 70FPS 180-200FPS Ist doch schon ganz gut das Ergebnis!
 
Toll alle verfluchen Tripper-SLI aber haben einen Quadcore unter der Haube!
4 CPU werden selbst heutzutage nicht ausgelastet und... Lostplanet hat statt 70FPS 180-200FPS Ist doch schon ganz gut das Ergebnis!

Noch kein Assassin's Creed , Grid oder Mass Effekt gezockt oder? :d Quad sehr empfohlen!
 
Zuletzt bearbeitet:
Toll alle verfluchen Tripper-SLI aber haben einen Quadcore unter der Haube!
4 CPU werden selbst heutzutage nicht ausgelastet und... Lostplanet hat statt 70FPS 180-200FPS Ist doch schon ganz gut das Ergebnis!

Quads werden immer wichtiger...wer sich noch nen Duo holt, schmeißt sein Geld nur raus, zumal die Quads auch nicht viel mehr kosten wie ein Duo.

Aber egal, sowas bespricht man eher im Prozzi Forum.

:btt:
 
Toll alle verfluchen Tripper-SLI aber haben einen Quadcore unter der Haube!
4 CPU werden selbst heutzutage nicht ausgelastet und... Lostplanet hat statt 70FPS 180-200FPS Ist doch schon ganz gut das Ergebnis!

Ich würde sagen, dass ein Dual-Core für T-SLI total überfodert ist. T-SLI zieht mächtig viel Daten, dass ein DC garnicht nachkommt. Da hilft auch kein E8500 @ 4500MHz, der hier bei mir rumliegt. Quad @ 4000MHz sollte es schon sein.
 
ein QX9650 @ stock reicht dicke .... denn wenn man sich tripple sli zulegt ist ein 30" moni auch pflicht
 
Zuletzt bearbeitet:
Toll alle verfluchen Tripper-SLI aber haben einen Quadcore unter der Haube!
4 CPU werden selbst heutzutage nicht ausgelastet und... Lostplanet hat statt 70FPS 180-200FPS Ist doch schon ganz gut das Ergebnis!

Gibt auch Leute die nicht nur mit ihrem Rechner zocken.
 
ein QX9650 @ stock reicht dicke .... denn wenn man sich tripple sli zulegt ist ein 30" moni auch pflicht

@ stock bestimmt nicht. Je nach Spiel limitiert ein Quad auch noch bei 3600MHz. Und das mit EINER GTX280. Bei SLI tritt ein Graka-Limit logischerweise viel später ein als mit einer Karte. Bei T-SLI erst recht.
Und ja, ein 30" wäre von Vorteil, sonst skaliert T-SLI eher schlecht. Ausnahme wäre Crysis, denn auch bei 2560x1600 bringe ich T-SLI zum kotzen :d
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh