[Sammelthread] nVidia GeForce GTX 285 - Part 1

Status
Für weitere Antworten geschlossen.
nVidia 285 GTX Sammelthread





Bilder

Bilder von der Zotac AMP! GTX 285

17rvu.jpg


Vorderseite
4cpni.jpg


Luftzufuhr für die Spawas
7yl7t.jpg


Karte ohne Kühler












Benchmarks

Futuremark 3DMark Vantage

bench_01rfg0.jpg


bench_02z0mp.jpg


World in Conflict

bench_06a49d.jpg


bench_07nbdx.jpg

Call of Duty - World at War

bench_08cffg.jpg


bench_09vdq2.jpg

Fallout 3

bench_121chp.jpg


bench_10hbmt.jpg


bench_11j3vu.jpg



F.A.Q.

F: Wie laut wird die Karte?
A: Siehe "Lautstärke" (weiter oben im Startpost). Zu beachten ist, dass die Laustärke des gesamten Systems gemessen wurde, aber man kann ja auch einen Trend festellen, wenn man mit anderen Karten vergleicht. Für nähere Infos zum System bitte den Test von Hardwareluxx ansehen (siehe "Tests der Karten").

F: Wieviel Strom frisst die Karte?
A: Siehe "Stromverbrauch" (weiter oben im Startpost). Zu beachten ist, dass der Stromverbrauch des gesamten Systems gemessen wurde, aber man kann ja auch einen Trend festellen, wenn man mit anderen Karten vergleicht. Für nähere Infos zum System bitte den Test von Hardwareluxx ansehen (siehe "Tests der Karten").

F: Wie heiß wird die Karte?
A: Siehe "Temperatur" (weiter oben im Startpost).

F: Wieviel Leistung bringt die Karte?
A: Siehe "Benchmarks" (weiter oben im Startpost). Die Ergebnisse sind natürlich System abhängig. Für nähere Infos zum System bitte den Test von Hardwareluxx ansehen (siehe "Tests der Karten"). Für weitere Ergebnisse könnt ihr auch in den ComputerBase Test reinschauen (siehe "Tests der Karten").

F: Wie gut lässt sich die Karte übertakten?
A: Siehe "O.C. Ergebnisse" (weiter unten im Startpost). Die Ergebnisse sind natürlich Kühlungs abhängig. Denn je kälter die Karte ist, desto mehr lässt sich aus ihr rausholen.
Die OC Liste ist leider noch in der Vorbereitung. Allgemein lässt sich aber sagen, dass die GTX 285 etwas besser als die GTX 280 zu übertakten ist. Dies liegt an dem neuen 55nm Fertigungsprozess, der zum einen eine generel bessere Übertaktbarkeit mitsichbringt, aber auch für niedrigere Temperaturen sorgt und das ist ja bekanntlich von Vorteil.

F: Wie schaffe ich es den Lüfter der Karte unter 40% zu regeln?
A: Dies schafft man nur indem man im Bios der Karte etwas ändert, da es dort einen Punkt gibt, wo man einstellen kann, was die mindest (prozentuale) Drehzahl ist. Leider ist das nicht so einfach wie ein MainBoard Bios und man muss erst das Bios der Karte mit GPU-Z (zB) auslesen, dann mit NiBitor bearbeiten und dann per Diskette oder USB-Stick flashen. Da die neusten NiBitor Versionen (noch) nicht umsonst sind fragt am besten im Thread nach, ob euch jemand das Bios verändert.
! Das Flashen geschieht auf eigene Gefahr !

F: Wie kann ich meine Karte mehr Volt geben?
A: Entweder mit einem verändertem Bios, da kann man aber nur bis maximal 1,18 Volt einstellen (und selbst das funktionierst nicht reibungslos) oder mit einem HardMod. Für letzteres wird noch eine Anleitung erstellt.
! Das Modden geschieht auf eigene Gefahr !

F: Welche Version der Karte soll ich kaufen?
A: Wenn man nicht übertakten möchte, kann man jede Version nehmen. OC oder Standard, je nachdem, ob man die Mehrleistung benötigt.
Sollte man aber übertakten sollte man folgendes bedenken:
- OC-Karten sind selektiert (-> wenn man eine OC-Version hat, ist die Chance auf einen echt guten Chip höher)
- kauft man eine Standard-Version eines Herstellers, der auch OC-Versionen anbietet, läuft man Gefahr einen etwas schlechter gehenden Chip zu erwischen (da ja ausselektiert wurde)
- wenn man also eine Standard-Version haben möchte, da diese günstiger ist, dann sollte man im Preisvergleich-Link schauen, welche Hersteller keine OC-Versionen anbieten, denn dort wurden ja nicht die besten Chips herausselektiert und man kann immernoch auf einen guten Chip hoffen


alternative Kühlungen

Wasserkühler

Sollen in den nächsten Tagen erscheinen (geschrieben: 17.01)
Luftkühler

Accelero Xtreme GTX-200

Der Accelero Xtreme ist nun auch für Karten der GTX-200er Reihe von nVidia verfügbar. Er soll auf die GTX 260, 280 und 285 passen. (Quelle)
arctic_cooling_accelersrgs.png

arctic_cooling_acceler7tbu.png


Anleitungen

Messpunkte

gtx285vmodvmav.jpg


Danke peebee!


O.C. Ergebnisse

Bitte sendet mir Eure Ergebnisse per Profilnachricht oder Private Nachricht zu. Ich werde dann eine Tabelle erstellen.
Super wäre es, wenn ich folgende Infos bekäme:
Taktraten
Modell der Karte
Bios (Habt ihr etwas geändert (vGPU)? Habt ihr nachgesehen, wie viel Volt von Werk eigestellt sind (manche OC-Versionen haben ab Werk mehr)?)
 
Zuletzt bearbeitet:
wow viel zu teuer wenn ich bedenke das ich fast dafür 2*260gtx in 55nm bekomme.besser gesagt 20 euro differenz.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
SLI und CF stinkt! Da zahle ich lieber etwas mehr für eine gute GPU. Die Preise werden allerdings noch nach unten gehen.
P/L hat ja noch nie bei der GTX 280 gepasst, aber das muss man in Kauf nehmen wenn es um High-End geht.
 
SLI und CF stinkt! Da zahle ich lieber etwas mehr für eine gute GPU. Die Preise werden allerdings noch nach unten gehen.
P/L hat ja noch nie bei der GTX 280 gepasst, aber das muss man in Kauf nehmen wenn es um High-End geht.

haste mal irgendwo auf geschnappt wah das sli und cf stinkt;)
"hust" highend bei 15% geschwindigkeitsvorteil.:d
 
Ich habe keine Lust hier die etlichen Nachteile von SLI bzw. CF auszulisten. Das wurde schon zu oft durchgekaut. Das einzig wahre ist und bleibt eine Single GPU! Da hat man immer, egal bei welchem Game die volle Power!
Ich sagte doch P/L stimmt nicht, dennoch ist es High-End! 15% sind doch immerhin auch etwas. Ich bin mal gespannt wie hoch die GTX 285 zu takten sein wird. :d
 
Zuletzt bearbeitet:
blub blub....
und dann kommt 1920x1200 mit etwas mehr AA und dann kannste deine Singlekarten die es zur Zeit gibt (ATi und NV) in die Tonne kloppen.....
Aber hauptsachen über irgendwas schreiben was man noch nie selbst erlebt hat...ist wie beim SEX...gelle :d
 
Ich hab nur einen 22" und der reicht mir Dicke. Von dem her interssieren mich die 1920x1200 einen feuchten.
Werd glücklich mit deinem SLI. Ich hatte den Müll auch schon und bin froh diese Erfahrung gemacht zu haben und deshalb steht SLI/CF bei mir nicht mehr zur Debatte.
 
genauso ist das, dewegen juckt es keinen Mensch, auch keinen feuchten was du von SLI oder CF hältst die mit deinem Moni sowie unterfordert wären.
 
ich persönlich würde auch eine single gpu bevorzugen, ist halt einfach bequemer und man hat keine stress mit sli support, treiberprofilen usw.

für jemand der maximale performance sucht ist natürlich sli/cf die erste wahl.
 
Zuletzt bearbeitet:
es gibt keinen Streß und gab es noch nie mit SLI Profilen!
Mir wäre eine Single auch lieber...vieleicht mit der neuen Generation Ende des Jahres...schaun wir mal.
 
ich persönlich würde auch eine single gpu bevorzugen, ist halt einfach bequemer und man hat keine stress mit sli support, treiberprofilen usw.

für jemand der maximale performance sucht ist natürlich sli/cf die erste wahl.

ich auch aber dann muß schon ein wenig mehr performance rausspringen als die lächerlichen 15%.ich bezahl doch nicht für eine karte soviel wenn ich fast mit dem selben geld knapp doppelt so schnell sein kann.
aber hey lieber
:btt:
 
Zuletzt bearbeitet:
Mir wäre eine Single auch lieber...
Wieso denn das auf einmal? Bist du nicht mehr mit deinem SLI zufrieden? Damit bestätigst du ja nur wieder meine Aussage. Eine Single GPU hat einfach mehr Vorteile als Nachteile. Deshalb bevorzuge ich lieber die GTX285 und nimm ein paar FPS in Kauf, anstatt auf ein SLI System zu wechseln. Klar sind die 15% den Aufpreis nicht gerechtfertigt, das bestreitet doch keiner.
 
Zuletzt bearbeitet:
sag mir bei welchen Profil...oder was für Einstellungen...irgendwas schreiben kann ich auch, aber ich belege es dann auch...ich kenne kein Spiel seid dem es Sli gibt was probs macht.
Meist sind es Anwenderfehler...nicht weinen, die hab ich auch gemacht :d
 
Werd glücklich mit deinem SLI. Ich hatte den Müll auch schon und bin froh diese Erfahrung gemacht zu haben und deshalb steht SLI/CF bei mir nicht mehr zur Debatte.
Warum Müll? Ich bin mit meinem Multi-GPUsystem von Anfang an bis heute sehr zufrieden. Kann alle Games mit allen Gameregler@max.(ausser AA/AF) flüssig zocken (22"). Mikroruckler kenne ich net (bin wohl unempfindlichdagegen) und SLI-Profilprobs oder Treiberprobs hatte ich auch noch nicht... Einziger Nachteil zur Singlekarte: erhöhter Stromverbrauch bei Volllast, nur wofür geht man denn arbeiten...
Also, warum ist Multi-GPU Müll?

Net schlecht...habe irgenwie das Gefühl da schlägt bald jemand zu oder? Oder wirds Quad mit 295er :fresse:?
 
Zuletzt bearbeitet:
Asus verkauft fast 1,4 Ghz MemoryClock unter LuKü...

gtx285295launchclipimagmt8.jpg


(Ich hätt gern unter Wasser 1,8 Ghz Shadertakt und 1,45-1,5 Ghz MemoryClock bei der GTX285...das wäre bald 2-3 fache 8800GTX Leistung...da brauch ich keine DualKarte mehr)

Zumal man bei der Single-GPU mehr VRAM hat, was nicht unwichtig @ 1920*1200 ist...
 
Bin mal auf die ersten Tests gespannt.

Wenn der Performanceunterschied zu meiner GTX260 bei 1920x1200 groß genug ist und der Preis unter 400 EUR bleibt (und ich die Kohle grad übrig hab) überleg ich sie mir evtl.
 
Boar du hast zu viel Geld^^ wenn ich mir überlege fast 1000 euro in 2 Grakas zu stecken meine Mama würd mir lebenslänglich mit Sicherheitsverwarung geben^^

Aber wennde dir 2 gtx295 holst haste das maximum an Leistung,aber ich denke damit auch viele Probleme oder?

Also wegen Quad sli und so

Krass,ich hab mir grad die Benchmark angekuckt,obergeil ey. Dazu noch einen Corei7 und das System rockt.
 
Zuletzt bearbeitet:
Boar du hast zu viel Geld^^ wenn ich mir überlege fast 1000 euro in 2 Grakas zu stecken meine Mama würd mir lebenslänglich mit Sicherheitsverwarung geben^^

Aber wennde dir 2 gtx295 holst haste das maximum an Leistung,aber ich denke damit auch viele Probleme oder?

Also wegen Quad sli und so

Ich hab mit tripple sli keine probleme warum sollte es dann mit 2 grakas u quad sli probleme geben:)

Und mama sagt mir da schon lange nix mehr in der beziehung,dafür bin ich zu alt u verdiene mein eigenes geld:)
 
Zuletzt bearbeitet:
Weil man doch lft von Problemen mit sli ließt,aber wenns bei dir gut läuft is doch geil.

.Und das mit der Mutti und so meinte ich eher so das ich mich selber umbringen würde 1000 euro in Grakas zu stecken^^

Soll jetzt nicht persönlich gemeint sein,jeder macht mit seinem Geld was er will.
 
kannst du mir bitte mal deinen Anreiz zur GTX 285 erläutern wenn man ne GTX 280 hat ???, zudem noch im Tri SLI^^. Zum GT300 könnte ich es ja noch verstehen, aber so?
Krankhafte Habsucht, oder aus beruflichen Gründen?
 
kannst du mir bitte mal deinen Anreiz zur GTX 285 erläutern wenn man ne GTX 280 hat ???, zudem noch im Tri SLI^^. Zum GT300 könnte ich es ja noch verstehen, aber so?
Krankhafte Habsucht, oder aus beruflichen Gründen?

Du liesst anscheinend nicht richtig,wenn dann werden es zwei 295er u für die "alten" wassergekühlten 280er bekomme ich sicherlich auch noch "ein bisschen" was:)

Abgeshen davon fragst du nen autotuner,der seinem hobby nachgeht,doch auch nicht warum er sein geld ins auto steckt oder?:lol:
 
Zuletzt bearbeitet:
Moin - so hier mal die ersten drei Modelle - vorgestellt von ASUS:

82218822bi3.jpg


Taktraten --------------> ROP ///// Shader ///// GDDR3

ENGTX285 (stanni) : 648 / 1478 / 1242 MHz

ENGTX285 TOP : 670 / 1550 / 1300 MHz

ENGTX285 ULTIMATE : 712 / 1620 / 1380 MHz


Die TOP soll 5% (also 15% schneller als GTX 280) flotter und die ULTIMATE 10% (also 20% schneller als GTX 280) schneller als die normale GTX 285 zu Werke gehen -
ich denke mal vor allem die ULTIMATE wird zum Launch locker 400€ kosten.



Die NDA der GTX 285 wird aber erst ein paar Tage nach der der GTX 295 fallen - nVidia will sich so mehr Aufmerksamkeit sichern.



MfG
Edge
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh