Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 3)

Status
Für weitere Antworten geschlossen.
Nvidia GeForce GTX 580 "GF110" Sammelthread + OC Liste auf der ersten Seite! (Part 3)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580


Technische Daten der GTX 580 <<<<<<<

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 530mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung


Erste Tests der Karte <<<<<<<

Preisvergleich <<<<<<<

Treiber <<<<<<<

Tools <<<<<<<

GPU Spannung auslesen
Mit dem Tool Nvidia Inspector könnt ihr die GPU Spannung von der Karte auslesen



NVIDIA Inspector Tool


DX11 Benchmarks <<<<<<<


Messungen zur Laustärke, Temperatur & Stromverbrauch <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana: <<<<<<<

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test <<<<<<<

Hardwareluxx - Test: NVIDIA GeForce GTX 580


Wasserkühler Sammelthread hier <<<<<<< (Danke an Guapa5000)


Übertaktete Versionen


Karten mit Wasserkühler ab Werk <<<<<<<
Hardwareluxx - Preisvergleich

EVGA GeForce GTX 580 FTW Hydro Copper 2
o5j8w6wu.jpg

kw3ocj3d.jpg

q2ar6ddn.jpg

fmvh3ckb.jpg

pvmtab87.jpg

x9rfwuki.jpg


Karten mit Accelero Xtreme Luftkühler ab Werk <<<<<<<
Sparkle GTX 580 mit Dreifach-Lüfter
8mvykufr.jpg

va2hs6nh.jpg

l7ytl8tr.jpg

lf3rz9io.jpg

OC Ergebnisse


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37023 | 1000 GPU | 2000 Shader | 2525 Speicher | 1,15v | VID 1.000 | PNY | Wakü | Dancop

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35241 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | [URL="http://www.abload.de/img/34996vantage960_1920_28rfq.png"]Hardy Hardcore
[/URL]
- 34895 | 1000 GPU | 2000 Shader | 2100 Speicher | 1.150v | VID 1.000v | POV | WaKü | Flitzepiepe

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 31458 | 951 GPU | 1902 Shader | 2303 Speicher | 1.150v | VID 1.013v | EVGA | LuKü | Duplex

- 30926 | 940 GPU | 1879 Shader | 2300 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 31028 | 970 GPU | 1940 Shader | 2350 Speicher | 1,15v | VID 1.0 | PNY | AIR | Dancop

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak


3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

3DMark11 (PhysX On)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 7657 | 1000 GPU | 2000 Shader | 2350 Speicher | 1.150v | VID 1.000v | PNY | WaKü | Dancop

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

3DMark11 (PhysX Off)

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge

Furmark


GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
noch keine Einträge



Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bin gerade dabei diverse Games + 3DMurkse mit dem LGA775er System zu benchen. Später dann alles nochmal mit Sandybridgesystem. Möchte halt mal einen Vergleich sehen was in real so abgeht bzw. ob Sandy flotter ist :fresse:.

Bei dem ganzen Gebenche habe ich dann heute morgen mal mit einer der beiden GTX580 mich an den Vantage gewagt:

QX9650@4,40GHz bei FSB1600, Ram 1600 7-7-7-20 1t,:

32519 | 1000 GPU | 2000 Shader | 2100 Speicher | 1,15v | VID 1.000v | MSI | Lukü | mgr R.O.G.

Nicht schlecht für das betagte 775er. Fenster war allerdings auf und ich stand draussen eine Angstkippe durchgezogen :fresse2:.

Das Kärtchen wird definitiv einen Heatkiller bekommen :drool:.


Muss dein Bios editieren für 1.213v und dann flashen, hast du den Fermi Bios Editor?

that's it. Aber nicht rumfummeln.. einfach ein BIOS im Bios Thread "bestellen". :)
Danke euch beiden :wink:.
so nach stundenlangen BF BC
1920x1200 32XCAA (oder wie auch immer) 16XAF alles an und auf max kein ruckeln nichts.
bei rauch und explosionen keine einbrüche.
Das war der Grund meine HD5870 zu entsorgen ... Crap Geruckel da im "Worstcase".
hey Leute, habe mir bei ZackZack jetzt eine GTX580 von Palit geholt. Trotz hohen 80-90fps in BlackOps habe ich so kleine Mikroruckler die in den Augen weh tun.
BlackOps ist doch letzte Dreck... Jeden den ich kenne flucht über Geruckel bzw. gelaage.
Solltest diese Mikroruckler in anderen Games NICHT haben, dann liegts bei dir nicht an der Graka.

Ich habe ein kleines Problem mit dem Benchmark-Tool für Crysis.Sobald ich den Run starten wird das Spiel gestartet und nicht die GPU Benchmark.Woran kann das liegen.
Musst als Admin starten.
 
is eine evga mit vid 1,0

hier nochmal kleiner beweis das die 910/2350@1,075v absolut stabil sind:

Hi,

da Du aj GPUTool nutz... Wann steigt die Karte da aus? Ist GPU-Tool ein guter Indikator für die Stabilität oder muss man bei Crysis & Co. dann noch eher etwas runter gehen mit dem Takt?
 
Was ich suche gibts wohl (noch) net :(.

CPU-Kühler ist der HK 3.0 in Nickel-Chromoptik und genauso sollte der Heatkiller der Graka(s) auch ausschauen, am Besten den "Gelochten" :love:.

Ich werd nächste Woche mal bei Watercool anrufen und nachfragen. Auf e-mail reagieren die irgendwie nicht...
 
CPU-Kühler ist der HK 3.0 in Nickel-Chromoptik und genauso sollte der Heatkiller der Graka(s) auch ausschauen, am Besten den "Gelochten" :love:.
Ja Vernickelt ist natürlich auch sehr schön, ich habe den HK3.0 in Vollkupfer und der Kühler wird auch so gelassen. Ich mag die Farbe des Kupfers sehr gerne.

Vielleicht lass ich nur die Lochplatte schwarzvernickeln, das schaut bestimmt auch gut aus :)
 
Zuletzt bearbeitet:
Mal nebenbei was zum Verbrauch...

QX9650@4,40GHz (Bios 1,47Vcc) + 2xGTX580@ 950/2200 (1,15V) mit im Treiber gefixten 16xAF + Textur-Filterqualität: Hohe Qualität (HQ)

Beim "Perlin Noise" (Test6 vom Vantage) sagte die Anzeige des Verbrauchsmessers: 1060-1080Watt, Peak gar 1092Watt!!! :fresse:.
Wohlgemerkt, nur der Komplettrechner. Also ohne Monitor + Boxen.
Wer "faltet", sprich die Graka voll auslastet, der sollte das bedenken. In Games kommt die "Auslastung" natürlich nichtmal annähernd an diese Werte^^.

Nichtsdestotrotz:
Auch im Heaven 2.1 mit allem @max inkl. extremer Tess. wurden durchgehend rund 870-910Watt (Peak: 969W) verbraten...

Stolz bin ich dabei auf mein CoolerMaster RealPower M850, denn es hat ALLES anstandslos ermöglicht bzw. mitgemacht :bigok:.

Trotzdem werd ich mir wohl ein stärkeres NT zulegen, da diese Überlast sicherlich auf Dauer dem M850 nicht zugemutet werden sollte.
 
Zuletzt bearbeitet:
Was ich suche gibts wohl (noch) net :(.

CPU-Kühler ist der HK 3.0 in Nickel-Chromoptik und genauso sollte der Heatkiller der Graka(s) auch ausschauen, am Besten den "Gelochten" :love:.

Ich werd nächste Woche mal bei Watercool anrufen und nachfragen. Auf e-mail reagieren die irgendwie nicht...

Den Heatkiller gibt es beim AC Shop vernickelt in beiden Versionen genau wie den Aquagra.Ich bin noch am schwanken welchen ich nehmen soll entweder den Aquagra oder den Heatkiller Hole Edition.
 
Hi,

da Du aj GPUTool nutz... Wann steigt die Karte da aus? Ist GPU-Tool ein guter Indikator für die Stabilität oder muss man bei Crysis & Co. dann noch eher etwas runter gehen mit dem Takt?

gpu-tool nutz ich nur um erstmal einen anhaltspunkt, beim takten, zu haben...100% stabil wirds damit nicht
als beispiel: wenn im gpu-tool 915mhz aufm kern ohne artefakte laufen, stürtzt mir trotzdem crysis ab(programm musste beendet werden), mit 910mhz läuft crysis ohne probleme und gpu-tool sagt natürlich auch nichts...
anders könnts allerdings beim ram sein...bei crysis sieht man eigentlich nicht sofort ob der ram zu hoch übertaktet wurde...bei gpu-tool erhalte ich hingegen artefakte

aufgefallen ist mir allerdings, das bei gpu-tool eine höhere temperatur, durch die 98-100% auslastung, erreicht wird
 
gpu-tool nutz ich nur um erstmal einen anhaltspunkt, beim takten, zu haben...100% stabil wirds damit nicht
als beispiel: wenn im gpu-tool 915mhz aufm kern ohne artefakte laufen, stürtzt mir trotzdem crysis ab(programm musste beendet werden), mit 910mhz läuft crysis ohne probleme und gpu-tool sagt natürlich auch nichts...

Das ist dann o.k. Ich lass eh Toleranz bzw. teste meine finalen Profile mit verschiendenen Anwendungen. Wollte nur ausschließen, dass GPU-Tool auch mit 25 MHz zu viel noch fehlerfrei läuft...
 
Tu mal ein Update machen dann sollte es gehen!Die neue Vision unterstützt auch die Spannungsanhebung bei der EVGA 580.
 
Zuletzt bearbeitet:
Beim Afterburner brauchst du min. Version 2.1.0 beta 4 und dann bei den Einstellungen ein Häckchen bei Unlock Voltage Control.
Und beim Inspector gibts auch eine neuere Version.


Schon wieder zu spät:fire:
 
Das die Version daran Schuld sein könnte, hätte ich jetzt nicht erwartet. Danke für die Info. :wink:

Na super,ich hab wohl eine der schlechtesten Karten überhaupt abbekommen, mit VID 1,088 -,-*



Edit: Laut dem Tool haben beide VID 1,088 ... hab ich so ein Pech oder könnte das nicht eher ein Auslesefehler sein? ô,o
 
Zuletzt bearbeitet:
Das die Version daran Schuld sein könnte, hätte ich jetzt nicht erwartet. Danke für die Info. :wink:

Na super,ich hab wohl eine der schlechtesten Karten überhaupt abbekommen, mit VID 1,088 -,-*



Edit: Laut dem Tool haben beide VID 1,088 ... hab ich so ein Pech oder könnte das nicht eher ein Auslesefehler sein? ô,o

Meine EVGA hat den gleichen VID und die geht echt gut.Deine ist bestimmt ne SC oder Black Ops Edition oder täusch ich mich?
http://www.hardwareluxx.de/community/16139168-post1311.html
 
Nein Volltreffer, sind zwei SC. :bigok:

btw da wundert mich der Score beim 3DMark11 nicht mehr,überhaupt keine SLI Nutzung:

und auch nicht mehr, dass ich beim Heaven fast 100% mehr Leistung habe. Ein Musterbeispiel für SLI Nutzung:
 
Zuletzt bearbeitet:
Wars nicht nur die neuste Version vom 3DMark?

Egal, ich will eigentlich sowieso immer möglichst die neuste Version drauf haben. Hatte noch gar nicht gesehen, dass 266.58 jetzt freigegeben wurde, dann pack ich den schnell drauf. :d

Edit: Tatsächlich, mit den neusten Treibern läuft SLI jetzt. Dankööö! :bigok:
 
Zuletzt bearbeitet:
Bin mal gespannt wie lang dein Netzteil deine Hardware mit Strom versorgen kann^^
 
Hehe, ich hoffe ja so lange es muss, hab ja extra 1200W genommen. :xmas:

Sieht schon bei Standardtakt nicht schlecht aus:

:teufel:
 
Zuletzt bearbeitet:
Aber so ziemlich das billigste 1200w Netzteil was du gefunden hast, was ? :d
Gerade wenn man sich ein System aus i7 2600k+gtx580 SLI bastelt, sollte man doch noch paar Euro übrig haben um sich ein gutes Markennetzteil zu holen ^^

Naja, bei den 580er merkste wahrscheinlich gar nicht wie laut das Netzteil wird :d
 
Eher Moddingtechnisch das Beste was ich gefunden habe. :p
Und das gleiche NT habe ich jetzt schon ein Jahr im Dauerbetrieb 24/7 bei meinem alten Rechner drin, der jetzt als Ersatz in der Ecke steht.
Auf den Preis habe ich dabei ehrlich gesagt nicht geachtet, das hätte auch 300 Euro kosten können.

Und was meinst du mit laut? Das ist total leise... O,ô
 
Also ich hab mal ein Superflower bei einem Freund gehört und das war lauter als der boxedkühler vom 955 ^^ Er hats dann auch irgendwann gegen ein be quiet getauscht.
Ich würd mir nur ein markennetzteil holen, aber gut, jedem das seine ;)
 
Superflower ist ein Markenhersteller- freilich es gibt bessere - in der Vergangenheit waren da auch lautere bei.. die neueren NTs sind gut.

BTW: endlich - ich bekomme nun meine Stepup EVGA GTX580 - yipee!!!!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh