Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Danke :)

Edit:

Wenn ich ein Bios mit CPU-Z auslese ist ja eine *.bin Datei kann NVflash auch diese *bin Datei flashen?
Oder muss ich es in *.rom umbennen ?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat noch jemand ne GTX 580 , von EVGA und möglich REF Design bzw reference kühler oder maximal classiefied kühler von der karten höhe her, 1,5 gb version zu verkaufen?
 
Hoi, wenn hier noch jemand liest habs nun im SLI laufen und hab nen 1KW Nt von Bequiet ist auch schon was älter und temps liegen im idle die obere bei 35*C und die untere 30*C

Hatte folgendes Problem dachte mir ok, 900 mhz hat die 2. geschafft und die 1. sollte auch schaffen , dann bf4 gestartet pc bleibt nach ner minute stehen gut dachte ich mir wenns strom problem ist müsste pc doch ausgehen,

also zum gegentesten furmark und prime mit small fft ging dann

also geguckt spannung war bei 1055 die 2.karte lief alleine bei 900 mhz und 1080 also auf 1075 erhöt nun läuft bf4 ohne probleme

nun

dachte ich mir ok furmark hat ja auch noch nen extreme burner

da tempsja schön in ordnung sind offenes gehäuse fenster auf 12*C raum temp

also starte ich furmark mit extreme burner wollte nur 2 sek laufen lassen um gucken ob das nt hält, nun ja was soll ich sagen bevor das laden kann bum pc aus und startet wieder.

da dachte ich es lag an prime95 i7 small fft also ausgemacht nochmal bum wieder das gleiche dann graka stock volt und stock clock bum pc aus

liegt das sicher am netzteil das es den pc aus dem leben schießt ich kenn ähnlich extreme auslastung von grakasnur durch folding @ home wo ne gtx 295 statt 40 amp 59 amp gezogen hat.

grüße
 
So wie sich das anhört könnte es das Netzteil sein.
Welches BQ Netzteil hast du denn genau?

Ist deine CPU auch übertacktet?

Ich hatte damals auch 2 580er HC im Sli gehabt mit einem AX850 von Corsair keine Probleme gehabt.

Gesendet von meinem SM-N9005 mit der Hardwareluxx App
 
ein 1kw BeQuiet Darkpower Pro und es hat schon paar Jahre aufem Buckel , damals gabs halt noch keine tollen Corsair oder Enermax Netzteile : /

Nope CPU ist stock

da liegt ja mein Problem ich wollte ausloten ob ich mir OC nun in die Haare schmieren kann aber pc geht auch ohne zusätzlichen Prime aus und stock volt / clock von grakas

und die temp der grakas kann doch nicht von einer sekunde wo nicht mal was läuft von 35*C auf 100 springen, fühlt sich irgendwie an als ob die initial last / amp per 12 volt schienen das Netzteil zum Schutz shottet

- - - Updated - - -

Standard furmark tests + prime small fft gingen normal durch und mit minimaler spannungs anhebung an den grakas laufen auch 900 mhz in bf4 ohne das der pc stehen bleibt

aber furmar extreme burn schießt in jeder config den pc ausem leben
 
hmm.

Haste nicht nen Bekannten der dir ein 850-1000 Watt Gold/Platinum Netzteil zum testen zur Verfügung stellen könnte?



Gesendet von meinem SM-N9005 mit der Hardwareluxx App
 
Leider nein meine ganzen bekannten haben entweder laptops oder so mini workstations also nix mit deluxx hardware zum zocken, naja nach 6 jahren kann ich mir ja nen neues holen 1,2 kw axi von corsair da ist dann auch puffer mit oc bei dem x58 i7

aber kost ne stange geld

- - - Updated - - -

oc mit einer graka ging ohne probleme konnte das oc nur nicht im hochsommer halten habe da schöne raum temperaturen das ging unter luft nicht 34*C raum temps da war nix mit mehr mit 4 ghz unter luft

mal am we testen mit 3,6 ghz und gucken ob mit prime small fft und furmark normal test pc dann ausgeht das dürfte ja eher der menschlichen auslastung entsprechen oder? Extreme burn ist ja eher überm limit, wenn das so krass auslastet wie folding@home

- - - Updated - - -

find ich aber nett performance technisch 90 fps bei alles auf ultra msaa 2x full hd auflösung in bf4 aber grakas sind nicht max ausgelastet da bremst die cpu auf stock takt
 
Also A) wird es dann Zeit für einen neuen Thread speziell zu deiner Problematik und B) stochern wir nicht gerne im Dunkeln. Systemangaben bitte. Je mehr desto besser. Link zum neuen Thread kannst ja dann hier rein stellen. Hier gehts um den GF110 im Allgemeinen und 3D Mark. :p
 
Es ging hauptsächlich darum das eim graka tool bei graka belastung den pc durch zauberhand ausmacht :) der rest war noch offtopic wieso diese brechstangen tests


Grüße

Benny

Sent from my iPhone using Hardwareluxx app
 
hatte 2 480Gtx im SLI @ 935mhz bei 1.21v laufen. CPU war ein 980x@ 4.4ghz. Alles @ Wakü. Bei BF3 ging der PC mit Spitzenlast 1200W aus. Netzteil war ein Corsair HX1000 ;) mit dem Enermax 1500w liefs dann ohne Probleme.

Tippe bei dir daher aufs Netzteil
 
Na dann kommt für mich wohl das axi 1.2 kw in betracht werde dennoch am we testen flaschenhals zu lösen an cpu so genug der off topic :) danke für schnellen antworten


Grüße

Benny

Sent from my iPhone using Hardwareluxx app
 
Normal müßte ein vernünftiges 1000er NT für deine zwei 580er reichen. Ich hatte meine 3 580er@960MHz mit einem W3520 (i7-920) @ 4200MHz durch den 3Dmurks11 geprügelt, wobei dann so ca. 1300W aus der Dose gezogen wurden. Das hat mein altes Enermax Revelution 85+ 1050W locker mit gemacht. Auch so hat es für das normale Spielen mit 3 580er@default locker gereicht, da da nie mehr als 800-900W aus der Dose gezogen wurden. Kauf dir also ein ordentliches Enermax mit 1000W, was die 1000W auch wirklich liefern kann. Mehr braucht man nicht wirklich, da die zukünfigen Grafikkarten und CPU`s eher weniger verbrauchen, als deine aktuellen Komponenten. Mein Enermax Revelution 85+ 1050W zieht in meinem aktuellen System beim Spielen so ca. 500-800W. Da könnte ich locker noch 300W mehr verbrauchen lassen, weil das Enermax eben nich schon unter 1000W Last einbricht.
 
Jupp, ich tippe mal darauf wie befürchtet das des Bequiet Darkpower Pro entweder an altersschwäche leidet oder von vorn herein nicht so qualitativ hochwertig war
 
Also bevor ich so einen Unsinn verzapfe und 200 Euro oder so in ein Netzteil pumpe würd ich doch lieber die beiden Grakas verkaufen (sollte sicher so ~300 Euro geben) und mir dann eine 780 kaufen. Die etwas übertakten und mich ohne SLi-Fummelei an der Karte mit deutlich besserer Effizienz erfreuen. Titan @960 MHz entsprich ziemlich exakt zwei GF110 @773 MHz. Eine 780 @1100 MHz also etwa genau so. Zieht man jetzt die frametimes in Betracht sollte dass die bessere Lösung sein.

Aber okay. Just my 2 cents ;)

Edit: Vom moderneren featureset mal zu schweigen.
 
ich frage kurz hier weil ich denke das hier Resonanz und Fachwissen höher sind als im Schätzen Forum

Was denkt ihr ist eine POV GTX 580 TGT Ultracharged inkl EVGA Backplate und High-Flow Bracket OVP noch Wert ?
 
Mit dem Original-Brüllkühler? Da schätze ich 100-110 € Im besten Fall 120.
 
*Rauskram*
Habe mir eine MSI GTX580 Lightning Extreme Edition besorgt, die mit den blauen Lüftern, so ein Teil wollte ich schon immer mal haben ;) Macht sich gut in meiner Sammlung.
Jedenfalls bin ich gerade etwas am OC testen, die Karte hat eine VID von 1,019V. Damit laufen 890MHz in Crysis3 stabil. Das scheint mir ein ganz ordentlicher Wert zu sein, was meint ihr?
Obenrum skaliert sie dann nicht so gut wies aussieht, hab auch nur die originale Luftkühlung drauf. 950MHz@1,12V sind nach ner halben Stunde abgestürzt. Mein XSPC Raystorm ist aber unterwegs, dann teste ich sie auch mal unter Wakü. Mal sehen ob ich 1000MHz 24/7 laufen lassen kann.
 
Zuletzt bearbeitet:
Ja ist ganz okay. Die Fermi kranken einfach an der ROP-Export-Schwäche. Also zieh mal fleißig den Speicher so hoch es geht und erst dann die GPU. Glaube bei 1000 MHz stößt du in GK104-Gefilde vor.
 
Ja ist ganz okay. Die Fermi kranken einfach an der ROP-Export-Schwäche. Also zieh mal fleißig den Speicher so hoch es geht und erst dann die GPU. Glaube bei 1000 MHz stößt du in GK104-Gefilde vor.
 
Teste ich mal. Meine Karte hat ja 3GB Speicher (Hynix), gibts damit Erfahrungen was die Taktbarkeit angeht? Ich mein, ich werds ja sowieso rausfinden, aber ich erinnere mich z.B. daran dass die EVGA 580 Classifieds nicht so wirklich für Extreme OC zu gebrauchen waren, weil der Speicher nicht mitgespielt hat.
Zum Glück hat man auf der Lightning ja jede vorstellbare Option was das angeht, mit verschiedenen DIP-Schaltern auf der Rückseite, sowieso gute Einstellmöglichkeiten per Software und Löten wird im Zweifelsfall auch nicht das Problem werden.
 
Ich hatte auch ne Lightning. Speicher ging ganz gut aber weiß aus dem Kopf nicht mehr wieviel. Glaube 2200 oder so :d
 
Für ne Lightning gibt's heute noch echt viel Kohle. Aus nem anderen Forum kenne ich jemanden der hat vier Teile verbaut - denke es geht hier aber nur um reines rendern in After Effects.
 
Zuletzt bearbeitet:
Dann lieber zwei Titanen :d
Ich hatte letztes Jahr im Sommer 150 für meine Lightning bekommen. Also viel ist das nicht oder ich hab die unter Wert vercheckt...
 
Bei meiner ist scheinbar bei rund 2250-2280 Schluss, schade. Naja, GPU muss ich noch ausloten. Ich hab übrigens 125€+Versand für meine gezahlt, was in Anbetracht von 3GB Speicher, und dem Lightning-Bonus, schon okay ist. ^^
Edit: Ist das eigentlich normal, dass bei der Lightning auf der Rückseite 6 LEDs grün und die anderen 6 rot leuchten, auch unter Last?
 
Zuletzt bearbeitet:
Hab noch mal gegrübelt und es waren bei mir auch 2250. Mehr ging nicht. Und diewaren nicht mal überall stable. BF3 is ein Wackelkandidat ;) 125 erscheint mir schon okay zu sein.
Ist deine auch so laut? Ich hatte SLi. Die obere war die laute Lightning und die untere eine flüsterleise Palit mit EKL Peter.
 
Meine ist recht leise. Ein Lüfter klackert leider manchmal ein bisschen, aber sie ist ja auch nicht mehr fabrikneu. Ansonsten war die Lightning XE die leiseste 580 soweit ich weiß, weil die Lüftersteuerung gegenüber der normalen Lightning mit 1,5GB Ram nochmal deutlich entschärft wurde. Ich hab ingame 1800rpm bei 63°C, das ist definitiv noch im Rahmen. Und man kann natürlich bei derart niedrigen Temperaturen auch noch gut selber Hand anlegen und die Lüfterkurven ein bisschen entschärfen.

Ich hatte oben noch ne Frage reineditiert, kannste mir da was zu sagen?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh