Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde mich nicht wundern, wenn die GTX 680 deutlich günstiger in der Herstellung ist (28 nm) die Vapor Chamber der GTX580 kostet sicherlich auch mehr (daher sehr viele alternative Kühler für die GTX570 -> die am Ende nicht so gut sind wie das org.)
 
Zuletzt bearbeitet:
Wenn der Preis bei 500€ bleibt wird so schon nicht so enorm nachrutschen ;)

Klar ist der GTX680 günstiger, der hat ja auch ne viel geringere DIE größe ;)
 
wie viel spannung kann man eig auf die 580 @24/7 geben?
 
Viele sagen 1,150V ,meine Meinung nach 1,138V (gute LuKü). Mit Wakü auch bisschen mehr.
 
Zuletzt bearbeitet:
1,15v sind ja fast 1000gpu drin, mehr Brauch man wirklich nicht ;)

Meine Liefen mit 1,1v und 925gpu


Sent from my iPhone using Hardwareluxx app
 
Ich werde meine 580GTX nicht verkaufen, wegen der 680GTX nein!

Ich warte auf GK110, erst dann kommt die aktuelle Karte aus dem PC raus.
 
Mein Sli hat definitiv mehr power wie eine 680gtx, möchte aber von Sli weg und da passt die 680er endlich durch meine 3 Monitore. Mache natürlich ordentlich leistungs Verlust


Sent from my iPhone using Hardwareluxx app
 
Ein 580GTX "SLI" Gespann kannst du nur durch GK110 ersetzen, alles andere wäre nur ein Downgrade.
 
Ich weiß nicht... Die GTX 680 ist zwar nicht soviel schneller als meine 580 (noch einige tests, zurzeit 868/1736/2270 MHz) allerdings ist die Effiziens schon beeindruckend.

Was solls, meine GTX 580 hat mir mehr als 1 Jahr gute dienste geleistet (die Grafikkarte, die bei mir am längsten im System war:fresse:) und wird wohl noch bis zum Herbst reichen (High End FTW:hail:). Hoffentlich kommt dann auch der GK110. Dann kann ich mir eine selbst zum Geburtstag schenken:fresse2:
 
Hier habt ihr nen kleinen vergleich in BF3 Teststrecke Caspain Border, GTX580 SLI gegen GTX680:

GTX580 SLI stock Nvidia (772MHz)
Frames, Time (ms), Min, Max, Avg
7299, 82353, 70, 116, 88.631

GTX680
Frames, Time (ms), Min, Max, Avg
14411, 199977, 56, 99, 72.063

Und hier noch der GF110 auf 900MHz
Frames, Time (ms), Min, Max, Avg
8318, 84069, 82, 123, 98.943
 
Zuletzt bearbeitet:
Frage wurde ja bereits weiter oben gestellt:

a) würde ein Seasonic 650W "gold" NT für SLI reichen?
System (siehe Sig.) 980X

b) würde es überhaupt funktionieren die EVGA GTX580 mit der MSI GTX580 Lightning Extreme -
zu kombinieren?

Oder kann man keine 1,5GB VRAM & 3GB VRAM Karten miteinander kombinieren?

Es soll einfach mal ein Testsetup sein um zu schauen was SLI so bringt.

Nicht das ich mit so einer Aktion beide Karten schrotte...


Nein, 1,5 und 3GB funktionieren nicht auf WIN 7 zusammen. Vista schon.
 
Zuletzt bearbeitet:
Mein Sli hat definitiv mehr power wie eine 680gtx, möchte aber von Sli weg und da passt die 680er endlich durch meine 3 Monitore. Mache natürlich ordentlich leistungs Verlust


Sent from my iPhone using Hardwareluxx app



Wer jetzt sein GTX 580 SLI auflöst hat sie nimmer alle :d

Ist nur meine Meinung, ich warte auch ab, bis die Highend Karten (GK 110) kommen, vorher geht gar nichts. Wobei ich dringend
mehr GPU Power brauche, 3 Monitore wollte auch befeuert werden ;)

Ich hoffe später noch für die 2x GTX 580 noch um die 500€ zu bekommen somit wäre die erste GTX 780 schon bezahlt :d
Die zweite muss man wohl noch so kaufen...


Alle hypen die neuen Karten, ich halt nicht wirklich was von den paar % Punkten....
 
Also ich sehe es jetzt schon das kaum einer ne 580GTX verkauft, meine sind jetzt schon paar Tage im MP und da will nicht mal jemand für 275€ zuschlagen. Währen es 3GB Versionen gewesen hätte ich sie behalten können, nun steige ich erstmal auf 7970 um und später auf die NV. Die 680GTX währe wieder durch 2GB limitierend.
 
Die 580er ist ja immer noch eine Top Karte, vor allem im SLI.
Wozu also verkaufen? Gut die 40nm Teile brauchen mehr als die neuen Karten aber von der Leistung her macht ein Umstieg so gut wie keinen Sinn.
 
also ich muss ganz ehrlich zugeben ich hab auch kurz überlegt meine Matrix zu verkaufen :fresse: ... aber ich hab durch die guten temps eigentlich noch soviel luft bei meiner karte nach oben, das ich entweder auf GK110 oder die nächste generation warten werde, zumal ich zur zeit eh kaum noch zum zocken komme.
 
Hallo liebe GTX580 SLI Besitzer, the Game has changed!
Wollen doch mal sehen wo das GPU limit bei einem GTX580 SLI System liegt.
Ich hab hier 2 Benchmarks, das könnt ihr alle mal selbst nachprüfen:




Das System läuft @ stock, also Bitte provoziert mich nicht, sonst fang ich an den Leuten mächtig den Hintern zu versolen!
Dazu pack ich auch gerne die Peitsche aus! :haha:
 
Ähm - was willst Du damit sagen?? Irgendwie Bahnhof grad?
Das ist nicht schlimm wenn du nur Bahnhof verstehst, eher verständlich.
Probier es aus und poste die Bilder hier dann diskutieren wir weiter.

P.S. egal was ihr nimmt, nimmt weniger davon! Ist gut für die Seele. ;)
 
Ich spiele Diablo 3 (kostet an sich kaum Performance, im vergleich zu BF3 o.ä) in 5720x1200 da sind leider beide GTX 580 auf 99/100% last dauerhaft voll, mit Speicher hab ich zumindest bei dem Game keine Probleme, allerdings schaut es z.B bei BF3 ganz anders aus :(
Hab ca 30 - 45 FPS also schon sehr knapp! Somit warum sollte ich nicht einen höher (Sinnvoll GK110 SLI!) die 680 lass ich natürlich aus das lange der schub einfach nicht...
Beide GTX laufen 800 MHz @ 0,975 V klar geht da noch was OC bringen tut es nur den Stromanbieter was...

Hab ca ~600 W weg bruzzeln. Hoffe die GK110 sind sparsamer!


Hier:





@Phantomias88

Du denkst wohl das alle ohne SSAA downsampling leben und sich jeder nur 1x Monitor kaufen darf? :d
 
Zuletzt bearbeitet:
Hallo liebe GTX580 SLI Besitzer, the Game has changed!
Wollen doch mal sehen wo das GPU limit bei einem GTX580 SLI System liegt.
Ich hab hier 2 Benchmarks, das könnt ihr alle mal selbst nachprüfen:




Das System läuft @ stock, also Bitte provoziert mich nicht, sonst fang ich an den Leuten mächtig den Hintern zu versolen!
Dazu pack ich auch gerne die Peitsche aus! :haha:

Häää?
Ich versteh gerade genau so viel wie der Dozer?
 
Erst einmal heißt es "egal was Ihr nehmt..." - zweitens geben wir Dir davon nix ab, Du hast wohl schon genug von Was-auch-immer-dafür-verantwortlich-ist. ;)

Und noch mal die Frage? Was soll der Bench?? Soll ich den overclocked oder stock fahren?
Und... was noch wichtiger ist, was sagt mir das dann?
Das will ich vorher wissen, vielleicht lohnt es sich ja gar nicht da Zeit zu investieren.

BTW. Deine Praktiken mit Peitsche und Popo verhauen, kannste in Deinem Schlafzimmer ausleben, hier verpufft so eine Ansage völlig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh