Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Es wird so mit 25% gerechnet.
Aber das wird ein relativ niedrig getaktestes Transistorenschwein damit Nvidia die TDP auch einhalten kann (wahrscheinlich so 600-700MHz)
Und ihr seht ja wie die GK104 Kepler zu übertakten gehen, also Wakü + MHz drauf und ab geht der Kepler ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Na ja die GTX680 ist ja eigentllich recht günstig herzustellen, kleiner Die, kleine Spannungsversorgung, kein Vapor Chamber.
Eigentlich müsste die GTX680 dann 350€ Kosten und der GK110 500€...
Aber ich denke Nvidia wird schon recht heftige Preise für die Karten nehmen.
 
Mich würde es interessieren ob nach dem Release des GK110 nochmals eine neues Multi - GPU Monster, alá 690 GTX auf den Markt kommt, da ich am überlegen bin mir so eine Karte zu holen.
 
Bald kommt der GK110 Jungs, also werft das Geld nicht sinnlos aus dem Fenster ;)

Bald ist ein dehnbarer Begriff ;) Das dauert noch, glaubs mir.

Es wird so mit 25% gerechnet.
Aber das wird ein relativ niedrig getaktestes Transistorenschwein damit Nvidia die TDP auch einhalten kann (wahrscheinlich so 600-700MHz)
Und ihr seht ja wie die GK104 Kepler zu übertakten gehen, also Wakü + MHz drauf und ab geht der Kepler ;)

In FullHD mehr als 25% und über 700 MHz.

Aber ich denke Nvidia wird schon recht heftige Preise für die Karten nehmen.

Ja leider. Die lassen sich das halt bezahlen. Imo ist die HD7970 momentan seeehr attraktiv. Hatte Freitag überlegt meine GTX 580 zu verchecken und die AMD zu kaufen. Aber dann kam mir wieder die Software in den Kopf...
 
Da poste ich schon fleißig ;)
 
Kommt halt drauf an, worauf man Wert legt. Ich bin zu Nvidia gewechselt um die andere Seite nach 6 Jahren kennenzulernen. Und es hat sich gelohnt, Treiber ist von den Einstellungen besser und mit Cuda und Physix hat man direkt 2 wichtige Features an Board, die ich geweils nutze.

Die pure Leistung ist eine andere Sache, mir mittlerweile nicht mehr so wichtig ob nun 3% schneller.
 
Sehe ich genau so wie du etros. Ich wollte auch mal zur dark side of life ;D Hat sich gelohnt. Hab ja immer noch ne AMD im Zweitrechener und was da schon wieder für ein Treiberdebakel ist... oh je. Naja aber die HD6870 läuft so weit ganz gut (abgesehen von greyscreens). Soll ja bald behoben werden.
Viele wollen aber gar nicht so viel im Treiber fummeln. Spiel kaufen, installieren, alles auf volle Hütte und gut. Jeder wie er es will ;) Ich lasse meine GTX 580 seit langer Zeit mit niedrigerem Takt bei 0.988 Volt laufen. Da ist die sogar angenehm vom Geräuschpegel (Palit GTX 580 mit 2 Lüftern). Trotzdem kann ich BF3, Witcher 2 und alles mögliche schick zocken. Noch reicht die mir (ich bleibe eisern und warte auf GK110).

@UHJJ36: Gar nicht gesehen dass GA-Thrawn banned ist.

Edit: JUHU. nach 10 Jahren 1000 Beiträge :d :d :d Anhang anzeigen 201618
 
Zuletzt bearbeitet:
Stehe noch immer auf meine Werksübertaktete EVGA 580GTX HC2 - läuft super stabil (egal mit welchem Treiber) und kenne kein Spiel wo die GK zu langsam wäre (Auflösung ist 1920*1200) - warte auf den GK110 und erspare mir ein Zwischenupgrade auf eine AMD xxx oder NV 680GTX - die Einzigen die davon profitieren würden sind AMD/ NV. Wegen 20-30% Mehrperformance gebe ich keine 500€ mehr aus (konnte mich früher bei neuen GK Generationen nicht beherrschen - Danke an meine Frau die mich umerzogen hat?! - Musste immer das Neueste haben auch wenn es komplett sinnlos war)

@Hübie: Gratuliere zum 1000 Post - wirst bald Leutnant sein.

l. G.
 
Zuletzt bearbeitet:
Das sehe ich genau so, wie kumberg12. Außerdem überlege ich mir einen 27"-Monitor mit 2560x1440er Auflösung zu kaufen und da möchte ich schon mehr als 2GB RAM auf der Graka haben. Leider ist da NV etwas sparsam in der letzten Zeit. Die machen bei ihren Highend-Karten immer den VRam relativ knapp. Klar kann man alternative Layouts kaufen, nur kommen die immer erst später und oft passen dann keine Wasserkühler drauf.

Ich bleibe auf jeden Fall bis zum GK110 noch bei meinen zwei 580er@H2O@stock. Ich habe letztens BF3 Singleplayer gespielt und selbst da haben die locker für Max gereicht.
 
GK104 sollte auch nur die zweite Geige in der Planung spielen, für Normalo Gamer sind 2GB mehr als ausreichend. Die wird sich mehr haben.

Die 580 sollte den 27" auch packen.^^
 
Naja, bei z.B. BF3@max 1920x1200 habe ich aber schon ca. 1450Vram verbraucht. Und bei 2560x1440 wird das sicher nicht weniger. Wobei jetzt BF3 für mich nicht der Maßstab ist, aber tendenziell sehe ich meinen Vram schon oft ausgelastet, sodas ich gerne mehr Vram bei meiner nächsten Karte(n) hätte.
 
Die 580 kann man dennoch erstmal dafür nutzen, auch wenn mit Einbrüchen.

GK100 muss mit mind. 384 Speicherinterface an den Start gehen, 3 oder 4GB sollte das bedeuten. Vorallem bei Nvidias Surround Technologie sind viel wichtig.
 
Die 580 kann man dennoch erstmal dafür nutzen, auch wenn mit Einbrüchen.

GK100 muss mit mind. 384 Speicherinterface an den Start gehen, 3 oder 4GB sollte das bedeuten. Vorallem bei Nvidias Surround Technologie sind viel wichtig.

Ja durch das 384bit Speicherinterface wären 1,5/3/6GB möglich. Also wird der GK110 wohl mit 3GB kommen. Wobei mir persönlich eben 512bit und 4GB lieber wären.
 
Selbst wenn das tool zeigt 1900mb zeigt. Solange alles läuft is doch okay.
Mit einer karte hab ich aber schon auf einiges optisch verzichtet. Damit die FPS einbrüche nich all zu krass werden im Gefecht

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Eins wird bei der ganzen Thematik immer vergessen.. das Treiber-Speicher-Management.
Klar haut der Treiber den verfügbaren Speicher voll. ich hab auch 1450 belegt.. allerdings heißt das nicht, nur weil eine 2GB Karte 1,68 GB belegt bekommt, dass das spürbare Vorteile bringt (zumindest nicht in BF3).
Der Treiber lässt halt Sachen im VRAM, selbst wenn die nicht gebraucht werden. Sind nur 1,5 GB da, wird halt schneller aufgeräumt.. ;)

Klar sind 2 GB besser, aber sicherlich nicht notwendig um aktuelle Spiele auf HighSettings flüssig zocken zu können. (DS-Fetis mal ausgenommen^^)
 
Daher sag ich ja :) solange alles gut läuft ists doch egal was da steht

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Eins wird bei der ganzen Thematik immer vergessen.. das Treiber-Speicher-Management.
Klar haut der Treiber den verfügbaren Speicher voll. ich hab auch 1450 belegt.. allerdings heißt das nicht, nur weil eine 2GB Karte 1,68 GB belegt bekommt, dass das spürbare Vorteile bringt (zumindest nicht in BF3).
Der Treiber lässt halt Sachen im VRAM, selbst wenn die nicht gebraucht werden. Sind nur 1,5 GB da, wird halt schneller aufgeräumt.. ;)

Klar sind 2 GB besser, aber sicherlich nicht notwendig um aktuelle Spiele auf HighSettings flüssig zocken zu können. (DS-Fetis mal ausgenommen^^)

In erster Linie bestimmt aber die gameengine was im Speicher bleibt und was nicht. Der Treiber ist eher für das wie zuständig. Mit Fallout New Vegas gelange ich ruck zuck an die Grenzen:


Guckst du. Hab ich gestern erst aufgenommen.
 
Und der nächste gebannt, was macht ihr nur immer^^

keine angst war nur kurzzeit ;)

mir reicht meine GTX580 mom auch super, spiele Mechwarrior Online mit Cryengine 3 und das lüpt auf 1080p mit Ultra details und 60 FPS vsync wiene 1

Eigtl wollte ich mit haswell gross aufrüsten (hoffe ja der bringt wieder wie sandy nen dicken speed bump), sprich neues mobo+cpu+graka (evtl auch neue nt und ssd). Aber ich bin soweit das ich nicht enifach mehr aufrüste weils was neue gibt, sondern wenns nötig ist, und mein X4 burnt echt noch jedes game weg, nur bei BF3 schaffte meine graka keine 60 fps auf ultra
 
Zuletzt bearbeitet:
Kann mir jemand sagen, welche der folgenden Features, die so um die Einführung der GTX 680 kamen, man inzwischen auch mit einer GTX 580 nutzen kann?

- Adaptive VSync?
- Texture-Lod-Anpassung unter DX 10/11?
- Frame Limiter?
- TXAA
- das FXAA auch offiziell aktivierbar?

Danke.
 
Kann mir jemand sagen, welche der folgenden Features, die so um die Einführung der GTX 680 kamen, man inzwischen auch mit einer GTX 580 nutzen kann?

- Adaptive VSync? - geht mit GF110
- Texture-Lod-Anpassung unter DX 10/11? - gibts noch gar nicht bei NV
- Frame Limiter? - geht mit GF110
- TXAA - gibt noch keine Applikation die es anwendet. Ist kein reines PP-AA welches man injezieren kann ;)
- das FXAA auch offiziell aktivierbar? - geht schon lange offiziell (nVidia Inspector)

Danke.


Das reicht dir hoffentlich als Antwort ;)
 
Danke.gerade das mit adaptive vsync ist gut zu wissen. Ich nahm an,das mit dem lod gelesen zu haben, dass das mit nv jetzt irgendwo möglich.aber vll auch nur bei 680?

Und noch was: angeblich wurden bei der 680 sli-mikroruckler geringfügig verbessert.ist das ne treibersache,die auch der 580 zugute kommt?
 
Zuletzt bearbeitet:
LOD-Anpassung unter DX10+ kommt noch. Aber ist wohl auf die lange Bank geschoben ;)
 
Argh... hab glaub ich vor über nem Jahr schon eine Petition für das DX10/11 Lod unterzeichnet...

Was ist mit den Mikrorucklern? Profitiert die 580 auch hiervon? :

"Es scheint nur gesichert, dass die hardwarebasierte Lösung auf den bekannten Softwaretricks basiert (die Nvidia schon länger im Treiber integriert hat, um Mikroruckler zu reduzieren) und wohl nicht nur auf der GeForce GTX 690, sondern auf allen Kepler-Grafikkarten funktioniert."

Test: Nvidia GeForce GTX 690 (Seite 8) - ComputerBase

Ist das also dann eine Softwaregeschichte, wenns schon länger integriert im Treiber ist? Wozu dann hardwarebasiert?
 
Kann ich dir nicht sagen. Wahrscheinlich wird mittels eines neuen hardwarefeatures per software die Problematik eingedämmt. Aber wie ich nVidia kenne gilt das nicht für die 580er ;) Die lassen sich diesbezüglich auch wenig in die Karten schauen. Jetzt noch ein SLi mit Fermi aufzubauen halte ich eh für ineffizient - in jeder Hinsicht.
 
Ich kann nicht klagen die beiden Karten machen sich gut.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh