Nvidia GeForce GTX 580 "GF110" Sammelthread + 3DMark Liste (Part 5)

Nvidia GeForce GTX580 Sammelthread

tewzipw9.jpg

hae9xyj3.jpg

n6p9vv7s.jpg

woegogwi.jpg

wthjbhja.jpg

4mkh7wa5.jpg

7wiehwxs.jpg

ey5magrg.jpg


Hardwareluxx - Test: NVIDIA GeForce GTX 580

Technische Daten der GTX 580

* Chip = GF110
* Fertigung = 40 nm
* Chip Größe = 520mm²
* Transistoren = 3 Milliarden
* Chiptakt = 772 MHz
* Shadertakt = 1544 MHz
* Stream Prozessoren = 512 (1D)
* Speichermenge = 1536 MB GDDR5
* Speichertakt = 1000 MHz
* Speicherinterface = 384 Bit
* Leistungaufnahme = 244 Watt
* Shader 5.0 & DX11 Unterstützung




Übertakten & GPU Spannung (VID) auslesen
Mit dem Tool Nvidia Inspector könnt ihr die Grafikkarte übertakten & die GPU Spannung von der Karte auslesen.



NVIDIA Inspector Tool






Messungen zur Laustärke, Temperatur & Stromverbrauch

Hardwareluxx - Test: NVIDIA GeForce GTX 580

------------------------------------------

Performance :banana:

c3zo4gh5.jpg
fajlb9eu.jpg

4jpaws3t.jpg
n2xstqg5.jpg

2mhz2cwg.jpg
nybvfsza.jpg

yut42oig.jpg
8nvtg6z5.jpg


Weitere Benchmarks im Hardwareluxx Test

Hardwareluxx - Test: NVIDIA GeForce GTX 580


3DMARK Liste


3DMark Vantage (Performance) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link

- 39948 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 39698 | 1038 GPU | 2076 Shader | 1235 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 39448 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 39405 | 1040 GPU | 2080 Shader | 1203 Speicher | 1.213v | VID 1.0v | PNY | WaKü | Dancop

- 38633 | 1061 GPU | 2122 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 37915 | 1005 GPU | 2010 Shader | 2405 Speicher | 1.199v | VID 1.000v | EVGA | WaKü | Duplex

- 37474 | 980 GPU | 1960 Shader | 2290 Speicher | 1,15v | VID 1.025v | MSI | Lukü | mgr R.O.G.

- 37004 | 986 GPU | 1972 Shader | 2150 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 36709 | 1050 | 2100 | 2250 | 1,200v | 1,000v | PALIT | WaKü | Coolfly

- 36732 | 1030 GPU | 2060 Shader | 2140 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 36461 | 990 GPU | 1980 Shader | 2200 Speicher | 1.187V | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 36396 | 990 GPU | 1980 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.1) | Luft | szeiger

- 36088 | 940 GPU | 1879 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 36053 | 980 GPU | 1960 Shader | 2100 Speicher | 1.138v | VID 1.013v | POV | WaKü | McZonk

- 35595 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 35467 | 960 GPU | 1920 Shader | 2400 Speicher | 1.150v | VID 1.00V | MSI N580GTX Lightning(NR.2) | Luft | szeiger

- 34996 | 960 GPU | 1920 Shader | 2300 Speicher | 1.150v | VID 1.063v | POV TGT | WaKü | Hardy Hardcore

- 34714 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 34670 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 34516 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 32797 | 900 GPU | 1799 Shader | 1050 Speicher | 1.138v | VID 1.025 | EVGA | LuKü | John_Q

- 30147 | 900 GPU | 1800 Shader | 2040 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****

- 29665 | 900GPU | 1800 Shader | 2004 Speicher | 1.088v | VID 1.0 | Zotac | Lukü | Joe123

- 29310 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

3DMark Vantage (Performance) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 38114 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 35877 | 1050 GPU | 2100 Shader | 1250 Speicher | 1.213v | VID 1.0v | MSI | WaKü | mahaudi

- 35127 | 1070 GPU | 2140 Shader | 2520 Speicher | 1,25v | VID 1.0 | PNY | Water | Dancop

- 34875 | 1050 GPU | 2100 Shader | 2450 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 32285 | 1074 GPU | 2148 Shader | 2405 Speicher | 1,212v | VID 1.0 | EVGA | Wakü | Mayk-Freak

- 31456 | 985 GPU | 1970 Shader | 2136 Speicher | 1.138v | VID 1V |Zotac | Wakü | Radiant

- 31168 | 970 GPU | 1940 Shader | 2300 Speicher | 1,20v | VID 1.063 | Zotac | Lukü | xFEARx3

- 30805 | 925 GPU | 1850 Shader | 2140 Speicher | 1.100v | VID 1.013 | PoV | LuKü | McZonk

- 30091 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 29473 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 29354 | 970 GPU | 1940 Shader | 1075 Speicher | 1.200v | VID 1.05v | EVGA | LuKü | RediMischa

- 29003 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft |szeiger

- 28165 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 27201 | 940 gpu | 1880 shader | 2010 speicher | 1.088v | vid ?? V | gainward | stock | dante`afk

- 23261 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn

- 22623 | 900 GPU | 1800 Shader | 2070 Speicher | 1.125v | VID 1.05 | ASUS | LuKü | *****


3DMark Vantage (Extreme) (PhysX On)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17470 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 16357 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

3DMark Vantage (Extreme) (PhysX Off)


Vantage Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 17123 | 1044 GPU | 2088 Shader | 1203 Speicher | 1.212v | VID 1.0v | EVGA | WaKü | Mayk-Freak

- 15994 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs
3DMark11

3DMark11 Score | GPU Takt | Shader Takt | Speicher Takt | GPU vcore | VID | Hersteller | WaKü oder LuKü | Username mit Link
- 9502 | 1100 GPU | 2200 Shader | 2400 Speicher | 1.250v | VID 1.0v | Zotac | WaKü | MiloMil

- 9015 | 1082 GPU | 2164 Shader | 2500 Speicher | 1,262v | 1,000v | MSI | WaKü | Mayk-Freak

- 8395 | 1000 GPU | 2000 Shader | 2350 Speicher| 1,213v | VID 1,038v | Asus | WaKü | !!_He-Man_!!

- 8183 | 1065 GPU | 2130 Shader | 2475 Speicher | 1,213v | 1,000v | POV | WaKü | OliverM84

- 8113 | 1030 GPU | 2060 Shader | 2400 Speicher | 1.212v | VID 1.000v | PNY | WaKü | Dancop

- 8033 | 1040 GPU | 2080 Shader | 1241 Speicher | 1.213v | VID 1.0v | Evga | WaKü | RediMischa

- 7934 | 990 GPU | 1980 Shader | 2200 Speicher | 1.2v | VID 1.013v |MSI Lightning XE | Luft|szeiger

- 7870 | 1030 GPU | 2060 Shader | 2500 Speicher | 1.212v | VID 1.000v | MSI | WaKü | mahaudi

- 7627 | 1030 GPU | 2060 Shader | 2100 Speicher | 1.200v | VID 1.000v | POV | WaKü | Flitzepiepe

- 7492 | 940 GPU | 1880 Shader | 2010 Speicher | 1.088v | VID ?? v | Gainward | Stock | dante`afk

- 7315 | 1000 GPU | 2000 Shader | 2380 Speicher | 1.188v | VID 1.0v | POV | WaKü | Modbox

- 7215 | 945 GPU | 1890 Shader | 2400 Speicher | 1.138V | VID 1.075 | PoV Ultra Charged | Lukü | UHJJ36

- 7084 | 1005 GPU | 2010 Shader | 2200 Speicher | 1.150v | VID 1.082v |EVGA Black Ops | Luft@12° |szeiger

- 6910 | 900 GPU | 1800 Shader | 2330 Speicher | 1.088v | VID ?? v | Palit| Stock | dante`afk

- 6878 | 900 GPU | 1800 Shader | 2400 Speicher | 1.1v | VID 1.088v | EVGA SC | LuKü | PsyArkron

- 6623 | 979 GPU | 1958 Shader | 1002 Speicher | 1.150v | VID 1.0v | POV | LuKü | ResamBs

- 6146 | 900 GPU | 1800 Shader | 2200 Speicher | 1.125V | VID 1.075 | PoV Ultra Charged | Lukü | GA-Thrawn


Bitte alle gewünschten Fakten & Fragen in diesem Thread posten, Danke :wink:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen!

Ich hätte eine kurze Frage bzgl. SLI, 30 Zoll Monitor und Anschlussart. (Displayport oder DVI)

Ich habe Zurzeit eine 580 gtx Phantom 3 gb in meinem System verbaut. Nun könnte ich eine EVGA 580er 3gb günstig bekommen und spiele mit dem Gedanken sie mit meiner Phantom zu betreiben. Jedoch ist mir aufgefallen das die EVGA Karte wohl über keinen Displayport Anschluss verfügt, ich jedoch meinen Monitor (HP ZR30w) weiter über den DP-Port befeuern möchte. Dazu kommt noch das die Evga in den ersten PCIe Slot müsste damit die Phantom genügend Platz zum Atmen hätte.

Somit müsste ich meinen Monitor an die zweite(untere) karte anschließen. Funktioniert das? Ich hatte bereits SLI Systeme, jedoch hatte ich damals immer die erste Karte oder alle 3 (Nvidia Surround) an den Monitor(en) angeschlossen die "nur" eine 1080p Auflösung hatten.

Wenn ihr mir kurz helfen könntet würde ich mich freuen.

Gruß
 
Du kannst auch das Signal von der zweiten Karte kommen lassen. Kann man einstellen, sowohl im BIOS (nicht bei jedem) aber auf jeden Fall unter Windows, Windows 7 macht das automatisch.

BTW: DP, DVI und HDMI liefern alle das gleiche digitale Signal. ;)
 
Hätte ich ja nicht gedacht, aber Undervolten bringt wirklich ne menge...
Läuft nun im Idle mit 0,825V, wird etwa 5°C kühler und der Lüfter dreht automatisch nur mit etwa 30% (Referenz-karte, geht auch runter bis 25%) So spare ich im Idle ganze 15 Watt und mein Sytsem verbraucht nur etwa 78 Watt, was recht aktzeptabel ist^^

Flashen ist schon hilfreich, vor allem braucht der Afterburner nicht ständig mitlaufen^^
 
Frage mich auch, wieso nvidia die nicht von Anfang an mit 0,825V ausgeliefert hat. Dadurch lässt sich etwas Strom sparen und macht die Karte im Idle nochmals etwas leiser... Gut, dass man die Karten so einfach flashen kann^^
 
Hab ich mich auch schon im BIOS ThreAd gefragt. Praktisch jede 580 läuft mit 0,825V. Mit diesen Spannungen wäre die 580 nicht weit weg von der 5870 gewesen (dem damaligen Energiesparkönig). Naja, SLI ist für demnach jedenfalls definitiv eine Alternative zur 680 ...
 
Bei mir wirds entweder noch ne zweite GTX 580 oder eben der GK110. Leider hat meine GTX 580 zu wenig VRam :(
 
Könnte von euch jemand mal eben in den 570'er Thread gucken? wäre nett danke! :d
 
Frage mich auch, wieso nvidia die nicht von Anfang an mit 0,825V ausgeliefert hat. Dadurch lässt sich etwas Strom sparen und macht die Karte im Idle nochmals etwas leiser... Gut, dass man die Karten so einfach flashen kann^^
+

Na dann lass BF3 mal auf den 0,825V mit Serie 772 laufen, das macht vielleicht jede zehnte Karte stabil mit, wenn überhaupt.
 
Ich habe seit heute ein Mainboard Kühlset, bei dem der SB Kühler leider bis unter den Sicherrheitsnippel des PCI-Slots ragt. Ich kann die 580 also nicht in den Slot stecken. Was meint ihr ... kann ich diesen Haken am PCB einfach abdremeln (gut abgeklebt und ganz vorsichtig natürlich).

Sollte im Prinzip ja keine Leiterbahnen usw. vorhanden sein. Oder wie seht ihr das?

Hier mal markiert:

 
Zuletzt bearbeitet:
Ist normalerweise garnicht meine Art, aber darf ich die Hardware-Profis noch einmal auf meine Frage 2 Posts hier drüber hinweisen?

Habe bis heute abend die Chance, sehr günstig an eine zweite GTX 580 zu kommen und würde halt vorher gern wissen, ob ich (relativ) gefahrlos die sen Teil vom PCB abtrennen kann.
THX!
 
Prinzipiell sollteste das abdremeln können, aber ich würde so einen Wasserkühler nicht verbauen, der verlangt, dass ich an einer solchen Karte rumdremeln muss - um ihn verbauen zu können.
 
EK hat ganz klar gesagt, dass es bei Karten mit diesen Sicherheitsnasen zu Problemen kommen kann und verweist extra auf den anderen Anschluss, also von der Seite kann ich nicht meckern. Dache halt, es würde viell. trotzdem passen ;)

Jetzt ist die Frage ... wage ich es?! :-[
 
Genau da will ich nix zu sagen.
ICH würde es nicht machen - die Karte bekommst Du nicht mehr verkauft, die Garantie ist auch weg.. nenene..
 
Naja, verkauft kriege ich sie sicherlich wieder. Nur eben nicht zu einem hohen Preis. Die Alternative wäre, auf SLI zu verzichten, aber ... da verbietet sich schon der Gedanke.
Vor Garantie- oder Wiederverkaufsproblemen graust es mir nicht - wenn ich wüsste, dass ich das ding ohne Probleme abzwacken kann, würde ich das machen.
 
Ist halt die Frage wie viel muss weg?
Wenn es "nur" die Haltenase ist, dann weg damit. Die Karte wird eh von den Schrauben gehalten. Und durch die "Modifkation" wird die Karte nicht beeinträchtigt, daher dürfte es die Garantiebestimmungen nicht verletzen. Zudem ist es sowie reines Glück ob die Karte getauscht wird oder nicht.
 
Ich habe seit heute ein Mainboard Kühlset, bei dem der SB Kühler leider bis unter den Sicherrheitsnippel des PCI-Slots ragt. Ich kann die 580 also nicht in den Slot stecken. Was meint ihr ... kann ich diesen Haken am PCB einfach abdremeln (gut abgeklebt und ganz vorsichtig natürlich).

Sollte im Prinzip ja keine Leiterbahnen usw. vorhanden sein. Oder wie seht ihr das?

Hier mal markiert:


Diese Nase hat nur die Funktion der Halterung. Kannst du einfach abdremmeln. Pass einfach auf, dass du nicht irgendwo rein sägst und schau, das die Spähne ( zum Teil elelktrisch leitend) nirgens einen Kurzschluss machen. Am besten mit einem Staubsauger arbeiten und die Karte nach getaner Arbeit ausblasen.

Grüsse Seru
 
Ich würde mir auch keinen Kühler mehr zulegen, bei dem ich was auch immer abdremmeln muss.
Von EK Chipsatzkühlern kenn ich das zumindest auch. Musste für das Asus Striker Extreme damals ne Schraube von dem SB-Kühler kürzen,
damit ich die Graka in den PCI Slot reingesteckt bekam.
Aber wenn's nicht anders geht, kannst es ja probieren.
 
Hallo zusammen. Hab jetzt meine 2. GTX 580 eingebaut. Gibts da was zu beachten mit der SLI Konfiguration im Treiber?

Gibts irgendwo die aktuellen SLI-Profile zum Download?
 
Zuletzt bearbeitet:
SLI Profile stecken im Treiber - kannst ruhig den neuen 3xx Beta-Treiber nehmen..
Dann einfach im Treiber SLI aktivieren.
Anschließend auch mal den Frame-Limiter im Nvidia Inspector testen..
dadurch hab ich konstante 60FPS in BF3@ultra + VSync - flüssiger geht es kaum.
 
SLI Profile stecken im Treiber - kannst ruhig den neuen 3xx Beta-Treiber nehmen..
Dann einfach im Treiber SLI aktivieren.
Anschließend auch mal den Frame-Limiter im Nvidia Inspector testen..
dadurch hab ich konstante 60FPS in BF3@ultra + VSync - flüssiger geht es kaum.

Thx Dude.
Wo kann ich den Frame Limiter im Inspector finden?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh